JP4585356B2 - Inter-vehicle communication system - Google Patents

Inter-vehicle communication system Download PDF

Info

Publication number
JP4585356B2
JP4585356B2 JP2005105449A JP2005105449A JP4585356B2 JP 4585356 B2 JP4585356 B2 JP 4585356B2 JP 2005105449 A JP2005105449 A JP 2005105449A JP 2005105449 A JP2005105449 A JP 2005105449A JP 4585356 B2 JP4585356 B2 JP 4585356B2
Authority
JP
Japan
Prior art keywords
vehicle
data
unit
moving body
determination unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005105449A
Other languages
Japanese (ja)
Other versions
JP2006285693A (en
Inventor
義秋 坂上
貴通 嶋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2005105449A priority Critical patent/JP4585356B2/en
Priority to US11/365,914 priority patent/US7778770B2/en
Priority to KR1020060028036A priority patent/KR100885738B1/en
Publication of JP2006285693A publication Critical patent/JP2006285693A/en
Application granted granted Critical
Publication of JP4585356B2 publication Critical patent/JP4585356B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両同士が通信を行う車両間通信システムに関する。   The present invention relates to an inter-vehicle communication system in which vehicles communicate with each other.

従来、カーナビゲーションシステムなどを利用し、車両内に設けられた表示装置や音声出力装置に道路状況などを出力する装置が知られている。   2. Description of the Related Art Conventionally, a device that outputs a road condition or the like to a display device or an audio output device provided in a vehicle using a car navigation system or the like is known.

特許文献1に記載の交差点事故防止装置は、カメラおよび表示部を備えており、自車両が交差点に進入した際に、自車両のカメラが過去に撮影した交差点付近の映像を表示部に表示させる装置である。   The intersection accident prevention apparatus described in Patent Literature 1 includes a camera and a display unit, and when the host vehicle enters the intersection, displays an image of the vicinity of the intersection taken by the camera of the host vehicle in the past on the display unit. Device.

また、特許文献2に記載の障害物報知装置は、赤外線カメラおよびスポットランプを備えており、自車両の赤外線カメラによって撮影された画像から障害物(移動体)を検出し、スポットランプが検出された障害物に電磁波マーカを照射することによって、運転者に障害物を知らせる装置である。   Moreover, the obstacle notification device described in Patent Document 2 includes an infrared camera and a spot lamp, detects an obstacle (moving body) from an image taken by the infrared camera of the host vehicle, and detects the spot lamp. It is a device that informs the driver of an obstacle by irradiating the obstacle with an electromagnetic wave marker.

また、特許文献3に記載の移動体接近報知装置は、自車両近傍の移動体を検出する移動体検出手段と報知手段とを備え、自車両および検出された移動体の進路を推定し、これらが接近する場合に、報知手段が運転者に接近を報知する装置である。
特開2004−51006号公報(段落0015〜0034、図1〜図4) 特開2004−185015号公報(段落0010〜0034、図1〜図7) 特開2004−118418号公報(段落0008〜0029、図1〜図6)
The moving body approach notification device described in Patent Document 3 includes moving body detection means and notification means for detecting a moving body in the vicinity of the host vehicle, estimates the course of the host vehicle and the detected moving body, and When the vehicle approaches, the notification means notifies the driver of the approach.
JP 2004-51006 A (paragraphs 0015 to 0034, FIGS. 1 to 4) JP-A-2004-185015 (paragraphs 0010 to 0034, FIGS. 1 to 7) JP 2004-118418 A (paragraphs 0008 to 0029, FIGS. 1 to 6)

しかしながら、前記した各特許文献に開示された装置は、自車両が移動体を検出することを前提にしたものであり、自車両が検出することができなかった移動体に関する情報を運転者に知らせることができないという問題があった。   However, the devices disclosed in the above-mentioned patent documents are based on the premise that the own vehicle detects a moving body, and inform the driver of information on the moving body that the own vehicle could not detect. There was a problem that I could not.

本発明は、前記した問題を解決すべく創案されたものであり、自車両が検出できなかった移動体の存在を運転者に知らせることが可能な車両間通信システムを提供することを課題とする。   The present invention has been developed to solve the above-described problems, and an object of the present invention is to provide an inter-vehicle communication system capable of notifying the driver of the presence of a moving body that the host vehicle cannot detect. .

前記課題を解決するため、請求項1に記載の発明は、車両同士が通信を行う車両間通信システムであって、車両ごとに設けられた、当該車両の周囲を撮像する撮像手段と、前記撮像手段によって撮像された画像から移動体を検出する移動体検出部と、車両ごとに設けられた、音声を発する発音手段と、車両ごとに設けられた、前記車両の前記発音手段に発音させる音声に関する音声データを生成する音声データ生成部と、車両ごとに設けられた、データの送受信を行う送受信手段と、を備え、一の車両の前記音声データ生成部は、他の車両の前記撮像手段によって撮像された移動体の存在を知らせる音声データを生成し、一の車両の前記発音手段に出力し、車両ごとに設けられた、前記車両の位置に関する車両位置データを検出する車両位置データ検出手段と、車両ごとに設けられた、前記撮像手段によって撮像された画像から前記移動体の位置に関する移動体位置データを生成する移動体位置データ生成部と、をさらに備え、一の車両の前記音声データ生成部は、他の車両の前記移動体位置データ生成部によって生成された前記移動体位置データに基づいて、他の車両の前記撮像手段によって撮像された前記移動体の存在位置を知らせる音声データを生成し、一の車両の前記発音手段に出力し、前記撮像手段によって撮像された移動体に関する情報を共有する車両の組み合わせを決定する情報共有車両決定部と、前記撮像手段の撮像領域が記憶された記憶部と、をさらに備え、前記情報共有車両決定部は、前記車両位置データ検出手段によって検出された前記車両位置データと、前記記憶部に記憶された前記撮像手段の撮像領域に基づいて、前記撮像領域が所定割合以上重なっている車両同士を、前記した一の車両及び他の車両として組み合わせることを特徴とする。 In order to solve the above-mentioned problem, the invention according to claim 1 is an inter-vehicle communication system in which vehicles communicate with each other, and is provided for each vehicle. The present invention relates to a moving body detecting unit that detects a moving body from an image picked up by means, a sounding means that emits sound provided for each vehicle, and a sound that is sounded by the sounding means of the vehicle provided for each vehicle. An audio data generation unit that generates audio data; and a transmission / reception unit that transmits and receives data provided for each vehicle. The audio data generation unit of one vehicle captures an image by the imaging unit of another vehicle. generates audio data for notifying the presence of the the mobile body and outputs to said sound generating means of the one vehicle, provided for each vehicle, the vehicle position to detect the vehicle position data relating to the position of the vehicle A vehicle position data generating unit that generates a moving body position data related to the position of the moving body from an image captured by the imaging unit, provided for each vehicle, The voice data generation unit of the vehicle is configured to determine the position of the moving body imaged by the imaging unit of another vehicle based on the moving body position data generated by the moving body position data generation unit of the other vehicle. An information sharing vehicle determining unit that generates voice data to be notified, outputs the sound data to the sound generation unit of one vehicle, and determines a combination of vehicles that share information on the moving body imaged by the imaging unit, and imaging of the imaging unit A storage unit in which an area is stored, and the information sharing vehicle determination unit includes the vehicle position data detected by the vehicle position data detection unit, Serial based on the imaging area of the storage unit to the stored the imaging means, a vehicle between said imaging region overlaps a predetermined ratio or more, and wherein the combining as one of the vehicle and other vehicles described above.

このようにすることで、ある車両の撮像手段が撮影できなかった移動体の存在を発音手段に発音させることができ、かかる移動体の存在を運転手に知らせることができる。
また、このようにすることで、移動体の存在に加え、移動体の位置を運転手に知らせることができる。
また、このようにすることで、各車両の通信相手の設定が好適に行われる。
また、このようにすることで、移動体に関する通信を減らすことができる。
By doing in this way, the sounding means can be caused to pronounce the presence of the moving body that cannot be imaged by the imaging means of a certain vehicle, and the driver can be notified of the presence of the moving body.
Further, in this way, in addition to the presence of the moving body, the driver can be notified of the position of the moving body.
Moreover, the communication partner of each vehicle is suitably set by doing in this way.
In addition, communication related to the mobile object can be reduced by doing in this way.

また、請求項2に記載の発明は、請求項1に記載の車両間通信システムであって、情報を共有する車両の探索を開始するか否かを判定する探索開始判定部をさらに備え、前記探索開始判定部が情報を共有する車両の探索を開始すると判定した場合に、前記情報共有車両決定手段が情報を共有する車両の組み合わせを決定することを特徴とする。 The invention according to claim 2 is the inter-vehicle communication system according to claim 1 , further comprising a search start determination unit that determines whether or not to start searching for a vehicle that shares information, When the search start determination unit determines to start searching for a vehicle that shares information, the information sharing vehicle determination unit determines a combination of vehicles that share information.

このようにすることで、必要なときのみに車両の組み合わせを決定するので、情報処理量を減らすことができる。   By doing in this way, since the combination of vehicles is determined only when necessary, the amount of information processing can be reduced.

また、請求項3に記載の発明は、請求項2に記載の車両間通信システムであって、前記探索開始判定部は、前記車両の前記移動体検出部が移動体を検出した場合に、当該車両に対する情報共有車両の探索を開始するか否かを判定し、前記情報共有車両決定部は、前記探索開始判定部が当該車両に対する情報共有車両の探索を開始すると判定した場合に、当該車両と情報を共有する車両を決定することを特徴とする。 The invention according to claim 3 is the inter-vehicle communication system according to claim 2 , wherein the search start determination unit is configured to detect the moving object when the moving object detection unit of the vehicle detects a moving object. It is determined whether or not to start a search for an information sharing vehicle for the vehicle, and the information sharing vehicle determination unit determines that the search start determination unit starts to search for the information sharing vehicle for the vehicle. The vehicle which shares information is determined.

このようにすることで、移動体を検出していないときの通信を行わずに済ませることができる。   By doing in this way, it is possible to avoid communication when a moving object is not detected.

また、請求項4に記載の発明は、請求項3に記載の車両間通信システムであって、前記記憶部には、地図データがさらに記憶されており、前記探索開始判定部は、前記車両位置データと、前記地図データと、に基づいて、前記車両が前記地図データにおけるノードに接近しているか否かを判定し、前記情報共有車両決定部は、前記探索開始判定部が前記車両が前記ノードに接近していると判定した場合に、当該車両と情報を共有する車両を決定することを特徴とする。 The invention according to claim 4 is the inter-vehicle communication system according to claim 3 , wherein map data is further stored in the storage unit, and the search start determination unit is the vehicle position Based on the data and the map data, it is determined whether or not the vehicle is approaching a node in the map data, and the information sharing vehicle determination unit is configured such that the search start determination unit and the vehicle are the node When it is determined that the vehicle is approaching the vehicle, a vehicle sharing information with the vehicle is determined.

このようにすることで、死角が多く移動体との出会い頻度が大きい交差点(ノード)で、移動体の存在を運転手に知らせることができる。
また、ノード(交差点など)に接近している場合のみに通信を行うようになり、通信量を減らすことができる。
By doing so, it is possible to inform the driver of the presence of the moving body at an intersection (node) where there are many blind spots and the frequency of encounter with the moving body is large.
Further, communication is performed only when a node (such as an intersection) is approaching, and the amount of communication can be reduced.

また、請求項5に記載の発明は、請求項4に記載の車両間通信システムであって、前記車両の近傍に位置する車両を抽出する近傍車両抽出部をさらに備え、前記情報共有車両決定部は、前記近傍車両抽出部によって抽出された車両の中から、情報を共有する車両を決定することを特徴とする。 The invention according to claim 5 is the inter-vehicle communication system according to claim 4 , further comprising a nearby vehicle extracting unit that extracts a vehicle located in the vicinity of the vehicle, and the information sharing vehicle determining unit Determines a vehicle sharing information from among the vehicles extracted by the nearby vehicle extraction unit.

このようにすることで、通信を行う車両の絞込みが好適に行われる。   By doing in this way, narrowing down of the vehicle which communicates is performed suitably.

本発明によれば、自車両が検出できなかった移動体の存在を、他車両が検出したデータに基づいて運転者に知らせることが可能な車両間通信システムを提供することができる。   According to the present invention, it is possible to provide an inter-vehicle communication system capable of notifying a driver of the presence of a moving body that could not be detected by the host vehicle based on data detected by another vehicle.

以下、本発明の実施形態について、適宜図面を参照しながら説明する。同様の部分には同一符号を付し、重複する説明を省略する。なお、以下の説明における「速度」は、スカラー量である。また、説明の便宜上、自車両が検出した移動体を単に「移動体」、他車両が検出した移動体を「他移動体」と記載し、区別することがある。   Hereinafter, embodiments of the present invention will be described with reference to the drawings as appropriate. Similar parts are denoted by the same reference numerals, and redundant description is omitted. In the following description, “speed” is a scalar quantity. For convenience of explanation, a moving body detected by the host vehicle may be simply referred to as a “moving body”, and a moving body detected by another vehicle may be described as an “other moving body”.

(車両間通信システム1)
まず、本発明の実施形態に係る車両間通信システムの概略について説明する。図1は、本発明の実施形態に係る車両間システムを示すシステム構成図である。
図1に示すように、本発明の実施形態に係る車両間通信システム1は、カーナビゲーションシステムと共用可能なシステムであり、複数の車両Cに個別に設けられた車載装置2と、車両管理装置3と、を備えている。車載装置2は、基地局4およびネットワーク5を介して車両管理装置3と双方向通信可能であるとともに、車両管理装置3を介して他の車両Cの車載装置2とも双方向通信可能である。また、車載装置2は、車両管理装置3を介さずに他の車両Cの車載装置2と直接通信することも可能である。以下、複数の車両Cについて区別が必要である場合には「車両C1、車両C2、・・・」と記載し、区別が必要でない場合には「車両C」と記載する。
(Vehicle communication system 1)
First, an outline of an inter-vehicle communication system according to an embodiment of the present invention will be described. FIG. 1 is a system configuration diagram showing an inter-vehicle system according to an embodiment of the present invention.
As shown in FIG. 1, an inter-vehicle communication system 1 according to an embodiment of the present invention is a system that can be shared with a car navigation system, and includes an in-vehicle device 2 that is individually provided in a plurality of vehicles C, and a vehicle management device. 3 is provided. The in-vehicle device 2 can bidirectionally communicate with the vehicle management device 3 via the base station 4 and the network 5, and can also bidirectionally communicate with the in-vehicle devices 2 of other vehicles C via the vehicle management device 3. Further, the in-vehicle device 2 can directly communicate with the in-vehicle device 2 of another vehicle C without using the vehicle management device 3. Hereinafter, when a plurality of vehicles C need to be distinguished, they are described as “vehicle C1, vehicle C2,...”, And when they are not necessary, they are described as “vehicle C”.

(車載装置2)
続いて、車載装置2について説明する。図2は、図1の車載装置を示すブロック図である。
図2に示すように、本発明の実施形態に係る車載装置2は、カメラ11,11と、地磁気センサ12と、ジャイロセンサ13と、GPS受信器14と、車速センサ15と、車両センサ16と、操作スイッチ17と、地図データ入力機18と、送受信機19と、表示装置20と、スピーカ21と、車両制御装置22と、記憶部23と、主制御部30と、を備えている。
(In-vehicle device 2)
Next, the in-vehicle device 2 will be described. FIG. 2 is a block diagram showing the in-vehicle device of FIG.
As shown in FIG. 2, the in-vehicle device 2 according to the embodiment of the present invention includes cameras 11 and 11, a geomagnetic sensor 12, a gyro sensor 13, a GPS receiver 14, a vehicle speed sensor 15, and a vehicle sensor 16. The operation switch 17, the map data input device 18, the transceiver 19, the display device 20, the speaker 21, the vehicle control device 22, the storage unit 23, and the main control unit 30 are provided.

(カメラ11,11)
カメラ11,11は、映像をデジタルデータとして取り込むことができるものであり、例えばカラーCCD(Charge-Coupled Device)カメラが使用される。カメラ11,11は、左右に平行に並んで配置され、撮影した画像は特徴抽出部31および出力データ生成部41に出力される。このカメラ11,11は、車両Cにその前方を撮影可能に設けられている。
このカメラ11,11が、「撮像手段」の一例である。
(Camera 11, 11)
The cameras 11 and 11 are capable of capturing video as digital data. For example, a color CCD (Charge-Coupled Device) camera is used. The cameras 11 and 11 are arranged side by side in parallel on the left and right, and the captured image is output to the feature extraction unit 31 and the output data generation unit 41. The cameras 11 and 11 are provided on the vehicle C so as to be able to photograph the front.
The cameras 11 and 11 are an example of “imaging means”.

(地磁気センサ12)
地磁気センサ12は、方位に関するデータ(以下、「方位データ」と記載する。)を検出し、車両データ生成部35に出力する。
(Geomagnetic sensor 12)
The geomagnetic sensor 12 detects data related to the direction (hereinafter referred to as “direction data”) and outputs the data to the vehicle data generation unit 35.

(ジャイロセンサ13)
ジャイロセンサ13は、車両Cの向きに関するデータ(以下、「車両向きデータ」と記載する。)を検出し、車両データ生成部35に出力する。
このジャイロセンサ13が、「車両向きデータ検出手段」の一例である。
(Gyro sensor 13)
The gyro sensor 13 detects data related to the direction of the vehicle C (hereinafter referred to as “vehicle direction data”) and outputs the data to the vehicle data generation unit 35.
The gyro sensor 13 is an example of “vehicle direction data detecting means”.

(GPS受信器14)
GPS受信器14は、GPS(Global Positioning System)を利用して車両Cの位置(緯度、経度)に関するデータ(以下、「車両位置データ」と記載する。)を検出し、車両データ生成部35に出力する。
このGPS受信器14が、「車両位置データ検出手段」の一例である。
(GPS receiver 14)
The GPS receiver 14 detects data (hereinafter referred to as “vehicle position data”) relating to the position (latitude, longitude) of the vehicle C using GPS (Global Positioning System), and sends it to the vehicle data generation unit 35. Output.
The GPS receiver 14 is an example of “vehicle position data detecting means”.

(車速センサ15)
車速センサ15は、車両Cの速度(以下、「車両速度データ」と記載する。)を検出し、車両データ生成部35に出力する。
(Vehicle speed sensor 15)
The vehicle speed sensor 15 detects the speed of the vehicle C (hereinafter referred to as “vehicle speed data”) and outputs it to the vehicle data generation unit 35.

(車両センサ16)
車両センサ16は、車両Cの各種状態を検出するものであり、ブレーキペダルの操作量、アクセルペダルの操作量、エンジン回転数、ハンドルの操作量などを検出するセンサを含むセンサ群である。
(Vehicle sensor 16)
The vehicle sensor 16 detects various states of the vehicle C, and is a sensor group including sensors that detect an operation amount of a brake pedal, an operation amount of an accelerator pedal, an engine speed, an operation amount of a steering wheel, and the like.

(操作スイッチ17)
操作スイッチ17は、車載装置2の駆動状態を操作するためのスイッチ群であり、例えば、表示装置20のON/OFFを切り換えるスイッチ、スピーカ21の出力音量を調節するスイッチなどを備えている。
(Operation switch 17)
The operation switch 17 is a group of switches for operating the driving state of the in-vehicle device 2 and includes, for example, a switch for switching ON / OFF of the display device 20 and a switch for adjusting the output volume of the speaker 21.

(地図データ入力機18)
地図データ入力機18は、地図データを入力し、記憶部23に記憶させるためのものである。
(Map data input machine 18)
The map data input machine 18 is for inputting map data and storing it in the storage unit 23.

(送受信機19)
送受信機19は、主制御部30から出力された各種データを基地局4へ送信するとともに、車両管理装置3の制御部50(図3参照)から出力され、基地局4から送信された各種データ、および、他の車両Cの主制御部30から出力され、送受信機19から送信された各種データを受信する無線通信装置である。
この送受信機19が、「送受信手段」の一例である。
(Transceiver 19)
The transceiver 19 transmits various data output from the main control unit 30 to the base station 4, and also outputs various data output from the control unit 50 (see FIG. 3) of the vehicle management device 3 and transmitted from the base station 4. And a wireless communication device that receives various data output from the main controller 30 of another vehicle C and transmitted from the transceiver 19.
The transceiver 19 is an example of “transmission / reception means”.

(表示装置20)
表示装置20は、カメラ11,11によって撮像された車両Cの周囲の画像や、後記する記憶部23に記憶された地図データに基づく画像を出力するための装置である。
また、表示装置20は、後記する画像データ生成部41aにより生成された画像データに基づき、画像を表示するとともに、後記する文字データ生成部41bにより生成された文字データに基づき、文字を表示する。
この表示装置20は、車両Cの車室内に設けられており、運転者が視認可能な位置に設けられている。
この表示装置20が、「表示手段」の一例である。
(Display device 20)
The display device 20 is a device for outputting an image around the vehicle C captured by the cameras 11 and 11 and an image based on map data stored in the storage unit 23 described later.
The display device 20 displays an image based on image data generated by the image data generation unit 41a described later, and displays characters based on character data generated by the character data generation unit 41b described later.
The display device 20 is provided in the passenger compartment of the vehicle C, and is provided at a position where the driver can visually recognize the display device 20.
The display device 20 is an example of a “display unit”.

(スピーカ21)
スピーカ21は、後記する音声データ生成部41dにより生成された音声データに基づき、音声を出力する。
このスピーカ21は、車両Cの車室内に設けられており、出力した音声を運転者に伝達可能となっている。
このスピーカ21が、「発音手段」の一例である。
(Speaker 21)
The speaker 21 outputs sound based on the sound data generated by the sound data generating unit 41d described later.
The speaker 21 is provided in the passenger compartment of the vehicle C and can transmit the output sound to the driver.
The speaker 21 is an example of “sound generation means”.

(車両制御装置22)
車両制御装置(ECU:Electrical Control Unit)22は、車両Cの動作を制御する装置である。車両制御装置22は、車両センサ16の検出結果および出力データ生成部41の出力に基づいて、ブレーキ液圧を制御したり、クラクションに警報音を発生させたりする。
(Vehicle control device 22)
The vehicle control device (ECU: Electrical Control Unit) 22 is a device that controls the operation of the vehicle C. Based on the detection result of the vehicle sensor 16 and the output of the output data generation unit 41, the vehicle control device 22 controls the brake fluid pressure or generates an alarm sound for the horn.

(記憶部23)
記憶部23は、車載装置2が搭載された車両Cに関する車両ID、地図データなどを記憶している。
(Storage unit 23)
The memory | storage part 23 has memorize | stored vehicle ID regarding the vehicle C by which the vehicle-mounted apparatus 2 is mounted, map data, etc.

(主制御部30)
主制御部30は、特徴抽出部31と、対象物検出部32と、対象物データ生成部33と、対象物データ通知部34と、車両データ生成部35と、車両データ通知部36と、データ受信部37と、他移動体データ推定部38と、ローカルマップ生成部39と、出会い判定部40と、出力データ生成部41と、を備えている。
(Main control unit 30)
The main control unit 30 includes a feature extraction unit 31, an object detection unit 32, an object data generation unit 33, an object data notification unit 34, a vehicle data generation unit 35, a vehicle data notification unit 36, data A receiving unit 37, another mobile body data estimation unit 38, a local map generation unit 39, an encounter determination unit 40, and an output data generation unit 41 are provided.

(特徴抽出部31)
特徴抽出部31は、画像のエッジ成分を抽出すると共に、距離画像を得る。
(Feature extraction unit 31)
The feature extraction unit 31 extracts an edge component of the image and obtains a distance image.

(対象物検出部32)
対象物検出部32は、特徴抽出部31の抽出結果に基づいて、スネーク法などを用いて距離画像のグループクラスタを求め、前回のクラスタとの同一性を判定し、対象物を検出するものであり、「移動体検出部」の一例である。これら特徴抽出部31および対象物検出部32による対象物の検出手法としては、例えば、本願発明と同一の出願人によって出願された特開2004−46426号公報、特開2004−103018号公報に記載の手法を用いることができる。
対象物としては、人、自転車、車両(普通車両、バス、トラックなど)などを含む移動体と、交差点と、が挙げられる。
また、対象物検出部32は、この対象物に関するデータ(以下、「対象物相対データ」と記載する。)を生成し、後記する対象物データ生成部33およびローカルマップ生成部39に出力する。
対象物相対データは、対象物IDと、対象物画像データと、対象物相対位置データと、対象物相対速度データと、対象物相対方向データと、種別データと、を含むデータである。
対象物IDは、対象物検出部32によって、検出された移動体ごとに付与される。
対象物画像データは、対象物を表示させるための画像データである。
対象物相対位置データは、検出された対象物の重心位置に関するデータであり、対象物の車両Cに対する相対位置を示すデータである。
対象物相対速度データは、検出された対象物の速度に関するデータであり、対象物の車両Cに対する相対速度を示すデータである。対象物検出部32は、新しいフレーム(画像)と過去のフレームとを比較することによって対象物相対速度データを算出する。
対象物相対方向データは、検出された対象物の方向(移動方向)に関するデータであり、対象物の車両Cに対する相対移動方向を示すデータである。対象物検出部32は、新しいフレーム(画像)と過去のフレームとを比較することによって対象物相対方向データを算出する。
種別データは、検出された対象物の種類に関するデータである。対象物検出部32は、予め記憶された対象物の種類とその形状とを関連付けたデータを参照することによって、検出された対象物が何であるかを特定し、種別データを生成する。
なお、対象物検出部32は、各種データを算出・生成するにあたり、車両データ生成部35によって生成された車両データを参照することもできる。これは、車両Cの移動方向、車両速度を考慮した上で対象物の各種データを算出・生成するためである。
(Object detection unit 32)
The object detection unit 32 obtains a group cluster of the distance image using a snake method or the like based on the extraction result of the feature extraction unit 31, determines the identity with the previous cluster, and detects the object. Yes, it is an example of a “moving body detection unit”. Examples of the object detection method by the feature extraction unit 31 and the object detection unit 32 are described in Japanese Patent Application Laid-Open Nos. 2004-46426 and 2004-103018 filed by the same applicant as the present invention. Can be used.
Examples of the object include moving objects including people, bicycles, vehicles (ordinary vehicles, buses, trucks, etc.), and intersections.
Further, the object detection unit 32 generates data related to the object (hereinafter referred to as “object relative data”) and outputs the data to the object data generation unit 33 and the local map generation unit 39 which will be described later.
The object relative data is data including object ID, object image data, object relative position data, object relative speed data, object relative direction data, and type data.
The object ID is given to each moving object detected by the object detection unit 32.
The object image data is image data for displaying the object.
The object relative position data is data relating to the position of the center of gravity of the detected object, and is data indicating the relative position of the object with respect to the vehicle C.
The object relative speed data is data relating to the speed of the detected object, and is data indicating the relative speed of the object with respect to the vehicle C. The object detection unit 32 calculates object relative velocity data by comparing a new frame (image) with a past frame.
The object relative direction data is data relating to the direction (movement direction) of the detected object, and is data indicating the relative movement direction of the object with respect to the vehicle C. The object detection unit 32 calculates object relative direction data by comparing a new frame (image) with a past frame.
The type data is data relating to the type of the detected object. The object detection unit 32 identifies what the detected object is by referring to data that associates the type of object and the shape stored in advance, and generates type data.
The object detection unit 32 can also refer to the vehicle data generated by the vehicle data generation unit 35 when calculating / generating various data. This is to calculate and generate various data of the object in consideration of the moving direction of the vehicle C and the vehicle speed.

(対象物データ生成部33)
対象物データ生成部33は、対象物検出部32によって検出された検出結果(対象物相対データ)と、車両データ生成部35によって生成された車両データ(後記する)に基づいて、対象物データを生成する。すなわち、対象物データ生成部33は、対象物と車両との相対関係(対象物相対データ)と、車両の道路に対するデータ(車両データ)と、に基づいて、対象物の道路に対するデータ(対象物データ)を生成する。
対象物データは、対象物IDと、対象物画像データと、対象物位置データと、対象物速度データと、対象物方向データと、種別データと、を含むデータである。
すなわち、対象物データ生成部33は、対象物位置データ生成部(移動体データ生成部)であり、対象物速度データ生成部(移動体速度データ生成部)であり、対象物方向データ生成部(移動体データ生成部)である。なお、対象物位置データ、対象物速度データおよび対象物方向データは、これらと同等な物理量を表すデータであればよく、例えば、対象物位置データとして、対象物を検出した車両Cの位置データと、対象物の車両Cに対する相対位置データと、を用いることもできる。このような場合には、GPS受信器14および対象物検出部32の組み合わせが、対象物位置データ生成部に相当することになる。これは、他のデータについても同様である。
(Object data generation unit 33)
The object data generation unit 33 converts the object data based on the detection result (object relative data) detected by the object detection unit 32 and vehicle data (described later) generated by the vehicle data generation unit 35. Generate. In other words, the object data generation unit 33 determines the data (object) for the road of the object based on the relative relationship between the object and the vehicle (object relative data) and the data for the road of the vehicle (vehicle data). Data).
The object data is data including object ID, object image data, object position data, object speed data, object direction data, and type data.
That is, the object data generation unit 33 is an object position data generation unit (moving body data generation unit), an object speed data generation unit (moving body speed data generation unit), and an object direction data generation unit ( Mobile object data generation unit). The object position data, the object speed data, and the object direction data may be data representing physical quantities equivalent to these. For example, as the object position data, the position data of the vehicle C that detected the object The relative position data of the object relative to the vehicle C can also be used. In such a case, the combination of the GPS receiver 14 and the object detection unit 32 corresponds to the object position data generation unit. The same applies to other data.

(対象物データ通知部34)
対象物データ通知部34は、対象物データ生成部33によって生成された対象物移動体データに当該車両Cの車両IDを付与して出力する。出力された対象物データは、送受信機19を介して車両管理装置3および他の車両Cの車載装置2に通知される。
また、対象物データ通知部34は、車両管理装置3および他の車両Cの車載装置2に対する通信状態を接続/切断するための信号を出力する。
(Subject data notification unit 34)
The target object data notification unit 34 assigns and outputs the vehicle ID of the vehicle C to the target object moving body data generated by the target object data generation unit 33. The output object data is notified to the vehicle management device 3 and the in-vehicle device 2 of another vehicle C via the transceiver 19.
In addition, the object data notification unit 34 outputs a signal for connecting / disconnecting the communication state with respect to the vehicle management device 3 and the in-vehicle device 2 of another vehicle C.

(車両データ生成部35)
車両データ生成部35は、地磁気センサ12、ジャイロセンサ13、GPS受信器14および車速センサ15の検出結果に基づいて、車両データを生成する。この車両データは、自車の車両ID、車両向きデータ、車両位置データ、車両速度データを含むデータである。生成された車両データは、車両データ通知部36およびローカルマップ生成部39に出力される。また、車両データ生成部35は、カルマンフィルタにより、現時点での車両向きデータ、車両位置データ、車両速度データを推定し、これら推定されたデータを車両データに採用している。
(Vehicle data generation unit 35)
The vehicle data generation unit 35 generates vehicle data based on the detection results of the geomagnetic sensor 12, the gyro sensor 13, the GPS receiver 14, and the vehicle speed sensor 15. This vehicle data is data including the vehicle ID of the host vehicle, vehicle orientation data, vehicle position data, and vehicle speed data. The generated vehicle data is output to the vehicle data notification unit 36 and the local map generation unit 39. In addition, the vehicle data generation unit 35 estimates the current vehicle orientation data, vehicle position data, and vehicle speed data by the Kalman filter, and adopts these estimated data as vehicle data.

(車両データ通知部36)
車両データ通知部36は、車両データ生成部35によって生成された車両データを出力する。出力された車両データは、送受信機19を介して車両管理装置3に通知される。
(Vehicle data notification unit 36)
The vehicle data notification unit 36 outputs the vehicle data generated by the vehicle data generation unit 35. The output vehicle data is notified to the vehicle management device 3 via the transceiver 19.

(データ受信部37)
データ受信部37は、車両管理装置3および他の車両Cの車載装置2から送信されたデータを受信する。受信されるデータの一種である他移動体データは、対象物データ通知部34および他移動体データ推定部38に出力される。
(Data receiver 37)
The data receiving unit 37 receives data transmitted from the vehicle management device 3 and the in-vehicle device 2 of another vehicle C. Other mobile body data, which is a type of received data, is output to the object data notification section 34 and the other mobile body data estimation section 38.

(他移動体データ推定部38)
他移動体データ推定部38は、入力された他移動体データから、現時点での他移動体データ(以下、「他移動体推定データ」と記載する。)を推定する。かかる推定は、カルマンフィルタにより行われる。また、他移動体データ推定部38は、移動体推定データの一部として、他移動体データおよび車両データに基づいて、他移動体の自車両Cに対する相対位置に関するデータ(以下、「他移動体相対位置データ」と記載する。)を生成する。
(Other mobile data estimation unit 38)
The other mobile body data estimation unit 38 estimates other mobile body data at the present time (hereinafter referred to as “other mobile body estimation data”) from the input other mobile body data. Such estimation is performed by a Kalman filter. Further, the other mobile body data estimation unit 38, as a part of the mobile body estimation data, based on the other mobile body data and the vehicle data, data related to the relative position of the other mobile body to the host vehicle C (hereinafter referred to as “other mobile body Relative position data ”).

(ローカルマップ生成部39)
ローカルマップ生成部39は、車両データ生成部35によって生成された車両データと、対象物データ生成部33によって生成された移動体データと、他移動体データ推定部38によって推定された他移動体推定データと、に基づいて、車両Cの周囲の状況に関するローカルマップを生成する。このローカルマップは、車両Cの周囲の移動体の位置、速度などを時間的に管理し、これら過去の履歴から現在の移動体の位置、速度などを推定するものである。出会い判定部40は、この推定されたデータに基づいて、自車両Cと移動体とが出会うか否かを判定する。
ここで、ローカルマップ生成部39は、車両データ生成部35によって生成された車両データおよび対象物データ生成部33によって生成された対象物データと、他移動体データ推定部38によって推定された他移動体推定データと、の同一性を判定する。そして、ローカルマップ生成部39は、これらの同一性が否定された場合にのみ、他移動体推定データをローカルマップに統合する。
これは、自車両Cと同一である他移動体と、自車両Cがデータを取得した移動体と同一である他移動体と、をローカルマップに統合することにより、データの重複が発生してしまうことを防ぐためである。
(Local map generator 39)
The local map generation unit 39 includes the vehicle data generated by the vehicle data generation unit 35, the moving body data generated by the object data generation unit 33, and the other moving body estimation estimated by the other moving body data estimation unit 38. Based on the data, a local map relating to the situation around the vehicle C is generated. This local map temporally manages the position, speed, etc. of the mobile body around the vehicle C, and estimates the current position, speed, etc. of the mobile body from these past histories. The encounter determination unit 40 determines whether or not the host vehicle C and the moving body meet based on the estimated data.
Here, the local map generation unit 39 includes the vehicle data generated by the vehicle data generation unit 35 and the object data generated by the object data generation unit 33, and the other movement estimated by the other moving body data estimation unit 38. The identity with the body estimation data is determined. And the local map production | generation part 39 integrates other moving body estimation data into a local map, only when these identity is denied.
This is because duplication of data occurs by integrating the other moving body that is the same as the own vehicle C and the other moving body that is the same as the moving body from which the own vehicle C has acquired data into the local map. It is for preventing it.

(出会い判定部40)
出会い判定部40は、自車両Cと他車両によって検出された移動体(他移動体)とが出会うか否かを判定する。判定結果は、出力データ生成部41に出力される。この出会い判定部40による判定手法の詳細は後記する。
(Meeting determination unit 40)
The encounter determination unit 40 determines whether or not the host vehicle C and a moving body (another moving body) detected by the other vehicle meet. The determination result is output to the output data generation unit 41. Details of the determination method by the encounter determination unit 40 will be described later.

(出力データ生成部41)
出力データ生成部41は、ローカルマップおよび出会い判定部40による判定結果に基づいて、他移動体の存在および他移動体との出会い判定結果を運転者に伝達するための出力データを生成するためのものであり、画像データ生成部41aと、文字データ生成部41bと、表示データ生成部41cと、音声データ生成部41dと、制御データ生成部41eと、を備えている。
(Output data generation unit 41)
The output data generation unit 41 generates output data for transmitting the existence determination result of the other mobile body and the encounter determination result with the other mobile body to the driver based on the determination result by the local map and the encounter determination unit 40. The image data generation unit 41a, the character data generation unit 41b, the display data generation unit 41c, the voice data generation unit 41d, and the control data generation unit 41e are provided.

(画像データ生成部41a)
画像データ生成部41aは、他移動体の存在を表示する画像データを生成し、表示データ生成部41cを介して表示装置20に表示させる。
(Image data generation unit 41a)
The image data generation unit 41a generates image data that displays the presence of another moving body and causes the display device 20 to display the image data via the display data generation unit 41c.

(文字データ生成部41b)
文字データ生成部41bは、他移動体の存在や、他移動体と自車両Cとの出会い判定結果を表す文字データを生成し、表示データ生成部41cを介して表示装置20に表示させる。
この画像データ生成部41aおよび文字データ生成部41bが、「画像/文字データ生成部」の一例である。
(Character data generation unit 41b)
The character data generation unit 41b generates character data representing the presence of another moving body and the result of an encounter determination between the other moving body and the host vehicle C, and displays the character data on the display device 20 via the display data generation unit 41c.
The image data generation unit 41a and the character data generation unit 41b are examples of the “image / character data generation unit”.

(表示データ生成部41c)
表示データ生成部41cは、画像データ生成部41aによって生成された画像データと、文字データ生成部41bによって生成された文字データと、に基づいて、表示データを生成し、表示装置20に表示させる。
(Display data generation unit 41c)
The display data generation unit 41c generates display data based on the image data generated by the image data generation unit 41a and the character data generated by the character data generation unit 41b, and causes the display device 20 to display the display data.

(音声データ生成部41d)
音声データ生成部41dは、他移動体の存在や、他移動体と自車両Cとの出会い判定結果を報知する音声データを生成し、スピーカ21に発話させる。
音声データの生成には、予め記憶された文字情報と音声データとの対応関係が利用される。
(Audio data generation unit 41d)
The sound data generation unit 41d generates sound data for notifying the presence of another moving body and the result of an encounter determination between the other moving body and the host vehicle C, and causes the speaker 21 to speak.
For the generation of voice data, a correspondence relationship between character information stored in advance and voice data is used.

(制御データ生成部41e)
制御データ生成部41eは、他移動体と自車両Cとの出会い判定結果に基づいて自車両Cの動作を制御する制御データを生成し、車両制御装置22に自車両Cを制御させる。
(Control data generator 41e)
The control data generation unit 41e generates control data for controlling the operation of the host vehicle C based on an encounter determination result between the other moving body and the host vehicle C, and causes the vehicle control device 22 to control the host vehicle C.

(車両管理装置3)
続いて、車両管理装置3について説明する。図3は、図1の車両管理装置を示すブロック図である。
図3に示すように、車両管理装置3は、制御部50と、入力装置61と、記憶部62と、を備えている。
(Vehicle management device 3)
Next, the vehicle management device 3 will be described. FIG. 3 is a block diagram showing the vehicle management apparatus of FIG.
As shown in FIG. 3, the vehicle management device 3 includes a control unit 50, an input device 61, and a storage unit 62.

(制御部50)
制御部50は、車両データ受信部51と、地図マッチング部52と、対象物データ受信部53と、探索開始判定部54と、近傍車両抽出部55と、視野重複判定部56と、情報共有車両決定部57と、情報共有車両通知部58と、他移動体データ通知部59と、を備えている。
(Control unit 50)
The control unit 50 includes a vehicle data reception unit 51, a map matching unit 52, an object data reception unit 53, a search start determination unit 54, a nearby vehicle extraction unit 55, a visual field overlap determination unit 56, and an information sharing vehicle. The determination part 57, the information sharing vehicle notification part 58, and the other mobile body data notification part 59 are provided.

(車両データ受信部51)
車両データ受信部51は、各車両Cの車載装置2から送信された車両データを受信する。受信された車両データは、地図マッチング部52に出力される。
(Vehicle data receiver 51)
The vehicle data receiving unit 51 receives vehicle data transmitted from the in-vehicle device 2 of each vehicle C. The received vehicle data is output to the map matching unit 52.

(地図マッチング部52)
地図マッチング部52は、車両データと、記憶部62に記憶された地図データとをマッチングさせる。かかるマッチングによって、車両Cが走行している道路(アーク)、車両Cが向かっている交差点(ノード)が設定される。
(Map matching unit 52)
The map matching unit 52 matches the vehicle data with the map data stored in the storage unit 62. By such matching, a road (arc) on which the vehicle C is traveling and an intersection (node) on which the vehicle C is heading are set.

(対象物データ受信部53)
対象物データ受信部53は、移動体を検出した車両Cから、車両IDを付与した対象物データを受信する。受信された車両IDおよび対象物データは、地図マッチング部52によってマッチングされた後、探索開始判定部54に出力される。
(Object data receiving unit 53)
The object data receiving unit 53 receives object data to which a vehicle ID is assigned from the vehicle C that has detected the moving object. The received vehicle ID and object data are matched by the map matching unit 52 and then output to the search start determination unit 54.

(探索開始判定部54)
探索開始判定部54は、対象物データを送信してきた車両Cに関して、当該車両Cと情報を共有する車両(情報共有車両)の探索を行うか否かを判定する。かかる探索手法についての詳細は後記する。
(Search start determination unit 54)
The search start determination unit 54 determines whether or not to search for a vehicle (information sharing vehicle) that shares information with the vehicle C with respect to the vehicle C that has transmitted the object data. Details of this search method will be described later.

(近傍車両抽出部55)
近傍車両抽出部55は、地図マッチング部52によってマッチングされた車両データに基づいて、対象物データ受信部53によって受信された対象物データに付与された車両IDに関する車両の近傍に位置する車両Cを抽出する。かかる抽出手法についての詳細は後記する。
(Nearby vehicle extraction unit 55)
The nearby vehicle extraction unit 55 selects a vehicle C located in the vicinity of the vehicle related to the vehicle ID given to the object data received by the object data receiving unit 53 based on the vehicle data matched by the map matching unit 52. Extract. Details of this extraction method will be described later.

(視野重複判定部56)
視野重複判定部(撮像領域重複判定部)56は、近傍車両抽出部55によって抽出された車両Cの中から、対象物データを送信してきた車両Cと、それぞれの視野、すなわち、カメラC1,C1による撮像領域が重複するか否か、および、どの程度重複するか、を判定する。なお、視野重複の判定手法についての詳細は後記する。
(View overlap determination unit 56)
The field-of-view overlap determination unit (imaging region overlap determination unit) 56 includes the vehicle C that has transmitted the object data from the vehicle C extracted by the nearby vehicle extraction unit 55, and the respective fields of view, that is, cameras C1, C1. It is determined whether and how much the imaging regions by overlap overlap. Details of the field overlap determination method will be described later.

(情報共有車両決定部57)
情報共有車両決定部57は、近傍車両抽出部55によって抽出された車両Cの中から、対象物データを送信してきた車両Cと情報の共有を行う車両を選択し、これら情報共有車両の組み合わせを決定する。かかる決定において、情報共有車両決定部57は、視野重複判定部56による判定結果を使用することができる。
(Information sharing vehicle determination unit 57)
The information sharing vehicle determination unit 57 selects a vehicle that shares information with the vehicle C that has transmitted the object data from the vehicles C extracted by the neighboring vehicle extraction unit 55, and selects a combination of these information sharing vehicles. decide. In this determination, the information sharing vehicle determination unit 57 can use the determination result by the visual field overlap determination unit 56.

(情報共有車両通知部58)
情報共有車両通知部58は、情報共有車両決定部57で決定された車両に対して、その旨を通知する。図6の例では、情報共有車両通知部58は、車両C1に車両C2が情報共有車両である旨を通知するとともに、車両C2に車両C1が情報共有車両である旨を通知する。また、情報共有車両通知部58は、移動体を検出した車両C1の車両データを車両C2の車載装置2に通知する。
(Information Sharing Vehicle Notification Unit 58)
The information sharing vehicle notification unit 58 notifies the vehicle determined by the information sharing vehicle determination unit 57 to that effect. In the example of FIG. 6, the information sharing vehicle notification unit 58 notifies the vehicle C1 that the vehicle C2 is an information sharing vehicle, and notifies the vehicle C2 that the vehicle C1 is an information sharing vehicle. In addition, the information sharing vehicle notification unit 58 notifies the in-vehicle device 2 of the vehicle C2 of the vehicle data of the vehicle C1 that detected the moving body.

(他移動体データ通知部59)
他移動体データ通知部59は、情報共有車両決定部57によって決定された情報共有車両のうち、対象物を検出していない他の車両Cに対して対象物データ(他移動体データ)を通知する。
(Other mobile data notification unit 59)
The other moving body data notifying unit 59 notifies the object data (other moving body data) to the other vehicle C that has not detected the object among the information sharing vehicles determined by the information sharing vehicle determining unit 57. To do.

(入力装置61)
入力装置61は、記憶部62に記憶される各種データ(地図データなど)を入力するための装置である。
(Input device 61)
The input device 61 is a device for inputting various data (such as map data) stored in the storage unit 62.

(記憶部62)
記憶部62は、地図データ、各車両Cから送信された車両データ、各車両Cのカメラ情報(カメラ11,11の車体に対する取り付け方向、撮像領域など)、などを記憶している。このうち、地図データは、交差点をノード、各交差点を連結する道路をアークとして設定されたデータである。
(Storage unit 62)
The storage unit 62 stores map data, vehicle data transmitted from each vehicle C, camera information of each vehicle C (attachment direction of the cameras 11 and 11 to the vehicle body, imaging region, etc.), and the like. Among these, the map data is data set by setting intersections as nodes and roads connecting the intersections as arcs.

(車両間通信システムの第一の動作例)
続いて、車両間通信システム1の第一の動作例について、車載装置2、車両管理装置3の順に説明する。
(First operation example of inter-vehicle communication system)
Next, a first operation example of the inter-vehicle communication system 1 will be described in the order of the in-vehicle device 2 and the vehicle management device 3.

(車載装置の第一の動作例)
まず、車載装置2の動作例について説明する。図4は、車載装置の第一の動作例を説明するためのフローチャートである。
まず、車載装置2と車両管理装置3とが通信可能に接続される(ステップS1)。
続いて、カメラ11,11が画像を取得する(ステップS2)。
続いて、特徴抽出部31が画像の特徴を抽出し、対象物検出部32が、対象物の一種である移動体を検出する(ステップS3)。
続いて、車両データ通知部36が、車両データを車両管理装置3に通知する(ステップS4)。
対象物検出部32によって検出された移動体がある場合には(ステップS5でYes)、対象物データ生成部33が対象物データの一種である移動体データを生成し(ステップS6)、対象物データ通知部34が移動体データを車両管理装置3に通知する(ステップS7)。
続いて、ローカルマップ生成部39が移動体データをローカルマップに統合する(ステップS8)。
なお、ステップS5において、移動体が検出されていない場合には(ステップS5でNo)、ステップS9に移行する。
(First operation example of in-vehicle device)
First, an operation example of the in-vehicle device 2 will be described. FIG. 4 is a flowchart for explaining a first operation example of the in-vehicle device.
First, the in-vehicle device 2 and the vehicle management device 3 are connected so as to be communicable (step S1).
Subsequently, the cameras 11 and 11 acquire images (step S2).
Subsequently, the feature extraction unit 31 extracts the features of the image, and the target object detection unit 32 detects a moving body that is a kind of target object (step S3).
Subsequently, the vehicle data notification unit 36 notifies the vehicle management device 3 of vehicle data (step S4).
When there is a moving object detected by the object detection unit 32 (Yes in step S5), the object data generation unit 33 generates moving object data that is a kind of object data (step S6), and the object The data notification unit 34 notifies the vehicle management apparatus 3 of the moving body data (step S7).
Subsequently, the local map generation unit 39 integrates the moving body data into the local map (step S8).
If no moving object is detected in step S5 (No in step S5), the process proceeds to step S9.

続いて、データ受信部37が、車両管理装置3から他移動体データを受信する(ステップS9)。
他移動体データがある場合には(ステップS10でYes)、他移動体データ推定部38が他移動体データを推定し(他移動体推定データを生成し)(ステップS11)、ローカルマップ生成部39が他移動体推定データをローカルマップに統合する(ステップS12)。
そして、出力データ生成部41が出力データを生成し(ステップS13)、生成された出力データを出力し、他移動体の存在を運転者に通知する(ステップS14)。その後、ステップS2に移行し、一連の処理を繰り返す。
なお、ステップS10でNoの場合には、ステップS2に移行し、一連の処理を繰り返す。
なお、ステップS12においてローカルマップに統合された他移動体が、自車両Cおよび自車両Cによって検出された移動体と同一である場合には、ステップS12およびステップS14の処理は省略される。
Subsequently, the data receiving unit 37 receives other moving body data from the vehicle management device 3 (step S9).
When there is other mobile object data (Yes in step S10), the other mobile object data estimation unit 38 estimates the other mobile object data (generates other mobile object estimation data) (step S11), and the local map generation unit 39 integrates the other mobile object estimation data into the local map (step S12).
And the output data generation part 41 produces | generates output data (step S13), outputs the produced | generated output data, and notifies a driver | operator of presence of another moving body (step S14). Then, it transfers to step S2 and repeats a series of processes.
If No in step S10, the process proceeds to step S2 to repeat a series of processes.
In addition, when the other moving body integrated with the local map in step S12 is the same as the moving body detected by the own vehicle C and the own vehicle C, the processes of step S12 and step S14 are omitted.

(車両管理装置の第一の動作例)
続いて、車両管理装置3の第一の動作例について説明する。図5は、車両管理装置の第一の動作例を説明するためのフローチャートである。
まず、車両データ受信部51が、前記したステップS4において各車両Cの車両データ通知部36が通知した車両データを受信する(ステップS21)。
続いて、対象物データ受信部52が、前記したステップS7において車両Cの対象物データ通知部34が通知した移動体データを受信する(ステップS22)。
受信した移動体データがある場合には(ステップS23でYes)、探索開始判定部54が起動し、探索開始の可否を判定する(ステップS24)。
探索を開始した場合には(ステップS25でYes)、近傍車両抽出部55が、対象物データを通知してきた車両Cの近傍に位置する車両を抽出する(ステップ26)。
近傍に車両が存在する場合には(ステップS27でYes)、視野重複判定部56が、車両Cと近傍車両との視野の重複度合いを判定し、情報共有車両決定部57が、この判定結果に基づいて、近傍の車両の中から、移動体データを通知してきた車両Cと情報を共有する車両を決定する(ステップS28)。
車両Cと情報を共有する車両がある場合には(ステップS29でYes)、情報共有車両通知部58が、情報共有車両に決定された各車両にその旨を通知するとともに(ステップS30)、他移動体データ通知部59が、この対象物データを他移動体データとして情報を共有する車両に通知する(ステップS31)。その後、ステップS21に移行し、一連の処理を繰り返す。
なお、ステップS23、S25、S27、S29でNoの場合には、ステップS21に移行し、一連の処理を繰り返す。
(First operation example of vehicle management device)
Then, the 1st operation example of the vehicle management apparatus 3 is demonstrated. FIG. 5 is a flowchart for explaining a first operation example of the vehicle management device.
First, the vehicle data receiving unit 51 receives the vehicle data notified by the vehicle data notifying unit 36 of each vehicle C in step S4 described above (step S21).
Subsequently, the object data receiving unit 52 receives the moving body data notified by the object data notifying unit 34 of the vehicle C in the above-described step S7 (step S22).
If there is mobile data received (Yes in step S23), the search start determination unit 54 is activated to determine whether the search can be started (step S24).
When the search is started (Yes in step S25), the nearby vehicle extraction unit 55 extracts a vehicle located in the vicinity of the vehicle C that has notified the object data (step 26).
When there is a vehicle in the vicinity (Yes in step S27), the visual field overlap determination unit 56 determines the degree of visual field overlap between the vehicle C and the nearby vehicle, and the information sharing vehicle determination unit 57 determines the determination result. Based on this, a vehicle sharing information with the vehicle C that has notified the moving body data is determined from nearby vehicles (step S28).
When there is a vehicle that shares information with the vehicle C (Yes in step S29), the information sharing vehicle notification unit 58 notifies each vehicle determined to be the information sharing vehicle (step S30), and so on. The moving body data notifying unit 59 notifies the vehicle that shares information as this moving object data as other moving body data (step S31). Then, it transfers to step S21 and repeats a series of processes.
In addition, when it is No in steps S23, S25, S27, and S29, the process proceeds to step S21 and a series of processes is repeated.

(各手法の詳細説明)
続いて、車両C1,C2,C3および移動体Mが図6に示す配置状態であるときを例にとり、探索開始判定部54による情報共有車両の探索開始判定、近傍車両抽出部55による近傍車両の抽出、および、視野重複判定部56による視野重複の判定、の手法についてさらに詳しく説明する。図6は、情報共有車両の探索開始判定、近傍車両の抽出および視野重複の判定の手法の一例を説明するための図である。
(Detailed explanation of each method)
Subsequently, taking the case where the vehicles C1, C2, C3 and the moving body M are in the arrangement state shown in FIG. 6 as an example, the search start determination unit 54 performs the search start determination of the information sharing vehicle, and the nearby vehicle extraction unit 55 The method of extraction and visual field overlap determination by the visual field overlap determination unit 56 will be described in more detail. FIG. 6 is a diagram for explaining an example of a method for determining a search start for an information sharing vehicle, extracting a nearby vehicle, and determining a field overlap.

(探索開始判定)
まず、車両管理装置3の探索開始判定部54による情報共有車両の探索開始判定の手法の一例について説明する。
図6に示すように、車両管理装置3の記憶部62に記憶された地図データには、道路の交差点(信号)が、ノードNとして設定されている。
探索開始判定部54は、移動体Mを検出した車両C1について、車両C1から送信された車両データに含まれる位置データおよび車両速度データと、地図データにおけるノードNの位置データと、に基づいて、車両C1に関する余裕停止距離Lを算出する。

L = (Tc + Ti)×VC1 +Ls ・・・(1)

ここで、
Tc:通信確立+他車両情報取得に要する時間
Ti:画像処理時間
C1:車両C1の現在車両速度(ノードNに近づく方向を「正」、ノードNから離れる方向を「負」とする。)
Ls:車両C1の現在車両速度に基づく停止距離
である。
(Search start judgment)
First, an example of a method for determining the search start of the information sharing vehicle by the search start determination unit 54 of the vehicle management device 3 will be described.
As shown in FIG. 6, a road intersection (signal) is set as a node N in the map data stored in the storage unit 62 of the vehicle management device 3.
The search start determination unit 54, for the vehicle C1 that has detected the moving body M, based on the position data and vehicle speed data included in the vehicle data transmitted from the vehicle C1, and the position data of the node N in the map data, A margin stop distance L related to the vehicle C1 is calculated.

L = (Tc + Ti) × V C1 + Ls (1)

here,
Tc: Time required for establishment of communication + acquisition of other vehicle information Ti: Image processing time V C1 : Current vehicle speed of the vehicle C1 (the direction approaching the node N is “positive” and the direction away from the node N is “negative”)
Ls: a stopping distance based on the current vehicle speed of the vehicle C1.

この余裕停止距離Lは、車両間通信システム1の通信などに要する時間を考慮し、車両C1がノードNの手前で停止できる距離である。
探索開始判定部54は、車両C1とノードNとの距離LC1が余裕停止距離L以下となった場合に、車両C1に対する情報共有車両の探索を行うように判定する。すなわち、探索開始判定部54は、移動体Mを検出した車両C1が所定条件でノードN(交差点)に接近している場合に、情報共有車両の探索を開始する必要があると判定する。
なお、停止距離Lsは、天候条件(乾燥路面、湿潤路面)、車両条件(ABSの有無)、タイヤ条件(夏用タイヤ、スタッドレス)などの走行環境によって変化し、これら走行環境と停止距離Lsとの関係が記憶部23に予め記憶されている。そして、走行環境は、車両センサ16または図示しない入力装置から各車両Cの主制御部30に入力され、車両データの一部として車両管理装置3に送信される。
また、走行環境に関するデータ(走行環境データ)を取得する走行環境データ取得部と、走行環境データを車両管理装置3に通知する走行環境データ通知部と、を主制御部30内に備え、走行環境データと車両データとを別に処理する構成であっても良い。
The marginal stop distance L is a distance that allows the vehicle C1 to stop before the node N in consideration of the time required for the communication of the inter-vehicle communication system 1 and the like.
The search start determination unit 54 determines to search for an information sharing vehicle for the vehicle C1 when the distance L C1 between the vehicle C1 and the node N is less than the margin stop distance L. That is, the search start determination unit 54 determines that it is necessary to start searching for an information sharing vehicle when the vehicle C1 that has detected the moving body M is approaching the node N (intersection) under a predetermined condition.
The stop distance Ls varies depending on the travel environment such as weather conditions (dry road surface, wet road surface), vehicle conditions (with or without ABS), tire conditions (summer tires, studless), and the like. Is stored in the storage unit 23 in advance. The traveling environment is input to the main control unit 30 of each vehicle C from the vehicle sensor 16 or an input device (not shown), and is transmitted to the vehicle management device 3 as a part of the vehicle data.
The main control unit 30 includes a driving environment data acquisition unit that acquires data related to the driving environment (driving environment data) and a driving environment data notification unit that notifies the vehicle management device 3 of the driving environment data. The data and vehicle data may be processed separately.

図7は、余裕停止距離を説明するためのグラフである。
図7(a)は、天候条件が「乾燥路面」である場合における、車両条件およびタイヤ条件ごとの停止距離Lsおよび余裕停止距離Lを表すグラフである。図7(b)は、路面条件が「湿潤路面」である場合における、車両条件およびタイヤ条件ごとの停止距離Lsおよび余裕停止距離Lを表すグラフである。
ここで、停止距離Ls1〜Ls4および余裕停止距離L1〜L4の条件設定は、以下の通りである。
Ls1,L1:タイヤ条件「夏用タイヤ装着」、車両条件「ABS付き」
Ls2,L2:タイヤ条件「夏用タイヤ装着」、車両条件「ABS無し」
Ls3,L3:タイヤ条件「スタッドレスタイヤ装着」、車両条件「ABS付き」
Ls4,L4:タイヤ条件「スタッドレスタイヤ装着」、車両条件「ABS無し」
図7(a)(b)に示すように、停止距離Lsは、天候条件(路面条件)によって異なる値をとる。また、それに従い、余裕停止距離Lも天候条件によって異なる。また、停止距離Lsは、天候条件だけでなく、車両条件(ABSの有無)、タイヤ条件(夏用タイヤ、スタッドレスタイヤ)などによっても変化し、記憶部23は、これらの対応関係を記憶している。
そして、記憶部23は、天候条件、車両条件、タイヤ条件などに基づく停止距離Lsを記憶しているとともに、時間Tc,Tiが設定されているため、探索開始判定部54は、これらと車両速度VC1とに基づいて、車両速度VC1を制動初速度とした余裕停止距離Lを算出することができる。
なお、車載装置2は、車両間通信システム1と接続されたカーナビゲーションシステムや、車両Cに搭載された雨滴センサの検出結果から天候条件を取得することができる。
また、車載装置2は、車両CがABS搭載車両である場合には、スリップ検出に基づいて天候条件を判定することもできる。
また、車載装置2は、車両Cのワイパの作動状況に基づいて天候条件を判定することもできる。
また、車載装置2は、図示しない入力装置から車両条件およびタイヤ条件を入力可能である。
FIG. 7 is a graph for explaining the margin stop distance.
FIG. 7A is a graph showing the stop distance Ls and the marginal stop distance L for each vehicle condition and tire condition when the weather condition is “dry road surface”. FIG. 7B is a graph showing the stop distance Ls and the marginal stop distance L for each vehicle condition and tire condition when the road surface condition is “wet road surface”.
Here, the condition settings of the stop distances Ls1 to Ls4 and the margin stop distances L1 to L4 are as follows.
Ls1, L1: Tire condition “Summer tires”, Vehicle condition “With ABS”
Ls2, L2: Tire condition “Summer tire wearing”, Vehicle condition “No ABS”
Ls3, L3: Tire condition “Studless tire wearing”, Vehicle condition “With ABS”
Ls4, L4: Tire condition “Studless tire wearing”, Vehicle condition “No ABS”
As shown in FIGS. 7A and 7B, the stop distance Ls varies depending on the weather conditions (road surface conditions). Accordingly, the marginal stop distance L varies depending on the weather conditions. Further, the stop distance Ls varies depending not only on weather conditions but also on vehicle conditions (with or without ABS), tire conditions (summer tires, studless tires), etc., and the storage unit 23 stores these correspondences. Yes.
And since the memory | storage part 23 has memorize | stored the stop distance Ls based on a weather condition, a vehicle condition, a tire condition, etc. and time Tc and Ti are set, the search start determination part 54 carries out these and vehicle speed. based on the V C1, it can be calculated margin stop distance L that the vehicle speed V C1 and the brake initial velocity.
The in-vehicle device 2 can acquire the weather condition from the detection result of the car navigation system connected to the inter-vehicle communication system 1 or the raindrop sensor mounted on the vehicle C.
Further, when the vehicle C is an ABS-equipped vehicle, the in-vehicle device 2 can also determine the weather condition based on the slip detection.
The in-vehicle device 2 can also determine the weather condition based on the operation status of the wiper of the vehicle C.
The in-vehicle device 2 can input vehicle conditions and tire conditions from an input device (not shown).

(近傍車両抽出)
続いて、車両管理装置3の近傍車両抽出部55による近傍車両の抽出の手法の一例について説明する。
近傍車両抽出部55は、探索開始判定部54が情報共有車両の探索を開始する必要があると判定した場合に、車両C1の近傍の車両を抽出する。
近傍車両抽出部55は、車両データ受信部51によって受信されて記憶部62に記憶された各車両Cの車両位置データに基づいて、車両C1から所定距離内、すなわち、図6に示す近傍車両抽出領域EA内に位置する他の車両Cを抽出する。ここでは、車両C2および車両C3が抽出される。
このように、情報共有車両の決定の前処理として、近傍車両抽出部55が車両C1の近傍に位置する車両C2,C3を抽出するので、遠方の車両Cを無視することができ、情報共有車両決定における処理を簡略化することができる。
(Nearby vehicle extraction)
Next, an example of a method for extracting a nearby vehicle by the nearby vehicle extraction unit 55 of the vehicle management device 3 will be described.
The nearby vehicle extraction unit 55 extracts a vehicle in the vicinity of the vehicle C1 when the search start determination unit 54 determines that the search for the information sharing vehicle needs to be started.
The neighboring vehicle extraction unit 55 is within a predetermined distance from the vehicle C1, that is, the neighboring vehicle extraction shown in FIG. 6 based on the vehicle position data of each vehicle C received by the vehicle data receiving unit 51 and stored in the storage unit 62. Another vehicle C located in the area EA is extracted. Here, the vehicle C2 and the vehicle C3 are extracted.
As described above, as the preprocessing for determining the information sharing vehicle, the nearby vehicle extraction unit 55 extracts the vehicles C2 and C3 located in the vicinity of the vehicle C1, so that the distant vehicle C can be ignored, and the information sharing vehicle Processing in the determination can be simplified.

(視野重複判定)
続いて、車両管理装置3の視野重複判定部56による視野重複の判定の手法の一例について説明する。
視野重複判定部56は、近傍車両抽出部55が車両C1の近傍の車両C(C2,C3)を抽出した場合に、車両C1の視野DA1と近傍の車両C(C2,C3)の視野DA2,DA3との重複割合を算出する。
そして、情報共有車両決定部57は、記憶部62に記憶された各車両Cのデータ(カメラの撮像領域または移動体検出領域)に基づいて、車両C1の撮像領域DA1の50%以上を自身の撮像領域(ここでは、車両C2の撮像領域DA2が該当する。車両C3の撮像領域DA3は該当しない。)として重複する車両Cを、車両C1と情報を共有する車両に決定する。ここでは、車両C2が車両C1にとっての情報共有車両であり、車両C3は情報共有車両に該当しない。
かかる撮像領域の重複の割合は、適宜設定変更可能である。
また、撮像領域の先端部は、適宜設定変更可能である。この撮像領域の先端部の設定によって、情報共有車両の選出結果を調節可能である。なお、図6以降に図示された撮像領域の大きさと車両との関係は、発明を説明するためにデフォルメされており、実際の関係を正確に表したものではない。
(View overlap determination)
Next, an example of a method for determining the overlap of visual fields by the visual field overlap determination unit 56 of the vehicle management device 3 will be described.
When the nearby vehicle extraction unit 55 extracts the vehicle C (C2, C3) in the vicinity of the vehicle C1, the field overlap determination unit 56 and the field of view DA2 of the vehicle C1 and the nearby vehicle C (C2, C3). Calculate the overlap ratio with DA3.
Then, based on the data (camera imaging area or moving object detection area) of each vehicle C stored in the storage unit 62, the information sharing vehicle determination unit 57 acquires 50% or more of the imaging area DA1 of the vehicle C1. The vehicle C that overlaps as the imaging area (here, the imaging area DA2 of the vehicle C2 corresponds to the imaging area DA3 of the vehicle C3) is determined as a vehicle that shares information with the vehicle C1. Here, the vehicle C2 is an information sharing vehicle for the vehicle C1, and the vehicle C3 is not an information sharing vehicle.
The ratio of overlapping of the imaging regions can be changed as appropriate.
In addition, the setting of the tip of the imaging region can be changed as appropriate. The selection result of the information sharing vehicle can be adjusted by setting the tip of the imaging region. Note that the relationship between the size of the imaging area and the vehicle illustrated in FIG. 6 and subsequent figures is deformed for the purpose of explaining the invention, and does not accurately represent the actual relationship.

(出会い判定)
続いて、出会い判定部40による車両Cと他移動体との出会い判定について説明する。図8は、車両と移動体との出会い判定について説明するための図である。
図8に示すように、車両C1と車両C2とが共通のノード(交差点)Nに向かって走行している。そして、車両C1が移動体Mを撮影している。
車両C2の出会い判定部40は、ローカルマップに基づいて、自車両C2と他移動体MとがノードNを通過する時刻の差Ts(以下、「余裕時間Ts」と記載する。)を算出する。
余裕時間Tsは、下記式(2)によって算出される。

Ts = |LM/VM−LC2/VC2| ・・・(2)

ここで、
M:他移動体MのノードNまでの距離
M:他移動体MのノードNに向かう速度
C2:自車両C2のノードNまでの距離
C2:自車両C2の車両速度
である。
(Meeting determination)
Subsequently, an encounter determination between the vehicle C and another moving body by the encounter determination unit 40 will be described. FIG. 8 is a diagram for explaining an encounter determination between a vehicle and a moving object.
As shown in FIG. 8, the vehicle C1 and the vehicle C2 are traveling toward a common node (intersection) N. The vehicle C1 is shooting the moving object M.
The encounter determination unit 40 of the vehicle C2 calculates a time difference Ts (hereinafter referred to as “margin time Ts”) when the host vehicle C2 and the other moving body M pass through the node N based on the local map. .
The margin time Ts is calculated by the following equation (2).

Ts = | L M / V M -L C2 / V C2 | ··· (2)

here,
L M: distance to the node N of the other mobile body M V M: other speed towards the node N of the moving object M L C2: distance V to the node N of the vehicle C2 C2: a vehicle speed of the vehicle C2.

すなわち、出会い判定部40は、他移動体Mの移動体位置データ、移動体方向データおよび移動体速度データと、自車両C2の車両位置データ、車両向きデータおよび車両速度データと、地図データにおけるノードNの位置データと、に基づいて、他移動体Mと自車両C2との出会いを判定している。   That is, the encounter determination unit 40 includes the moving body position data, the moving body direction data, and the moving body speed data of the other moving body M, the vehicle position data, the vehicle orientation data, the vehicle speed data of the host vehicle C2, and the nodes in the map data. Based on the position data of N, the encounter between the other moving body M and the host vehicle C2 is determined.

なお、車両C2が走行中の道路の法定速度をV0とし、V1=V0+ΔV0(ΔV0はV0の20%)としたとき、余裕時間Tsおよび前記した余裕停止距離Lの算出において、自車両C2の車両速度VC2として、V0またはV1を代用することも可能である。これは、何らかの理由(例えば、カーブ通過中で減速中など)でその時点での車両速度の実測値が、V1から外れている場合などが考えられ、このような場合には、V0またはV1で算出した方が好ましいと考えられるためである。
そして、車両C2の車両速度VC2がV1よりも大きいとき、文字データ生成部41bが、この旨を伝える文字データを生成し、表示装置20に表示させることもできる。
表示例としては、例えば、「スピードが出過ぎています。」などである。また、音声データ生成部41dが、文字データと同様の内容を伝える音声データを生成し、スピーカ21に発話させることもできる。
When the legal speed of the road on which the vehicle C2 is traveling is V0 and V1 = V0 + ΔV0 (ΔV0 is 20% of V0), the vehicle of the host vehicle C2 is calculated in the calculation of the margin time Ts and the margin stop distance L described above. V0 or V1 can be substituted for the speed V C2 . This may be the case where the actual measured value of the vehicle speed at that time deviates from V1 for some reason (for example, passing through a curve, etc.). In such a case, V0 or V1 This is because the calculation is considered preferable.
When the vehicle speed V C2 of the vehicle C2 is greater than V1, the character data generation unit 41b can generate character data that indicates this and display the character data on the display device 20.
An example of the display is, for example, “Too much speed”. In addition, the voice data generation unit 41d can generate voice data that conveys the same content as the character data and cause the speaker 21 to speak.

出会い判定部40は、余裕時間Tsの値に基づいて、移動体Mと車両C2との出会い可能性を、4段階に分けて判定する。
(1)Ts≧30secのときには、出会い判定部40は、移動体Mと車両C2との出会い可能性「なし」と判定する。
(2)20sec≦Ts<30secのときには、出会い判定部40は、移動体Mと車両C2との出会い可能性「小」と判定する。
(3)10sec≦Ts<20secのときには、出会い判定部40は、移動体Mと車両C2との出会い可能性「中」と判定する。
(4)Ts<10secのときには、出会い判定部40は、移動体Mと車両C2との出会い可能性「大」と判定する。
そして、文字データ生成部41bおよび音声データ生成部41dは、余裕時間Tsの値に基づいて文字データおよび音声データを生成して表示装置20およびスピーカ21に出力し、表1に示す情報を運転者に通知する。
The encounter determination unit 40 determines the possibility of encounter between the moving body M and the vehicle C2 in four stages based on the value of the margin time Ts.
(1) When Ts ≧ 30 sec, the encounter determination unit 40 determines that the possibility of encounter between the moving body M and the vehicle C2 is “none”.
(2) When 20 sec ≦ Ts <30 sec, the encounter determination unit 40 determines that the possibility of encounter between the moving body M and the vehicle C2 is “low”.
(3) When 10 sec ≦ Ts <20 sec, the encounter determination unit 40 determines that the possibility of encounter between the moving body M and the vehicle C2 is “medium”.
(4) When Ts <10 sec, the encounter determination unit 40 determines that the possibility of encounter between the moving body M and the vehicle C2 is “high”.
Then, the character data generation unit 41b and the voice data generation unit 41d generate character data and voice data based on the value of the allowance time Ts, and output them to the display device 20 and the speaker 21. The information shown in Table 1 is output to the driver. Notify

Figure 0004585356
Figure 0004585356

減速指示の例としては、「スピードを落としてください。」が挙げられる。
徐行指示の例としては、「徐行してください。」が挙げられる。
停止指示の例としては、「停止してください。」が挙げられる。
An example of a deceleration instruction is “Please reduce the speed”.
An example of the slowing instruction is “Please slow down”.
An example of a stop instruction is “Please stop”.

他移動体通行方向案内の例としては、「左から自転車が近づいています。」が挙げられる。
他移動体通行状況案内の例としては、「○秒後に前方交差点に自転車が左から進入します。」が挙げられる。
これら運転手への指示と他移動体Mの案内とが、出会い判定部40による判定結果を知らせるデータの一例である。その他、音声データ生成部41dが運転手への指示を含む音声データを生成しても良く、文字データ生成部41bが移動体Mの案内(通行方向案内、通行状況案内)を含む文字データを生成しても良い。
An example of other moving body direction guidance is “a bicycle is approaching from the left”.
As an example of other mobile body traffic situation guidance, “A bicycle enters the front intersection from the left after ○ second”.
These instructions to the driver and guidance of the other moving body M are examples of data that informs the determination result by the encounter determination unit 40. In addition, the voice data generation unit 41d may generate voice data including instructions to the driver, and the character data generation unit 41b generates character data including guidance of the moving body M (passage direction guidance, traffic situation guidance). You may do it.

また、余裕時間Tsが5秒以下のとき、制御データ生成部41eが車両制御装置22を駆動してブレーキを利かせ、自車両Cを停止させることが望ましい。   Further, when the margin time Ts is 5 seconds or less, it is desirable that the control data generation unit 41e drives the vehicle control device 22 to apply the brake and stop the host vehicle C.

なお、余裕時間Tsが表1に示す範囲内であっても、距離LM,LC2が図7に示す範囲外である場合には、表1に示す警報を発生しないようにすることが望ましい。なお、距離LMを使用するのは、移動体Mが車両である場合であり、自転車、人などの場合は除く。
これは、距離LM,LC2が短すぎる場合(第一の所定値よりも小さい場合)には、警報を発生しても運転者が対応する余裕がなく、却って混乱を招くおそれがあるためである。また、距離LM,LC2が長すぎる場合(第二の所定値よりも大きい場合)には、警報を発生しなくても運転者が対応することが可能であると考えられるためである。この距離LM,LC2の範囲を考慮するか否かは、車両C2、他移動体Mの走行道路によるものであり、その関係を表2に示す。
Even if the margin time Ts is within the range shown in Table 1, it is desirable not to generate the alarm shown in Table 1 if the distances L M and L C2 are outside the range shown in FIG. . The distance L M is used when the moving body M is a vehicle, and is not used for bicycles, people, and the like.
This is because if the distances L M and L C2 are too short (smaller than the first predetermined value), there is no room for the driver to respond even if an alarm is issued, which may cause confusion. It is. Further, when the distances L M and L C2 are too long (larger than the second predetermined value), it is considered that the driver can respond without generating an alarm. Whether or not to consider the ranges of the distances L M and L C2 depends on the traveling road of the vehicle C2 and the other moving body M, and the relationship is shown in Table 2.

Figure 0004585356
Figure 0004585356

また、これら第一の所定値および第二の所定値を走行環境によって変化させる構成であっても良い。この場合には、第一の所定値および第二の所定値と走行環境との関係が記憶部23に予め記憶されていることが望ましい。   Moreover, the structure which changes these 1st predetermined values and 2nd predetermined values with driving | running | working environment may be sufficient. In this case, it is desirable that the relationship between the first predetermined value and the second predetermined value and the travel environment is stored in the storage unit 23 in advance.

続いて、車両C1および車両C2が情報共有車両に設定された場合を例にとり、車両C2における移動体Mの画像表示について説明する。
図9は、本発明の実施形態に係る車両間通信システムの第一の動作例に基づく作用を説明するための図であり、車両C1、車両C2および移動体Mの配置状態を説明するための図である。図10は、図9の平面図である。図11は、車両C1のカメラによって撮影された画像を示す図である。図12は、車両C2のカメラによって撮影された画像を示す図である。図13は、移動体の画像の補正を説明するための図であり、(a)は補正前を示す図、(b)は補正後を示す図である。図14は、車両C2の表示装置に表示された移動体画像を示す図である。
Subsequently, image display of the moving body M in the vehicle C2 will be described by taking as an example the case where the vehicle C1 and the vehicle C2 are set as information sharing vehicles.
FIG. 9 is a diagram for explaining the operation based on the first operation example of the inter-vehicle communication system according to the embodiment of the present invention, and for explaining the arrangement state of the vehicle C1, the vehicle C2, and the moving body M. FIG. FIG. 10 is a plan view of FIG. FIG. 11 is a diagram illustrating an image captured by the camera of the vehicle C1. FIG. 12 is a diagram illustrating an image captured by the camera of the vehicle C2. FIGS. 13A and 13B are diagrams for explaining correction of an image of a moving body, in which FIG. 13A is a diagram showing before correction, and FIG. 13B is a diagram showing after correction. FIG. 14 is a diagram illustrating a moving body image displayed on the display device of the vehicle C2.

図9および図10に示すように、車両C1は、ノードNに向かって走行している。また、車両C2は、車両C2とは別の道(アーク)においてノードNに向かって走行している。また、移動体Mは、車両C1と同じ道(アーク)においてノードNに向かって走行している。
図11に示すように、車両C1のカメラ11,11は、移動体Mを撮影しており、対象物検出部32が、移動体Mに関する移動体画像MIを検出している。
また、図12に示すように、車両C2のカメラ11,11は、建物Bが障害となり、移動体Mを撮影することができていない。
そこで、車両C1の対象物検出部32によって撮影された移動体画像MIが、車両管理装置3を介して車両C2の車載装置2に送信される。車両C2の画像データ生成部41aは、車両C1の車両位置データと、車両C2の車両位置データと、移動体(他移動体)Mの相対位置データと、に基づいて、図13(b)に示す補正された他移動体画像MI’を生成する。ここで、車両C1の車両位置データを利用するのは、車両C1,C2の位置関係によって補正の仕方(反転の有無など)が変わるためである。そして、車両C2の画像データ生成部41aは、カメラ11,11が撮影した画像と、他移動体画像MI’とを合成した画像データを生成し、図14に示すように、表示装置20に表示させる。ここで、画像データ生成部41aは、他移動体画像MI’の合成位置は、他移動体推定データに基づいて決定しており、建物Bがないと仮定した場合に車両C2のカメラ11,11が移動体Mを直接撮像したのに似た画像データを生成している。
このようにすることで、車両C2が検出できなかった移動体Mを、車両C2の表示装置20に表示させ、車両C2の運転者に知らせることができる。
As shown in FIGS. 9 and 10, the vehicle C <b> 1 is traveling toward the node N. Further, the vehicle C2 travels toward the node N on a road (arc) different from the vehicle C2. In addition, the moving body M is traveling toward the node N on the same road (arc) as the vehicle C1.
As shown in FIG. 11, the cameras 11 and 11 of the vehicle C <b> 1 photograph the moving object M, and the object detection unit 32 detects the moving object image MI related to the moving object M.
Further, as shown in FIG. 12, the cameras 11 and 11 of the vehicle C <b> 2 cannot capture the moving body M because the building B becomes an obstacle.
Therefore, the moving body image MI photographed by the object detection unit 32 of the vehicle C1 is transmitted to the in-vehicle device 2 of the vehicle C2 via the vehicle management device 3. The image data generation unit 41a of the vehicle C2 is based on the vehicle position data of the vehicle C1, the vehicle position data of the vehicle C2, and the relative position data of the moving body (another moving body) M in FIG. A corrected other moving body image MI ′ is generated. Here, the reason why the vehicle position data of the vehicle C1 is used is that the correction method (presence / absence of inversion, etc.) changes depending on the positional relationship between the vehicles C1 and C2. Then, the image data generation unit 41a of the vehicle C2 generates image data obtained by synthesizing the image captured by the cameras 11 and 11 and the other moving body image MI ′, and displays it on the display device 20 as shown in FIG. Let Here, the image data generation unit 41a determines the synthesis position of the other moving body image MI ′ based on the other moving body estimation data, and assumes that there is no building B, the cameras 11 and 11 of the vehicle C2. Generates image data similar to the direct imaging of the moving object M.
By doing in this way, the moving body M which the vehicle C2 was not able to detect can be displayed on the display device 20 of the vehicle C2, and the driver of the vehicle C2 can be notified.

また、車両C2の音声データ生成部41dは、他移動体Mの存在を音声で知らせるための音声データを生成し、スピーカ21に発話させる。
発話例としては、「左前方に自転車がいます。」などである。
このようにすることで、車両C2が検出できなかった移動体Mを、車両C2の運転者に音声で知らせることができる。
In addition, the sound data generation unit 41d of the vehicle C2 generates sound data for notifying the presence of the other moving body M by sound and causes the speaker 21 to speak.
An example of an utterance is “There is a bicycle in the left front”.
By doing in this way, the moving body M which the vehicle C2 was not able to detect can be notified to the driver of the vehicle C2 by voice.

また、文字データ生成部41bは、出会い判定部40の判定結果を文字として表示装置20に表示させる。
また、音声データ生成部41dは、出会い判定部40の判定結果を音声としてスピーカ21に発話させる。
Moreover, the character data generation part 41b displays the determination result of the encounter determination part 40 on the display apparatus 20 as a character.
In addition, the voice data generation unit 41d causes the speaker 21 to speak the determination result of the encounter determination unit 40 as a voice.

(タイミングチャート)
図15は、車両間通信システムの第一の動作例に基づく通信例を示すタイミングチャートである。
まず、車両C1の車載装置2が、前方の画像について特徴抽出および対象物検出を行う。そして、車両C1の車載装置が、対象物データの一種である移動体データを車両管理装置3に送信する。
移動体データを受信した車両管理装置3は、探索開始判定、近傍車両抽出、視野重複判定および情報共有車両決定を順に行い、情報共有車両に決定された車両C(ここでは、車両C2,C3)に他移動体データおよび情報共有連絡信号を送信する。
他移動体データを受信した車両C2,C3の車載装置2は、他移動体データに関して、ローカルマップ統合、画像補正、画像表示を順に行う。
そして、一旦情報共有車両として決定されると、その後、車両管理装置3は、探索開始判定、近傍車両抽出、情報共有車両決定を省略することもできる。なお、これらを省略しない構成も可能である。
また、車両C2,C3の車載装置2は、自身のカメラ11,11が他移動体を撮像するようになったときに、通信切断信号を車両管理装置3へ送信する。かかる通信切断信号は、対象物データ通知部34によって生成、出力される。
また、車両管理装置3が、車両C1と車両C2,C3との撮像領域の重複がなくなったときに、通信切断信号を車両C1,C2,C3の車載装置2へ送信する構成であっても良い。
(Timing chart)
FIG. 15 is a timing chart illustrating a communication example based on the first operation example of the inter-vehicle communication system.
First, the in-vehicle device 2 of the vehicle C1 performs feature extraction and object detection on the front image. And the vehicle-mounted apparatus of the vehicle C1 transmits the mobile body data which is a kind of object data to the vehicle management apparatus 3.
The vehicle management apparatus 3 that has received the moving body data sequentially performs a search start determination, a neighboring vehicle extraction, a visual field overlap determination, and an information sharing vehicle determination, and the vehicle C determined as an information sharing vehicle (here, the vehicles C2 and C3). Other mobile data and information sharing contact signal are transmitted.
The in-vehicle devices 2 of the vehicles C2 and C3 that have received the other moving body data sequentially perform local map integration, image correction, and image display with respect to the other moving body data.
And once it determines as an information sharing vehicle, the vehicle management apparatus 3 can also abbreviate | omit search start determination, adjacent vehicle extraction, and information sharing vehicle determination after that. A configuration in which these are not omitted is also possible.
The in-vehicle devices 2 of the vehicles C2 and C3 transmit a communication disconnection signal to the vehicle management device 3 when their own cameras 11 and 11 come to pick up other moving bodies. The communication disconnection signal is generated and output by the object data notification unit 34.
Further, the vehicle management device 3 may be configured to transmit a communication disconnection signal to the in-vehicle device 2 of the vehicles C1, C2, and C3 when there is no overlap of the imaging areas of the vehicle C1 and the vehicles C2 and C3. .

前記したように、車両間通信システム1は、車両C2の車載装置2が、自身で検出できなかった移動体Mについてのデータを車両C1から受信することで、車両C2の表示装置20に移動体Mを表示することができ、車両C2のスピーカ21に移動体Mの存在および存在位置を発話させることができる。
また、車両間通信システム1は、車両C2と移動体Mとの出会い判定を行い、その判定結果を車両C2の表示装置20およびスピーカ21に出力することができる。
したがって、車両間通信システム1は、車両C2のカメラ11,11が撮像できなかった移動体Mの存在および存在位置を、画像、文字、音声の少なくとも一つを用いて車両C2の運転者に知らせることができる。
また、車両間通信システム1は、移動体Mと車両C2とが出会う可能性を、画像、文字、音声の少なくとも一つを用いて車両C2の運転者に知らせることができる。
As described above, in the inter-vehicle communication system 1, the in-vehicle device 2 of the vehicle C <b> 2 receives data about the moving body M that could not be detected by itself from the vehicle C <b> 1, so that the display device 20 of the vehicle C <b> 2 displays the moving body. M can be displayed, and the presence and location of the moving object M can be uttered by the speaker 21 of the vehicle C2.
Further, the inter-vehicle communication system 1 can perform an encounter determination between the vehicle C2 and the moving object M and output the determination result to the display device 20 and the speaker 21 of the vehicle C2.
Therefore, the inter-vehicle communication system 1 informs the driver of the vehicle C2 of the presence and position of the moving body M that could not be captured by the cameras 11 and 11 of the vehicle C2, using at least one of images, characters, and voices. be able to.
Further, the inter-vehicle communication system 1 can notify the driver of the vehicle C2 of the possibility that the moving body M and the vehicle C2 meet using at least one of an image, text, and voice.

(車両間通信システムの第二の動作例)
続いて、車両間通信システム1の第二の動作例について説明する。なお、車両管理装置3の動作例は、図5に示したものと同一であるため、車載装置2の動作例のみについて説明する。
(Second operation example of inter-vehicle communication system)
Next, a second operation example of the inter-vehicle communication system 1 will be described. In addition, since the operation example of the vehicle management apparatus 3 is the same as what was shown in FIG. 5, only the operation example of the vehicle-mounted apparatus 2 is demonstrated.

(車載装置の第二の動作例)
車載装置2の第二の動作例について説明する。図16は、車載装置の第二の動作例を説明するためのフローチャートである。
まず、対象物データ通知部34がフラグを「0」に設定する(ステップS41)。
このフラグは、車両Cの車載装置2の通信相手を定めるものであり、フラグが「0」のときには、車載装置2と車両管理装置3とが接続される。また、フラグが「1」のときには、車載装置2と車両管理装置3とが切断されるとともに、自車両Cの車載装置2と他の車両Cの車載装置2とが接続される。これら通信接続/切断は、公知の技術により行われる。
(Second operation example of in-vehicle device)
A second operation example of the in-vehicle device 2 will be described. FIG. 16 is a flowchart for explaining a second operation example of the in-vehicle device.
First, the object data notification unit 34 sets a flag to “0” (step S41).
This flag determines the communication partner of the in-vehicle device 2 of the vehicle C. When the flag is “0”, the in-vehicle device 2 and the vehicle management device 3 are connected. When the flag is “1”, the in-vehicle device 2 and the vehicle management device 3 are disconnected, and the in-vehicle device 2 of the host vehicle C and the in-vehicle device 2 of another vehicle C are connected. These communication connections / disconnections are performed by a known technique.

ステップS42〜ステップS48は、図4のステップS2〜ステップS8と同一動作であるので、説明を省略する。   Steps S42 to S48 are the same as steps S2 to S8 in FIG.

ステップS48までの処理終了後、フラグが「0」である場合には(ステップS49でNo)、データ受信部37が、車両管理装置3から他移動体データおよび情報共有車両通知信号を受信する(ステップS50)。
情報共有車両がある場合には(ステップS51でYes)、対象物データ通知部34がフラグを「1」に設定する(ステップS52)。
また、ステップS49でYesの場合には、データ受信部37が、情報共有車両から他移動体データを受信する(ステップS53)。
そして、ステップS52またはステップS53の後、他移動体データがある場合には(ステップS54でYes)、ステップS55〜ステップS58を行う。これらステップS55〜ステップS58は、図4のステップS11〜ステップS14と同一動作であるので、説明を省略する。
ステップS54でNoの場合には、対象物データ通知部34がフラグを「0」に設定する(ステップS59)。ステップS51でNoの場合、ステップS58の処理後およびステップS59の処理後には、ステップS42に移行し、一連の処理を繰り返す。
If the flag is “0” after the processing up to step S48 is completed (No in step S49), the data receiving unit 37 receives the other mobile body data and the information sharing vehicle notification signal from the vehicle management device 3 ( Step S50).
If there is an information sharing vehicle (Yes in step S51), the object data notification unit 34 sets the flag to “1” (step S52).
Further, in the case of Yes in step S49, the data receiving unit 37 receives other moving body data from the information sharing vehicle (step S53).
And after step S52 or step S53, when there exists other mobile body data (it is Yes at step S54), step S55-step S58 are performed. Steps S55 to S58 are the same as steps S11 to S14 in FIG.
In the case of No in step S54, the object data notification unit 34 sets the flag to “0” (step S59). In the case of No in step S51, after the process of step S58 and the process of step S59, the process proceeds to step S42 and a series of processes is repeated.

このようにすることで、一旦情報共有車両として設定された車両同士は、その後車両管理装置3を介さずに通信することができる。したがって、他移動体データの通信に要する時間を短縮することができる。   By doing in this way, vehicles once set as information sharing vehicles can communicate without going through vehicle management device 3 after that. Therefore, the time required for communication of other mobile data can be shortened.

(車両間通信システムの第三の動作例)
続いて、車両間通信システム1の第三の動作例について説明する。図17は、車両間通信システムの第三の動作例を説明するためのフローチャートである。なお、第三の動作例は、図9および図10に示す状況に適用される。
車両C2がノード(交差点)Nに接近しているときに、探索開始判定部54が、各車両Cから送信された車両データに基づいて、探索を行うと判定し(ステップS61でYes)、近傍車両抽出部55が、同一ノードNに接近する車両があるかを判定する(ステップS62)。
近傍車両抽出部55が車両C1を抽出すると(ステップS62でYes)、情報共有車両決定部56が車両C1,C2を情報共有車両に決定し、情報共有車両通知部58が、情報共有連絡信号を車両C1,C2に通知する。
そして、車両C1の近傍に移動体Mがいる場合には(ステップS63でYes)、車両C1の対象物検出部32が移動体Mを検出し(ステップS64)、車両C1の対象物データ通知部34が移動体Mに関する移動体データを車両C2の車載装置2に通知する(ステップS65)。
そして、車両C2の表示装置20が移動体Mを表示する(ステップS66)。
(Third operation example of the inter-vehicle communication system)
Subsequently, a third operation example of the inter-vehicle communication system 1 will be described. FIG. 17 is a flowchart for explaining a third operation example of the inter-vehicle communication system. The third operation example is applied to the situations shown in FIGS.
When the vehicle C2 is approaching the node (intersection) N, the search start determination unit 54 determines to perform a search based on the vehicle data transmitted from each vehicle C (Yes in step S61), and the vicinity The vehicle extraction unit 55 determines whether there is a vehicle approaching the same node N (step S62).
When the nearby vehicle extraction unit 55 extracts the vehicle C1 (Yes in step S62), the information sharing vehicle determination unit 56 determines the vehicles C1 and C2 as information sharing vehicles, and the information sharing vehicle notification unit 58 sends an information sharing communication signal. The vehicle C1, C2 is notified.
And when the moving body M exists in the vicinity of the vehicle C1 (it is Yes at step S63), the target object detection part 32 of the vehicle C1 detects the moving body M (step S64), and the target object data notification part of the vehicle C1 34 notifies the in-vehicle device 2 of the vehicle C2 of the moving body data regarding the moving body M (step S65).
And the display apparatus 20 of the vehicle C2 displays the mobile body M (step S66).

なお、第三の動作例以降の動作例においても、音声による移動体Mの位置の通知や、音声、画像および文字のいずれかによる出会い判定結果の通知を行うことができる。   In the operation examples after the third operation example, the position of the moving body M can be notified by voice, and the encounter determination result can be notified by any of voice, image, and characters.

(車両間通信システムの第四の動作例)
続いて、車両間通信システム1の第四の動作例について説明する。図18は、車両間通信システムの第四の動作例の状況説明図である。図19は、車両間通信システムの第四の動作例を説明するためのフローチャートである。
第四の動作例は、図18に示すように、トラックなどの大型車である車両C4が交差点に進入している場合に適用される。車両C4の車載装置2は、その前方、後方、左側方および右側方を撮影するためのカメラを備えており、撮像領域DA41,DA42,DA43,DA44を撮影可能となっている。
まず、探索開始判定部54が、車両C2がノードに接近していると判定すると(ステップS81でYes)、近傍車両抽出部55が、車両C2の前方に車両があるか否かを判定する(ステップS82)。
そして、車両C2の近傍に車両C4がいる場合には(ステップS82でYes)、情報共有車両決定部56が車両C2,C4を情報共有車両に決定し、情報共有車両通知部57が、情報共有連絡信号を車両C2,C4に通知する。
そして、車両C4の近傍に移動体Mがいる場合には(ステップS83でYes)、車両C4の対象物検出部32が移動体Mを検出し(ステップS84)、車両C4の対象物データ通知部34が移動体Mに関する移動体データを車両C2の車載装置2に通知する(ステップS85)。
そして、車両C2の表示装置20が移動体Mを表示する(ステップS86)。
(Fourth operation example of the inter-vehicle communication system)
Next, a fourth operation example of the inter-vehicle communication system 1 will be described. FIG. 18 is a diagram illustrating a situation of the fourth operation example of the inter-vehicle communication system. FIG. 19 is a flowchart for explaining a fourth operation example of the inter-vehicle communication system.
As shown in FIG. 18, the fourth operation example is applied when a vehicle C4 that is a large vehicle such as a truck enters an intersection. The in-vehicle device 2 of the vehicle C4 includes cameras for photographing the front, rear, left side, and right side of the vehicle C4, and can photograph the imaging areas DA41, DA42, DA43, DA44.
First, when the search start determination unit 54 determines that the vehicle C2 is approaching the node (Yes in step S81), the neighboring vehicle extraction unit 55 determines whether there is a vehicle in front of the vehicle C2 ( Step S82).
When the vehicle C4 is in the vicinity of the vehicle C2 (Yes in step S82), the information sharing vehicle determination unit 56 determines the vehicles C2 and C4 as information sharing vehicles, and the information sharing vehicle notification unit 57 performs information sharing. A communication signal is notified to the vehicles C2 and C4.
And when the moving body M exists in the vicinity of the vehicle C4 (it is Yes at step S83), the target object detection part 32 of the vehicle C4 detects the moving body M (step S84), and the target object data notification part of the vehicle C4 34 notifies the in-vehicle device 2 of the vehicle C2 of the moving body data regarding the moving body M (step S85).
And the display apparatus 20 of the vehicle C2 displays the mobile body M (step S86).

なお、ステップS81における交差点への接近判定のかわりに、横断歩道への接近判定を行っても良い。
また、ステップS81、ステップS82の判定に、車両C2の車載装置2における対象物検出部32の検出結果を利用しても良い。
また、この第四の動作例以降の動作例においては、情報共有車両決定部56は、撮影領域の重複を判断することなく情報共有車両を決定することができる。
In addition, you may perform the approach determination to a pedestrian crossing instead of the approach determination to an intersection in step S81.
Moreover, you may utilize the detection result of the target object detection part 32 in the vehicle-mounted apparatus 2 of the vehicle C2 for determination of step S81 and step S82.
Further, in the operation examples after the fourth operation example, the information sharing vehicle determination unit 56 can determine the information sharing vehicle without determining the overlap of the imaging regions.

(車両間通信システムの第五の動作例)
続いて、車両間通信システム1の第五の動作例について説明する。図20は、車両間通信システムの第五の動作例の状況説明図である。図21は、車両間通信システムの第五の動作例を説明するためのフローチャートである。
第五の動作例は、図20に示すように、車両C2の対向車線側にバスである車両C5がバス停BSに停車している場合に適用される。車両C5の車載装置2は、その前方および後方を撮影するためのカメラを備えており、撮像領域DA51,DA52を撮影可能となっている。
まず、探索開始判定部54が、車両C2が車両C5とすれ違おうとしていると判定し(ステップS101でYes)、かつ、車両C5が停車中であると判定すると(ステップS101でYes)、情報共有車両決定部56が車両C2,C5を情報共有車両に決定する。
そして、車両C5の近傍に移動体Mがいる場合には(ステップS103でYes)、車両C5の対象物検出部32が移動体Mを検出し(ステップS104)、車両C5の対象物データ通知部34が移動体Mに関する移動体データを車両C2の車載装置2に通知する(ステップS106)。
そして、車両C2の表示装置20が移動体Mを表示する(ステップS106)。
(Fifth operation example of inter-vehicle communication system)
Next, a fifth operation example of the inter-vehicle communication system 1 will be described. FIG. 20 is a diagram illustrating a situation of the fifth operation example of the inter-vehicle communication system. FIG. 21 is a flowchart for explaining a fifth operation example of the inter-vehicle communication system.
As shown in FIG. 20, the fifth operation example is applied when the vehicle C5, which is a bus, stops at the bus stop BS on the opposite lane side of the vehicle C2. The in-vehicle device 2 of the vehicle C5 includes a camera for photographing the front and rear of the vehicle C5, and can photograph the imaging areas DA51 and DA52.
First, when the search start determination unit 54 determines that the vehicle C2 is about to pass the vehicle C5 (Yes in step S101) and determines that the vehicle C5 is stopped (Yes in step S101), the information The shared vehicle determination unit 56 determines the vehicles C2 and C5 as information sharing vehicles.
When the moving body M is in the vicinity of the vehicle C5 (Yes in step S103), the object detection unit 32 of the vehicle C5 detects the moving body M (step S104), and the object data notification unit of the vehicle C5. 34 notifies the in-vehicle device 2 of the vehicle C2 of the moving body data relating to the moving body M (step S106).
And the display apparatus 20 of the vehicle C2 displays the mobile body M (step S106).

(車両間通信システムの第六の動作例)
続いて、車両間通信システム1の第六の動作例について説明する。図22は、車両間通信システムの第六の動作例の状況説明図である。図23は、本発明の実施形態に係る車両間通信システムの第七の動作例を説明するためのフローチャートである。
第六の動作例は、図22に示すように、車両C2がバス停BSに停車中のバスである車両C5を追い越そうとする場合に適用される。
まず、探索開始判定部54が、車両C2が車両C5を追い越そうとしていると判定すると(ステップS121でYes)、情報共有車両決定部56が車両C2,C5を情報共有車両に決定する。
そして、車両C5の近傍に移動体Mがいる場合には(ステップS122でYes)、車両C5の対象物検出部32が移動体Mを検出し(ステップS123)、車両C5の対象物データ通知部34が移動体Mに関する移動体データを車両C2の車載装置2に通知する(ステップS124)。
そして、車両C2の表示装置20が移動体Mを表示する(ステップS125)。
(Sixth operation example of inter-vehicle communication system)
Subsequently, a sixth operation example of the inter-vehicle communication system 1 will be described. FIG. 22 is a diagram illustrating a situation of the sixth operation example of the inter-vehicle communication system. FIG. 23 is a flowchart for explaining a seventh operation example of the inter-vehicle communication system according to the embodiment of the present invention.
As shown in FIG. 22, the sixth operation example is applied when the vehicle C2 tries to pass the vehicle C5 that is a bus stopped at the bus stop BS.
First, when the search start determination unit 54 determines that the vehicle C2 is about to pass the vehicle C5 (Yes in step S121), the information sharing vehicle determination unit 56 determines the vehicles C2 and C5 to be information sharing vehicles.
And when the moving body M exists in the vicinity of the vehicle C5 (Yes in step S122), the target object detection part 32 of the vehicle C5 detects the moving body M (step S123), and the target object data notification part of the vehicle C5 34 notifies the in-vehicle device 2 of the vehicle C2 of the moving body data related to the moving body M (step S124).
And the display apparatus 20 of the vehicle C2 displays the mobile body M (step S125).

(車両間通信システムの第七の動作例)
続いて、車両間通信システム1の第七の動作例について説明する。図24は、車両間通信システムの第七の動作例の状況説明図である。図25は、車両間通信システムの第七の動作例を説明するためのフローチャートである。
第七の動作例は、図24に示すように、車両C2の同一車線前方にトラックなどの大型車である車両C4が走行している場合に適用される。
まず、探索開始判定部54が、車両C4が車両C2の前方を走行していると判定すると(ステップS141でYes)、情報共有車両決定部56が車両C2,C4を情報共有車両に決定する。
そして、車両C4の近傍に移動体Mがいる場合には(ステップS142でYes)、車両C4の対象物検出部32が移動体Mを検出し(ステップS143)、車両C4の対象物データ通知部34が移動体Mに関する移動体データを車両C2の車載装置2に通知する(ステップS144)。
そして、車両C2の表示装置20が移動体Mを表示する(ステップS145)。
(Seventh operation example of inter-vehicle communication system)
Subsequently, a seventh operation example of the inter-vehicle communication system 1 will be described. FIG. 24 is a diagram for explaining the situation of the seventh operation example of the inter-vehicle communication system. FIG. 25 is a flowchart for explaining a seventh operation example of the inter-vehicle communication system.
As shown in FIG. 24, the seventh operation example is applied when a vehicle C4, which is a large vehicle such as a truck, is traveling in front of the same lane of the vehicle C2.
First, when the search start determination unit 54 determines that the vehicle C4 is traveling ahead of the vehicle C2 (Yes in step S141), the information sharing vehicle determination unit 56 determines the vehicles C2 and C4 to be information sharing vehicles.
If the moving object M is in the vicinity of the vehicle C4 (Yes in step S142), the object detection unit 32 of the vehicle C4 detects the moving object M (step S143), and the object data notification unit of the vehicle C4. 34 notifies the in-vehicle device 2 of the vehicle C2 of the moving body data related to the moving body M (step S144).
And the display apparatus 20 of the vehicle C2 displays the mobile body M (step S145).

(第八の動作例)
続いて、車両間通信システム1の第八の動作例について説明する。第八の動作例は、前記した第五ないし第七の動作例と組み合わせて実施可能であり、また、第五ないし第七の動作例と同一状況において、第八の動作例を単独で実施することも可能である。ここでは、第八の動作例を第五の動作例と同一状況で単独に実施した場合を例にとって説明する。
図26は、車両間通信システムの第八の動作例を説明するための状況説明図である。図27および図28は、車両間通信システムの第八の動作例を示すフローチャートである。
なお、図26では、各車両の撮像領域を省略している。また、記憶部23,62に記憶された地図データには、ノードN同士を繋ぐアークArが道路中央に設定されており、車両間通信システム1は、このアークArを利用する。
(Eighth operation example)
Next, an eighth operation example of the inter-vehicle communication system 1 will be described. The eighth operation example can be implemented in combination with the fifth to seventh operation examples described above, and in the same situation as the fifth to seventh operation examples, the eighth operation example is executed alone. It is also possible. Here, the case where the eighth operation example is carried out independently in the same situation as the fifth operation example will be described as an example.
FIG. 26 is a situation explanatory diagram for explaining an eighth operation example of the inter-vehicle communication system. 27 and 28 are flowcharts showing an eighth operation example of the inter-vehicle communication system.
In FIG. 26, the imaging area of each vehicle is omitted. Further, in the map data stored in the storage units 23 and 62, an arc Ar connecting the nodes N is set at the center of the road, and the inter-vehicle communication system 1 uses this arc Ar.

まず、車両C4の対象物検出部32が移動体Mを検出すると(ステップS161でYes)、車両管理装置3の情報共有車両決定部57は、近傍車両抽出部55によって抽出された車両Cの中から情報共有車両を決定する。そして、情報共有車両に決定された車両C5,C2間で通信を行う。ここでは、車両C5に関する各種データと移動体Mに関する各種データとが、車両C5の車載装置2から車両C2の車載装置2に送信される。そして、車両C2の車載装置2は、検出された移動体Mの数iの分だけ、ステップS162〜ステップS172の処理を行うループに入る。なお、図26には、一つの移動体Mのみが図示されている。   First, when the object detection unit 32 of the vehicle C4 detects the moving body M (Yes in step S161), the information sharing vehicle determination unit 57 of the vehicle management device 3 includes the vehicle C extracted by the neighboring vehicle extraction unit 55. The information sharing vehicle is determined. And it communicates between vehicles C5 and C2 determined as an information sharing vehicle. Here, various data related to the vehicle C5 and various data related to the moving body M are transmitted from the in-vehicle device 2 of the vehicle C5 to the in-vehicle device 2 of the vehicle C2. And the vehicle-mounted apparatus 2 of the vehicle C2 enters the loop which performs the process of step S162-step S172 for the number i of the detected moving bodies M. In FIG. 26, only one moving body M is shown.

そして、i番目の移動体Mが車両C2とアークArを共有している場合には(ステップS163でYes)、車両C2の出会い判定部40が、i番目の移動体Mの現在位置とアークArとが直交する点Pの位置を算出する(ステップS164)。なお、ステップS163でNoの場合には、次の移動体Mについての処理に移行する。
そして、車両C5と車両C2との距離dが所定距離ε(例えば、ε=50m)よりも短い場合には(ステップS165でYes)、j番目の車両C2の出会い判定部40が、j番目の車両C4とアークArとが直交する点Qの位置を算出する(ステップS166)。
そして、車両C2の出会い判定部40が、車両C2が点Pに到達するのに要する時間tpを算出する(ステップS167)。時間tPは、下記式(3)によって算出される。

tp=|Q−P|/VC2−α ・・・(3)
(αはマージン。車両C2が加速する場合を考慮し、車両C2が点Pにやや早く到達することを想定している。)

そして、i番目の移動体Mの移動速度VMがほぼ0(例えば、時速2km以下)のときには(ステップS168でYes)、出会い判定部40は、移動体Mの現在位置と点Pとの距離dMPが条件式(4)を満たすか否かを判定する(ステップS169)。

MP<Vmax×tp ・・・(4)
(Vmaxは、移動体Mの最大速度であり、移動体Mの種類ごとに予め記憶部23に記憶されている。)

距離dMPが条件式(4)を満たす場合には(ステップS169でYes)、画像データ生成部41aが移動体Mを表示する画像データを生成するとともに、音声データ生成部41dが移動体Mとの出会い可能性に基づく警報(減速指示、徐行指示など)を知らせる音声データを生成する。これらのデータは、表示装置20およびスピーカ21を介して運転者に通知される(ステップS170)。
距離dMPが条件式(4)を満たさない場合には(ステップS169でNo)、画像データ生成部41aが移動体Mを表示する画像データを生成する。画像データは、表示装置20を介して運転者に通知される(ステップS171)。
When the i-th moving body M shares the arc Ar with the vehicle C2 (Yes in step S163), the encounter determination unit 40 of the vehicle C2 determines the current position of the i-th moving body M and the arc Ar. The position of the point P where and are orthogonal to each other is calculated (step S164). In the case of No in step S163, the process proceeds to the process for the next moving object M.
When the distance d between the vehicle C5 and the vehicle C2 is shorter than a predetermined distance ε (eg, ε = 50 m) (Yes in step S165), the encounter determination unit 40 of the jth vehicle C2 The position of the point Q where the vehicle C4 and the arc Ar are orthogonal to each other is calculated (step S166).
Then, the encounter determination unit 40 of the vehicle C2 calculates a time tp required for the vehicle C2 to reach the point P (step S167). The time t P is calculated by the following equation (3).

tp = | Q−P | / V C2 −α (3)
(Α is a margin. Considering the case where the vehicle C2 is accelerated, it is assumed that the vehicle C2 reaches the point P slightly earlier.)

Then, the moving speed of the i-th mobile M V M is nearly zero (e.g., per hour 2km or less) when the (Yes at step S168), the encounter determination unit 40, the distance between the current position and the point P of the moving body M It is determined whether or not MP satisfies the conditional expression (4) (step S169).

d MP <V max × tp (4)
(V max is the maximum velocity of the moving body M, which is stored in advance in the storage unit 23 for each type of mobile M.)

When the distance d MP satisfies the conditional expression (4) (Yes in step S169), the image data generating unit 41a generates image data for displaying the moving object M, and the audio data generating unit 41d is connected to the moving object M. Voice data that generates an alarm (deceleration instruction, slow-down instruction, etc.) based on the possibility of encountering is generated. These data are notified to the driver via the display device 20 and the speaker 21 (step S170).
When the distance d MP does not satisfy the conditional expression (4) (No in step S169), the image data generation unit 41a generates image data for displaying the moving object M. The image data is notified to the driver via the display device 20 (step S171).

また、ステップS168でNoの場合には、移動体Mの未来位置である点Mfを算出する(ステップS181)。この点Mfの算出は、例えば、カルマンフィルタによる移動体Mの位置推定を tP/Δt 回(ここで、Δtはカルマンフィルタの計算サイクルタイム)繰り返し実施することによって行われる。
そして、出会い判定部40は、点Mと点Mfとを結ぶ線分LMMfとアークArとが交わるか否かを判定する(ステップS182)。
Further, in the case of No in step S168, a point Mf that is the future position of the moving object M is calculated (step S181). The calculation of the point Mf is performed, for example, by repeatedly performing the position estimation of the moving object M by the Kalman filter t p / Δt times (where Δt is the calculation cycle time of the Kalman filter).
Then, the encounter determination unit 40 determines whether or not the line segment L MMf connecting the point M and the point Mf intersects with the arc Ar (step S182).

ステップS182でYesの場合には、画像データ生成部41aが移動体Mを表示する画像データを生成するとともに、音声データ生成部41dが移動体Mとの出会い可能性に基づく警報(減速指示、徐行指示など)を知らせる音声データを生成する。これらのデータは、表示装置20およびスピーカ21を介して運転者に通知される(ステップS183)。
ステップS182でNoの場合には、画像データ生成部41aが移動体Mを表示する画像データを生成する。画像データは、表示装置20を介して運転者に通知される(ステップS183)。
In the case of Yes in step S182, the image data generation unit 41a generates image data for displaying the moving body M, and the sound data generation unit 41d generates an alarm (deceleration instruction, slow running) based on the possibility of encounter with the moving body M. Voice data for notifying instructions) is generated. These data are notified to the driver via the display device 20 and the speaker 21 (step S183).
In the case of No in step S182, the image data generation unit 41a generates image data for displaying the moving object M. The image data is notified to the driver via the display device 20 (step S183).

このように、移動体Mの移動速度VMの値によって、その後の処理を変えたのは、以下の理由による。
移動体Mの移動速度VMがほぼゼロの場合には、移動体Mのその後の移動を推定しにくい。そのため、車両C2の車載装置2は、移動体Mが車両C2と出会う方向へ最速移動を行うことを想定した処理を行う。
また、移動体Mの移動速度Vがある程度大きい(ゼロではない)場合には、移動体Mのその後の移動を推定しやすい。そのため、車両C2の車載装置2は、かかる推定を利用した処理を行う。
Thus, the value of the moving speed V M of the moving object M, for changing the subsequent processing for the following reason.
If the moving speed V M is approximately zero moving object M is difficult to estimate the subsequent movement of the moving body M. Therefore, the in-vehicle device 2 of the vehicle C2 performs processing assuming that the moving body M performs the fastest movement in the direction in which the vehicle M meets the vehicle C2.
Further, when the moving speed V M of the moving object M is large to some extent (non-zero), it is easy to estimate the subsequent movement of the moving body M. Therefore, the in-vehicle device 2 of the vehicle C2 performs processing using such estimation.

なお、ステップS170,S171,S183,S184において、車載装置2は、文字情報による運転者への通知を使用することもできる。   In addition, in step S170, S171, S183, S184, the vehicle-mounted apparatus 2 can also use the notification to a driver | operator by character information.

また、車両C2の後続車両Cがある場合には、車両管理装置3の情報共有車両決定部57によって決定された情報共有車両ごとにこれらの処理を行うこともできる。   Further, when there is a succeeding vehicle C of the vehicle C2, these processes can be performed for each information sharing vehicle determined by the information sharing vehicle determination unit 57 of the vehicle management device 3.

なお、第八の動作例を単独実施する場合は、第五ないし第七の動作例と組み合わせて実施する場合と比較して、移動体Mを検出した場合にのみ近傍車両の抽出を行えば良く、システムの処理速度を高めることができる。   In the case of performing the eighth operation example alone, it is only necessary to extract a nearby vehicle only when the moving object M is detected, as compared to the case of combining with the fifth to seventh operation examples. , Can increase the processing speed of the system.

以上、本発明の実施形態について説明したが、本発明は前記した各実施形態に限定されず、本発明の要旨を逸脱しない範囲で適宜設計変更可能である。
例えば、車両管理装置3が出会い判定部を備えている構成であってもよい。
また、車両管理装置3の構成の一部または全部を、各車両の車載装置2に組み込んだ構成であっても良く、車載装置2の主制御部30内の構成の一部または全部を、車両管理装置3に組み込んだ構成であっても良い。また、車両位置データ検出手段は、GPS受信器に限定されない。また、各種データは、それと同一の意味を持つ物理量によるデータに置換可能である。
また、撮像領域の設定や、近傍車両抽出領域EAの広さは、適宜設定可能である。
また、移動体Mの画像の代わりに、移動体Mを表すマークや合成画像を表示装置に表示させる構成であっても良い。
また、当該車両のカメラが撮影した画像に他の車両のカメラが撮影した移動体画像を合成するだけでなく、カーナビゲーションシステムによる地図画像に他の車両のカメラが撮影した移動体画像を合成する構成であっても良い。
また、画像データ生成部が出会い判定部の判定結果を表示するための画像データを生成し、出力する構成であっても良い。さらには、文字データ生成部および画像データ生成部が出会い判定結果を表示するための文字データおよび画像データを生成し、文字および画像によって出会い判定結果を運転者に知らせる構成であっても良い。
また、ローカルマップ生成部39などによる各種データの推定(現在データへの変換)は、適宜設定可能である。
As mentioned above, although embodiment of this invention was described, this invention is not limited to each above-mentioned embodiment, In the range which does not deviate from the summary of this invention, a design change is possible suitably.
For example, the vehicle management device 3 may include an encounter determination unit.
Further, a part or all of the configuration of the vehicle management device 3 may be incorporated in the in-vehicle device 2 of each vehicle, and a part or all of the configuration in the main control unit 30 of the in-vehicle device 2 may be The structure incorporated in the management apparatus 3 may be sufficient. Further, the vehicle position data detection means is not limited to a GPS receiver. Various data can be replaced with data based on physical quantities having the same meaning.
In addition, the setting of the imaging area and the size of the nearby vehicle extraction area EA can be set as appropriate.
Further, instead of the image of the moving body M, a mark representing the moving body M or a composite image may be displayed on the display device.
In addition to combining the moving body image captured by the camera of the other vehicle with the image captured by the camera of the vehicle, the moving body image captured by the camera of the other vehicle is combined with the map image by the car navigation system. It may be a configuration.
The image data generation unit may generate and output image data for displaying the determination result of the encounter determination unit. Furthermore, the character data generation unit and the image data generation unit may generate character data and image data for displaying the encounter determination result, and notify the driver of the encounter determination result using the character and the image.
In addition, various data estimation (conversion to current data) by the local map generation unit 39 or the like can be set as appropriate.

本発明の実施形態に係る車両間通信システムを示すシステム構成図である。1 is a system configuration diagram showing an inter-vehicle communication system according to an embodiment of the present invention. 図1の車載装置を示すブロック図である。It is a block diagram which shows the vehicle-mounted apparatus of FIG. 図1の車両管理装置を示すブロック図である。It is a block diagram which shows the vehicle management apparatus of FIG. 車載装置の第一の動作例を説明するためのフローチャートである。It is a flowchart for demonstrating the 1st operation example of a vehicle-mounted apparatus. 車両管理装置の第一の動作例を説明するためのフローチャートである。It is a flowchart for demonstrating the 1st operation example of a vehicle management apparatus. 情報共有車両の探索開始判定、近傍車両の抽出および視野重複の判定の手法の一例を説明するための図である。It is a figure for demonstrating an example of the method of a search start determination of an information sharing vehicle, the extraction of a nearby vehicle, and the determination of a visual field overlap. 余裕停止距離を説明するためのグラフである。It is a graph for demonstrating a margin stop distance. 出会い判定を説明するための図である。It is a figure for demonstrating encounter determination. 車両間通信システムの第一の動作例に基づく作用を説明するための図であり、車両C1、車両C2および移動体Mの配置状態を説明するための図である。It is a figure for demonstrating the effect | action based on the 1st operation example of the communication system between vehicles, and is a figure for demonstrating the arrangement | positioning state of the vehicle C1, the vehicle C2, and the mobile body M. FIG. 図9の平面図である。FIG. 10 is a plan view of FIG. 9. 車両C1のカメラによって撮像された画像を示す図である。It is a figure which shows the image imaged with the camera of vehicle C1. 車両C2のカメラによって撮像された画像を示す図である。It is a figure which shows the image imaged with the camera of vehicle C2. 移動体の画像の補正を説明するための図であり、(a)は補正前を示す図、(b)は補正後を示す図である。It is a figure for demonstrating correction | amendment of the image of a moving body, (a) is a figure which shows before correction | amendment, (b) is a figure which shows after correction | amendment. 車両C2の画像に車両C1が撮影した移動体を合成した画像を示す図である。It is a figure which shows the image which combined the moving body which the vehicle C1 image | photographed with the image of the vehicle C2. 車両間通信システムの第一の動作例における車載システムおよび車両管理システム間の通信を示すタイミングチャートである。It is a timing chart which shows communication between the vehicle-mounted system and vehicle management system in the 1st operation example of the communication system between vehicles. 車載装置の第二の動作例を説明するためのフローチャートである。It is a flowchart for demonstrating the 2nd operation example of a vehicle-mounted apparatus. 車両間通信システムの第三の動作例を説明するためのフローチャートである。It is a flowchart for demonstrating the 3rd operation example of the communication system between vehicles. 車両間通信システムの第四の動作例を説明するための状況説明図である。It is a situation explanatory view for explaining the 4th example of operation of a communication system between vehicles. 車両間通信システムの第四の動作例を説明するためのフローチャートである。It is a flowchart for demonstrating the 4th operation example of the communication system between vehicles. 車両間通信システムの第五の動作例を説明するための状況説明図である。It is a situation explanatory view for explaining the 5th example of operation of a communication system between vehicles. 車両間通信システムの第五の動作例を説明するためのフローチャートである。It is a flowchart for demonstrating the 5th operation example of the communication system between vehicles. 車両間通信システムの第六の動作例を説明するための状況説明図である。It is a situation explanatory view for explaining the 6th example of operation of a communication system between vehicles. 車両間通信システムの第六の動作例を説明するためのフローチャートである。It is a flowchart for demonstrating the 6th operation example of the communication system between vehicles. 車両間通信システムの第七の動作例を説明するための状況説明図である。It is a situation explanatory view for explaining the 7th example of operation of a communication system between vehicles. 車両間通信システムの第七の動作例を説明するためのフローチャートである。It is a flowchart for demonstrating the 7th operation example of the communication system between vehicles. 車両間通信システムの第八の動作例を説明するための状況説明図である。It is a situation explanatory view for explaining the 8th example of operation of a communication system between vehicles. 車両間通信システムの第八の動作例を説明するためのフローチャートである。It is a flowchart for demonstrating the 8th operation example of the communication system between vehicles. 車両間通信システムの第八の動作例を説明するためのフローチャートである。It is a flowchart for demonstrating the 8th operation example of the communication system between vehicles.

符号の説明Explanation of symbols

1 車両間通信システム
2 車載装置
3 車両管理装置
11 カメラ
13 ジャイロセンサ
14 GPS検出器
20 表示装置
23 スピーカ
32 対象物検出部
33 対象物データ生成部
35 車両データ生成部
41a 画像データ生成部
41b 文字データ生成部
41d 音声データ生成部
41e 制御データ生成部
54 探索開始判定部
55 近傍車両抽出部
57 情報共有車両決定部
62 記憶部
DESCRIPTION OF SYMBOLS 1 Inter-vehicle communication system 2 In-vehicle apparatus 3 Vehicle management apparatus 11 Camera 13 Gyro sensor 14 GPS detector 20 Display apparatus 23 Speaker 32 Object detection part 33 Object data generation part 35 Vehicle data generation part 41a Image data generation part 41b Character data Generation unit 41d Audio data generation unit 41e Control data generation unit 54 Search start determination unit 55 Nearby vehicle extraction unit 57 Information sharing vehicle determination unit 62 Storage unit

Claims (5)

車両同士が通信を行う車両間通信システムであって、
車両ごとに設けられた、当該車両の周囲を撮像する撮像手段と、
前記撮像手段によって撮像された画像から移動体を検出する移動体検出部と、
車両ごとに設けられた、音声を発する発音手段と、
車両ごとに設けられた、前記車両の前記発音手段に発音させる音声に関する音声データを生成する音声データ生成部と、
車両ごとに設けられた、データの送受信を行う送受信手段と、
を備え、
一の車両の前記音声データ生成部は、他の車両の前記撮像手段によって撮像された移動体の存在を知らせる音声データを生成し、一の車両の前記発音手段に出力し、
車両ごとに設けられた、前記車両の位置に関する車両位置データを検出する車両位置データ検出手段と、
車両ごとに設けられた、前記撮像手段によって撮像された画像から前記移動体の位置に関する移動体位置データを生成する移動体位置データ生成部と、
をさらに備え、
一の車両の前記音声データ生成部は、他の車両の前記移動体位置データ生成部によって生成された前記移動体位置データに基づいて、他の車両の前記撮像手段によって撮像された前記移動体の存在位置を知らせる音声データを生成し、一の車両の前記発音手段に出力し、
前記撮像手段によって撮像された移動体に関する情報を共有する車両の組み合わせを決定する情報共有車両決定部と、
前記撮像手段の撮像領域が記憶された記憶部と、
をさらに備え、
前記情報共有車両決定部は、前記車両位置データ検出手段によって検出された前記車両位置データと、前記記憶部に記憶された前記撮像手段の撮像領域に基づいて、前記撮像領域が所定割合以上重なっている車両同士を、前記した一の車両及び他の車両として組み合わせる
ことを特徴とする車両間通信システム。
An inter-vehicle communication system in which vehicles communicate with each other,
Imaging means provided for each vehicle for imaging the surroundings of the vehicle;
A moving body detection unit that detects a moving body from an image captured by the imaging unit;
A sounding means that emits sound, provided for each vehicle;
An audio data generation unit that generates audio data related to audio to be generated by the sound generation unit of the vehicle, provided for each vehicle;
Transmission / reception means for transmitting / receiving data provided for each vehicle;
With
The sound data generation unit of one vehicle generates sound data notifying the presence of a moving body imaged by the image pickup unit of another vehicle, and outputs the sound data to the sound generation unit of one vehicle ,
Vehicle position data detecting means for detecting vehicle position data relating to the position of the vehicle provided for each vehicle;
A moving body position data generating unit that generates moving body position data related to the position of the moving body from an image captured by the imaging means, provided for each vehicle;
Further comprising
The voice data generation unit of one vehicle is configured to capture the moving body imaged by the imaging unit of another vehicle based on the moving body position data generated by the moving body position data generation unit of another vehicle. Generate voice data that informs the location, and output to the sounding means of one vehicle,
An information sharing vehicle determination unit that determines a combination of vehicles that share information on the moving object imaged by the imaging means;
A storage unit storing an imaging area of the imaging means;
Further comprising
The information sharing vehicle determining unit is configured to overlap the imaging region by a predetermined ratio or more based on the vehicle position data detected by the vehicle location data detecting unit and the imaging region of the imaging unit stored in the storage unit. A vehicle- to-vehicle communication system characterized by combining existing vehicles as one vehicle and another vehicle described above .
情報を共有する車両の探索を開始するか否かを判定する探索開始判定部をさらに備え、
前記探索開始判定部が情報を共有する車両の探索を開始すると判定した場合に、前記情報共有車両決定部が情報を共有する車両の組み合わせを決定する
ことを特徴とする請求項1に記載の車両間通信システム。
A search start determination unit that determines whether or not to start searching for a vehicle that shares information;
The vehicle according to claim 1 , wherein when the search start determination unit determines to start searching for a vehicle that shares information, the information sharing vehicle determination unit determines a combination of vehicles that share information. Communication system.
前記探索開始判定部は、前記車両の前記移動体検出部が移動体を検出した場合に、当該車両に対する情報共有車両の探索を開始するか否かを判定し、
前記情報共有車両決定部は、前記探索開始判定部が当該車両に対する情報共有車両の探索を開始すると判定した場合に、当該車両と情報を共有する車両を決定する
ことを特徴とする請求項2に記載の車両間通信システム。
The search start determination unit determines whether or not to start searching for an information sharing vehicle for the vehicle when the moving body detection unit of the vehicle detects a moving body,
The information sharing vehicle determination unit, when the search start determination unit determines that starts searching for the information sharing vehicle with respect to the vehicle, to claim 2, characterized in that determining a vehicle to share the vehicle and information The vehicle-to-vehicle communication system described.
前記記憶部には、地図データがさらに記憶されており、
前記探索開始判定部は、前記車両位置データと、前記地図データと、に基づいて、前記車両が前記地図データにおけるノードに接近しているか否かを判定し、
前記情報共有車両決定部は、前記探索開始判定部が前記車両が前記ノードに接近していると判定した場合に、当該車両と情報を共有する車両を決定する
ことを特徴とする請求項3に記載の車両間通信システム。
The storage unit further stores map data,
The search start determination unit determines whether the vehicle is approaching a node in the map data based on the vehicle position data and the map data.
The information sharing vehicle determination unit, when the search start determination unit determines that the vehicle is approaching to the node, to claim 3, characterized in that determining a vehicle to share the vehicle and information The vehicle-to-vehicle communication system described.
前記車両の近傍に位置する車両を抽出する近傍車両抽出部をさらに備え、
前記情報共有車両決定部は、前記近傍車両抽出部によって抽出された車両の中から、情報を共有する車両を決定する
ことを特徴とする請求項4に記載の車両間通信システム。
Further comprising a nearby vehicle extraction unit for extracting a vehicle located in the vicinity of the vehicle;
The inter-vehicle communication system according to claim 4 , wherein the information sharing vehicle determination unit determines a vehicle that shares information from among the vehicles extracted by the neighboring vehicle extraction unit.
JP2005105449A 2005-03-31 2005-03-31 Inter-vehicle communication system Expired - Fee Related JP4585356B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005105449A JP4585356B2 (en) 2005-03-31 2005-03-31 Inter-vehicle communication system
US11/365,914 US7778770B2 (en) 2005-03-31 2006-03-02 Communication system between vehicles
KR1020060028036A KR100885738B1 (en) 2005-03-31 2006-03-28 Communication system between vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005105449A JP4585356B2 (en) 2005-03-31 2005-03-31 Inter-vehicle communication system

Publications (2)

Publication Number Publication Date
JP2006285693A JP2006285693A (en) 2006-10-19
JP4585356B2 true JP4585356B2 (en) 2010-11-24

Family

ID=37407548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005105449A Expired - Fee Related JP4585356B2 (en) 2005-03-31 2005-03-31 Inter-vehicle communication system

Country Status (1)

Country Link
JP (1) JP4585356B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4561863B2 (en) 2008-04-07 2010-10-13 トヨタ自動車株式会社 Mobile body path estimation device
JP4620795B1 (en) * 2009-08-07 2011-01-26 治幸 岩田 Car approach warning system
JP5950205B2 (en) * 2012-10-11 2016-07-13 株式会社デンソー Proximity alarm sound output device management system for vehicles
JP7447417B2 (en) 2019-09-27 2024-03-12 ソニーグループ株式会社 Image processing device, image processing method, program

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644498A (en) * 1992-07-23 1994-02-18 Mazda Motor Corp Information transmission device for vehicle
JPH1079100A (en) * 1996-09-04 1998-03-24 Oki Electric Ind Co Ltd Device for preventing collision
JP2000242898A (en) * 1999-02-22 2000-09-08 Equos Research Co Ltd Peripheral vehicle notification device
JP2001101566A (en) * 1999-09-30 2001-04-13 Toshiba Corp Traffic safety confirming system
JP2002117494A (en) * 2000-10-11 2002-04-19 Honda Motor Co Ltd Peripheral information display device
JP2002157684A (en) * 2000-11-21 2002-05-31 Honda Motor Co Ltd On-vehicle display device
JP2003006797A (en) * 2001-06-21 2003-01-10 Matsushita Electric Ind Co Ltd Surrounding image display device and image distribution method
JP2003016595A (en) * 2001-06-27 2003-01-17 Fujitsu Ten Ltd Traveling support device
JP2005005978A (en) * 2003-06-11 2005-01-06 Denso Corp Surrounding condition recognition system
JP2005032010A (en) * 2003-05-09 2005-02-03 Fujitsu Ten Ltd Vehicle communication system, vehicle communication method, on-vehicle communication equipment, vehicle communication managing device and vehicle information collecting device
JP2006215911A (en) * 2005-02-04 2006-08-17 Sumitomo Electric Ind Ltd Apparatus, system and method for displaying approaching mobile body

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644498A (en) * 1992-07-23 1994-02-18 Mazda Motor Corp Information transmission device for vehicle
JPH1079100A (en) * 1996-09-04 1998-03-24 Oki Electric Ind Co Ltd Device for preventing collision
JP2000242898A (en) * 1999-02-22 2000-09-08 Equos Research Co Ltd Peripheral vehicle notification device
JP2001101566A (en) * 1999-09-30 2001-04-13 Toshiba Corp Traffic safety confirming system
JP2002117494A (en) * 2000-10-11 2002-04-19 Honda Motor Co Ltd Peripheral information display device
JP2002157684A (en) * 2000-11-21 2002-05-31 Honda Motor Co Ltd On-vehicle display device
JP2003006797A (en) * 2001-06-21 2003-01-10 Matsushita Electric Ind Co Ltd Surrounding image display device and image distribution method
JP2003016595A (en) * 2001-06-27 2003-01-17 Fujitsu Ten Ltd Traveling support device
JP2005032010A (en) * 2003-05-09 2005-02-03 Fujitsu Ten Ltd Vehicle communication system, vehicle communication method, on-vehicle communication equipment, vehicle communication managing device and vehicle information collecting device
JP2005005978A (en) * 2003-06-11 2005-01-06 Denso Corp Surrounding condition recognition system
JP2006215911A (en) * 2005-02-04 2006-08-17 Sumitomo Electric Ind Ltd Apparatus, system and method for displaying approaching mobile body

Also Published As

Publication number Publication date
JP2006285693A (en) 2006-10-19

Similar Documents

Publication Publication Date Title
KR100885738B1 (en) Communication system between vehicles
US9809223B2 (en) Driving assistant for vehicles
JP2022520968A (en) Estimating object attributes using visual image data
US20190283742A1 (en) Vehicle control device, vehicle control method, and storage medium
JP6764573B2 (en) Image processing equipment, image processing methods, and programs
JP7251120B2 (en) Information providing system, server, in-vehicle device, program and information providing method
CN110574357B (en) Imaging control apparatus, method for controlling imaging control apparatus, and moving body
JP2019093998A (en) Vehicle control device, vehicle control method and program
JP2018156462A (en) Mobile object and driving support system including the same
CN105083161A (en) Object recognition apparatus and method for recognizing objects
JP2019137185A (en) Vehicle control system, vehicle control method, and program
JP4686235B2 (en) Inter-vehicle communication system
CN112106003A (en) Controller, control method, and program
JP7380674B2 (en) Information processing device and information processing method, movement control device and movement control method
JP4585356B2 (en) Inter-vehicle communication system
JP4686236B2 (en) Inter-vehicle communication system
JP4585355B2 (en) Inter-vehicle communication system
JP4848644B2 (en) Obstacle recognition system
JP7286691B2 (en) Determination device, vehicle control device, determination method, and program
WO2020036043A1 (en) Information processing device, information processing method and program
CN115195775A (en) Vehicle control device, vehicle control method, and storage medium
WO2020195965A1 (en) Information processing device, information processing method, and program
US20220094435A1 (en) Visible light communication apparatus, visible light communication method, and visible light communication program
US20210295563A1 (en) Image processing apparatus, image processing method, and program
WO2021075112A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100903

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140910

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees