JP4986135B2 - Database creation device and database creation program - Google Patents

Database creation device and database creation program Download PDF

Info

Publication number
JP4986135B2
JP4986135B2 JP2007074427A JP2007074427A JP4986135B2 JP 4986135 B2 JP4986135 B2 JP 4986135B2 JP 2007074427 A JP2007074427 A JP 2007074427A JP 2007074427 A JP2007074427 A JP 2007074427A JP 4986135 B2 JP4986135 B2 JP 4986135B2
Authority
JP
Japan
Prior art keywords
vehicle
information
image
miss
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007074427A
Other languages
Japanese (ja)
Other versions
JP2008234414A (en
Inventor
洋一 野本
知茂 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2007074427A priority Critical patent/JP4986135B2/en
Publication of JP2008234414A publication Critical patent/JP2008234414A/en
Application granted granted Critical
Publication of JP4986135B2 publication Critical patent/JP4986135B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、例えば、車両の走行中に発生したイベントに関するデータベースを作成するデータベース作成装置及びデータベース作成プログラムに関する。   The present invention relates to a database creation apparatus and a database creation program for creating a database related to an event that occurs while a vehicle is running, for example.

ブレーキ、アクセル、ハンドルの操作量などの車両操作情報や、心拍や発汗などの運転者の生体情報に基づいて、運転者の危険反応を検知する技術が存在する。
例えば、特許文献1には、「歩行者の飛び出し」や「死角に入った他車両の見落とし」など、運転者が危険反応(ヒヤリ・ハット)を感じた地点の情報を、データベースに記録する技術が提案されている。
特開2007−47914公報
There is a technique for detecting a driver's dangerous reaction based on vehicle operation information such as brake, accelerator, and steering wheel operation amounts, and driver's biological information such as heartbeat and sweating.
For example, Patent Document 1 discloses a technique for recording information on a point where a driver feels a dangerous reaction (a near miss) such as “a pedestrian jumps out” or “an oversight of another vehicle in a blind spot” in a database. Has been proposed.
JP 2007-47914 A

特許文献1に記載の記録システムでは、運転者が危険反応を感じた時の状況情報として、例えば、『横断歩道 直進時 30km/h 歩行者飛び出し』のような文字情報がデータベースに記録されている。
しかし、このような文字情報を参照しても、データベースの閲覧者は、運転者が危険反応を感じた時の状況を容易に把握することができない。
一方、危険な運転操作を行った運転者は、自分が危険な運転操作を行ったこと自体を認識していない。
In the recording system described in Patent Document 1, for example, character information such as “30 km / h pedestrian jumping out of a pedestrian crossing straight” is recorded in the database as situation information when the driver feels a dangerous reaction. .
However, even if such character information is referred to, the viewer of the database cannot easily grasp the situation when the driver feels a dangerous reaction.
On the other hand, a driver who has performed a dangerous driving operation does not recognize that he has performed a dangerous driving operation.

そこで本発明は、危険な運転操作を行った運転者に対して危険な運転操作状況を客観的に容易に認識させることを目的とする。
また運転者の生体情報の変化が検知された時の状況を容易に把握することができる情報を作成することを目的とする。
Accordingly , an object of the present invention is to make a driver who has performed a dangerous driving operation easily and objectively recognize a dangerous driving operation situation .
It is another object of the present invention to create information that can easily grasp the situation when a change in the driver's biological information is detected.

(1)請求項1に記載の発明では、特定の原因車両に基づくイベントを起因とする運転者の生体情報の変化を検知した車両から、該生体情報の変化を検知した検知時刻、及び車両位置を含む検知情報を取得する検知情報取得手段と、前記取得した検知情報に基づいて、各イベントに関連する関連車両を特定する関連車両特定手段と、前記特定した各関連車両の周囲画像を取得する画像取得手段と、前記取得した画像に基づいて、各イベントの再現画像を作成する再現画像作成手段と、前記原因車両を特定する原因車両特定手段と、前記特定した原因車両に、前記作成した再現画像を閲覧するためのアクセス情報を送信するアクセス情報送信手段と、を具備したことを特徴とするデータベース作成装置を提供する。
(2)請求項2に記載の発明では、前記原因車両特定手段は、前記取得した各関連車両の周囲画像から、前記原因車両を特定することを特徴とする請求項1記載のデータベース作成装置を提供する。
(3)請求項3に記載の発明では、前記画像取得手段は、前記関連車両の周囲画像として、前記検知情報を取得した車両から、運転者の生体情報の変化の検知時前後における該車両の周囲の動画像を取得し、前記再現画像作成手段は、前記取得した動画像に基づいて、各イベントの再現画像を作成することを特徴とする請求項1、又は請求項2記載のデータベース作成装置を提供する。
(4)請求項4に記載の発明では、前記アクセス情報送信手段は、更に、前記特定した関連車両のうちの少なくとも1つに、前記作成した再現画像を閲覧するためのアクセス情報を送信することを特徴とする請求項1、請求項2、又は請求項3記載のデータベース作成装置を提供する。
(5)請求項5に記載の発明では、前記再現画像作成手段は、前記イベントの再現画像として、原因車両の挙動の再現画像を作成することを特徴とする請求項1、請求項2、請求項3、又は請求項4記載のデータベース作成装置を提供する。
(6)請求項6に記載の発明では、検知情報取得手段と、関連車両特定手段と、画像取得手段と、再現画像作成手段と、原因車両特定手段と、アクセス情報送信手段とを具備したデータベース作成装置に、前記検知情報取得手段が、特定の原因車両に基づくイベントを起因とする運転者の生体情報の変化を検知した車両から、該生体情報の変化を検知した検知時刻、及び車両位置を含む検知情報を取得する検知情報取得機能と、前記関連車両特定手段が、前記取得した検知情報に基づいて、各イベントに関連する関連車両を特定する関連車両特定機能と、前記画像取得手段が、前記特定した各関連車両の周囲画像を取得する画像取得機能と、前記再現画像作成手段が、前記取得した画像に基づいて、各イベントの再現画像を作成する再現画像作成機能と、前記原因車両特定手段が、前記原因車両を特定する原因車両特定機能と、前記アクセス情報送信手段が、前記特定した原因車両に、前記作成した再現画像を閲覧するためのアクセス情報を送信するアクセス情報送信機能と、を実現させるためのコンピュータ読み取り可能なデータベース作成プログラムを提供する。
(1) In the first aspect of the invention, from the vehicle in which the change in the biological information of the driver due to the event based on the specific cause vehicle is detected, the detection time at which the change in the biological information is detected, and the vehicle position Detection information acquisition means for acquiring detection information including: related vehicle specification means for specifying related vehicles related to each event based on the acquired detection information; and acquiring surrounding images of the specified related vehicles Based on the acquired image, reproduced image creating means for creating a reproduced image of each event, causal vehicle identifying means for identifying the cause vehicle, and the created reproduction on the identified cause vehicle There is provided a database creating apparatus comprising access information transmitting means for transmitting access information for browsing images .
(2) In the invention according to claim 2, the cause vehicle specifying means specifies the cause vehicle from the acquired surrounding image of each related vehicle. provide.
(3) In the invention according to claim 3, the image acquisition means is configured to obtain a vehicle image before and after the detection of a change in a driver's biological information from a vehicle that has acquired the detection information as a surrounding image of the related vehicle. The database creation device according to claim 1, wherein a surrounding moving image is acquired, and the reproduced image creating unit creates a reproduced image of each event based on the acquired moving image. I will provide a.
(4) In the invention described in claim 4, the access information transmitting means further transmits access information for viewing the created reproduction image to at least one of the specified related vehicles. A database creation device according to claim 1, 2, or 3 is provided.
(5) In the invention according to claim 5, the reproduction image creating means creates a reproduction image of the behavior of the cause vehicle as the reproduction image of the event. A database creation device according to item 3 or claim 4 is provided.
(6) In the invention described in claim 6, a database including detection information acquisition means, related vehicle identification means, image acquisition means, reproduction image creation means, cause vehicle identification means, and access information transmission means In the creation device, the detection information acquisition means detects the detection time and vehicle position at which the change in the biological information is detected from the vehicle in which the change in the biological information of the driver due to the event based on the specific cause vehicle is detected. A detection information acquisition function for acquiring detection information including the related vehicle specifying means, a related vehicle specifying function for specifying a related vehicle related to each event based on the acquired detection information, and the image acquisition means, An image acquisition function for acquiring the surrounding image of each identified related vehicle, and a reproduction image in which the reproduction image creation means creates a reproduction image of each event based on the acquired image And forming function, the cause vehicle identification means, causing the vehicle specifying function for specifying the cause vehicle, the access information transmitting means, the specified reason vehicle, the access information for browsing reproduced image above prepared A computer-readable database creation program for realizing an access information transmission function for transmission is provided.

本発明によれば、運転者の生体情報の変化の原因となったイベントの再現画像を作成し、原因車両に、作成した再現画像を閲覧するためのアクセス情報を送信するので、原因車両の運転者に対して危険な運転操作状況を客観的に容易に認識させることができる。
また、原因となったイベントの再現画像を作成することで、運転者の生体情報の変化が検知された時の状況を容易に把握することができる。
According to the present invention, a reproduction image of an event that causes a change in the driver's biological information is created, and access information for viewing the created reproduction image is transmitted to the cause vehicle. It is possible to make a person easily recognize a dangerous driving operation situation objectively.
In addition, by creating a reproduction image of the event that caused the cause, it is possible to easily grasp the situation when a change in the biological information of the driver is detected.

以下、本発明のデータベース作成装置及びデータベース作成プログラムにおける好適な実施の形態について、図1から図16参照して詳細に説明する。
(1)実施形態の概要
運転者が走行中に何らかの危険を感じた場合、その緊張感から運転者の生体情報(心拍数や皮膚インピーダンス)は変化する。この特性を利用して、プローブカーでは、運転者の生体情報の変化などから、運転者の危険反応(ヒヤリ・ハット反応)を検出する。
そして、プローブカーは、運転者の危険反応の検出時における、車両の位置情報、時刻情報、車両の操作情報、運転者の危険反応の検出時前後における車両の周囲を撮像した画像情報など、運転者が危険反応を示したイベントに関する情報をヒヤリ・ハット情報としてデータセンタへ送信する。
データセンタでは、プローブカーから集められたヒヤリ・ハット情報を、位置情報および時刻情報に基づいて、イベント単位の関連する情報グループに振り分ける(群分けする)。
Hereinafter, preferred embodiments of a database creation apparatus and a database creation program according to the present invention will be described in detail with reference to FIGS.
(1) Outline of Embodiment When the driver feels some danger during traveling, the driver's biometric information (heart rate and skin impedance) changes from the sense of tension. Using this characteristic, the probe car detects a driver's dangerous reaction (near-hat reaction) from changes in the driver's biological information.
The probe car is used for driving information such as vehicle position information, time information, vehicle operation information, and image information captured around the vehicle before and after detection of a driver's dangerous reaction. Information about the event that the person showed a dangerous reaction is transmitted to the data center as near-miss information.
In the data center, the near-miss information collected from the probe cars is distributed (grouped) into related information groups in units of events based on the position information and time information.

そして、データセンタでは、同一の情報グループにまとめられたヒヤリ・ハット情報の内容(画像情報や車両情報など)を解析し、ヒヤリ・ハット情報の発信元の車両が遭遇したヒヤリ・ハットイベントの原因車両を特定する。即ち、運転者が危険反応を起こすきっかけとなったイベントの原因車両を特定する。
データセンタでは、特定した原因車両の情報や、該ヒヤリ・ハットイベントに関連する車両の画像情報などに基づいて、ヒヤリ・ハットイベントの再現動画を作成(作製)する。そして、ヒヤリ・ハットイベントの再現動画をデータベースに格納する。
利用者は、ネットワークを介してデータベースにアクセスすることにより、携帯電話やPCなどの端末装置において、ヒヤリ・ハットイベントの再現動画を後から閲覧することができる。
Then, the data center analyzes the content of the near-miss information (image information, vehicle information, etc.) collected in the same information group, and causes the near-miss event that the vehicle from which the near-hat information was transmitted encounters. Identify the vehicle. That is, the cause vehicle of the event that triggered the driver's dangerous reaction is specified.
The data center creates (produces) a reproduced moving image of the near-miss event based on the information on the identified cause vehicle, the image information on the vehicle related to the near-miss event, and the like. Then, the reproduction video of the near-miss event is stored in the database.
A user can view a reproduced moving image of a near-miss event later on a terminal device such as a mobile phone or a PC by accessing the database via the network.

(2)実施形態の詳細
図1は、本実施形態におけるデータベース作成システムの構成を表した図である。
この図1に示すように、データベース作成システムは、情報処理装置を搭載したプローブカー1、及びデータベース作成装置を有するデータセンタ2を備えており、プローブカー1(情報処理装置)とデータセンタ2は、無線ネットワークを介して接続されている。
また、プローブカー1間においても無線ネットワークを介して、各種データの送受信が可能となっている。
データセンタ2は、ネットワーク6を介して、ネットワーク接続機能を有するPC(パーソナル・コンピュータ)3、携帯電話4、車両5と接続可能に設けられている。即ち、PC3、携帯電話4、車両5は、ネットワーク6を介してデータセンタ2にアクセスすることにより、データセンタ2に格納されている情報を閲覧することができる。
(2) Details of Embodiment FIG. 1 is a diagram showing the configuration of a database creation system according to this embodiment.
As shown in FIG. 1, the database creation system includes a probe car 1 equipped with an information processing device and a data center 2 having a database creation device. The probe car 1 (information processing device) and the data center 2 are Connected via a wireless network.
In addition, various data can be transmitted and received between the probe cars 1 via the wireless network.
The data center 2 is provided via a network 6 so as to be connectable to a PC (personal computer) 3, a mobile phone 4 and a vehicle 5 having a network connection function. That is, the PC 3, the mobile phone 4, and the vehicle 5 can browse the information stored in the data center 2 by accessing the data center 2 via the network 6.

図2は、データセンタ2の概略構成を示した図である。
データセンタ2は、データベース作成システムの中心的役割をする中央サーバとしての機能を備え、複数のプローブカー1から送信されるヒヤリ・ハット情報などを収集(集積)し、これらの情報の解析を行う。
図2に示すように、データセンタ2は、CPU21、ROM22、RAM23、入力装置24、出力装置25、通信装置26,記憶部27、データベース28を備えている。
CPU21は、各種プログラムやデータに従ってデータセンタ2を制御する中央演算処理装置であり、データベース作成に関する種々の演算処理を行う。
FIG. 2 is a diagram showing a schematic configuration of the data center 2.
The data center 2 has a function as a central server that plays a central role in the database creation system, collects (accumulates) near-miss information transmitted from a plurality of probe cars 1, and analyzes the information. .
As shown in FIG. 2, the data center 2 includes a CPU 21, a ROM 22, a RAM 23, an input device 24, an output device 25, a communication device 26, a storage unit 27, and a database 28.
The CPU 21 is a central processing unit that controls the data center 2 according to various programs and data, and performs various arithmetic processes related to database creation.

ROM22には、データベース作成に関する種々のプログラム、例えば、画像解析プログラム、原因車両特定プログラム、再現動画作成プログラムなどが格納されている。
RAM23は、CPU21の作業領域として機能する記憶領域であり、処理中のデータを一時的に記憶する。
入力装置24は、データセンタ2へコマンドやデータを入力する装置であり、キーボードやマウスがなどで構成されている。
出力装置25は、データセンタ2の処理した結果を外部出力する装置であり、ディスプレイやプリンタなどで構成されている。
通信装置26は、有線ネットワークや無線ネットワークと接続して、プローブカー1や外部の端末装置(PC3、携帯電話4)との各種データの送信及び受信を行う。
The ROM 22 stores various programs related to database creation, such as an image analysis program, a cause vehicle identification program, a reproduction moving image creation program, and the like.
The RAM 23 is a storage area that functions as a work area for the CPU 21 and temporarily stores data being processed.
The input device 24 is a device for inputting commands and data to the data center 2, and includes a keyboard and a mouse.
The output device 25 is a device that outputs the result processed by the data center 2 to the outside, and includes a display, a printer, and the like.
The communication device 26 is connected to a wired network or a wireless network, and transmits and receives various data to and from the probe car 1 and an external terminal device (PC3, mobile phone 4).

記憶部27には、データテーブル格納部271、ヒヤリ・ハット情報格納部272、原因車両情報格納部273など各種情報の格納部を備えている。
データテーブル格納部271は、データセンタ2に登録されているプローブカー1の識別情報と該プローブカー1に搭載されている情報処理装置のアドレス情報とを格納したデータテーブルを格納する。
ヒヤリ・ハット情報格納部272は、プローブカー1から受信したヒヤリ・ハット情報を格納する。
原因車両情報格納部273は、原因車両に関する情報、例えば、画像解析処理の結果から特定された車両ナンバー、車種・形式、色の情報などを格納する。
データベース28は、ヒヤリ・ハットイベントの再現動画を格納する。
The storage unit 27 includes various information storage units such as a data table storage unit 271, a near-miss information storage unit 272, and a cause vehicle information storage unit 273.
The data table storage unit 271 stores a data table storing the identification information of the probe car 1 registered in the data center 2 and the address information of the information processing apparatus mounted on the probe car 1.
The near-miss information storage unit 272 stores near-miss information received from the probe car 1.
The cause vehicle information storage unit 273 stores information about the cause vehicle, for example, the vehicle number, the vehicle type / format, the color information, and the like specified from the result of the image analysis process.
The database 28 stores a reproduced moving image of a near-miss event.

次に、本実施形態におけるプローブカー1に搭載された情報処理装置の構成について説明する。なお、プローブカー1に搭載された情報処理装置は、情報収集装置として機能する。
図1に示すように、情報処理装置は、各種プログラムやデータに従って情報処理装置全体を制御するECU(電子制御装置)10を備えており、ECU10には現在位置検出装置11、生体情報取得装置12、環境情報取得装置13、車両情報取得装置14、記憶装置15、画像入力装置16、表示装置17、音声出力装置18、入力装置19、通信装置20が接続されている。
Next, the configuration of the information processing apparatus mounted on the probe car 1 in this embodiment will be described. Note that the information processing apparatus mounted on the probe car 1 functions as an information collecting apparatus.
As shown in FIG. 1, the information processing device includes an ECU (electronic control device) 10 that controls the entire information processing device according to various programs and data. The ECU 10 includes a current position detection device 11 and a biological information acquisition device 12. The environmental information acquisition device 13, the vehicle information acquisition device 14, the storage device 15, the image input device 16, the display device 17, the audio output device 18, the input device 19, and the communication device 20 are connected.

現在位置検出装置11は、運転支援装置が搭載される車両の現在位置(緯度、経度からなる絶対座標値)を検出するためのものであり、人工衛星を利用して車両の位置を測定するGPS受信装置を備えている。
なお、現在位置検出装置11は、GPS受信装置による現在位置検出を補足する装置として、地磁気を検出して車両の方位を求める地磁気センサ、ジャイロセンサ、車速センサ等を備えるようにしてもよい。ジャイロセンサと車速センサについては、後述する車両情報取得装置14の車速センサ144、ジャイロセンサ145と兼用するようにしても、別に備えるようにしてもよい。
生体情報取得装置12は、運転者の生体情報を取得するセンサとして、心拍センサ121と、皮膚インピーダンスセンサ122を備えている。なお、運転者の生体情報を取得するセンサは、これらのものに限定されるものではなく、その他のセンサ、例えば、脳波を測定するセンサや血圧を測定するセンサを用いるようにしてもよい。
車両が走行を開始すると、所定時間間隔で心拍数と発汗量を検出してECU10に供給するようになっている。
The current position detection device 11 is for detecting the current position (absolute coordinate value composed of latitude and longitude) of the vehicle on which the driving support device is mounted, and is a GPS that measures the position of the vehicle using an artificial satellite. A receiving device is provided.
Note that the current position detection device 11 may include a geomagnetic sensor, a gyro sensor, a vehicle speed sensor, and the like that detect the geomagnetism and determine the direction of the vehicle as a device that supplements the current position detection by the GPS receiver. About a gyro sensor and a vehicle speed sensor, you may make it share with the vehicle speed sensor 144 and the gyro sensor 145 of the vehicle information acquisition apparatus 14 mentioned later, or you may make it prepare separately.
The biological information acquisition device 12 includes a heart rate sensor 121 and a skin impedance sensor 122 as sensors for acquiring the driver's biological information. Note that the sensors that acquire the driver's biological information are not limited to these, and other sensors such as a sensor that measures brain waves or a sensor that measures blood pressure may be used.
When the vehicle starts running, the heart rate and the amount of sweat are detected at predetermined time intervals and supplied to the ECU 10.

心拍センサ121は、運転者の心拍数を検出するセンサで、運転者の脈拍数から心拍数を検出する。本実施形態における心拍センサ121は、ステアリング(ハンドル)に配置された電極により、運転中の運転者の手から心拍信号を採取することで心拍数を検出するようになっている。なお、心拍センサ121は、専用のセンサを手首等の運転者の身体に配置するようにしてもよい。
皮膚インピーダンスセンサ122は、ステアリングに配置され、運転者の皮膚インピーダンス(抵抗値)を測定する。この皮膚インピーダンスの値は、発汗状態の変化によって変化するため、皮膚インピーダンスの変化から運転者の発汗状態を検出することができる。
The heart rate sensor 121 is a sensor that detects the heart rate of the driver, and detects the heart rate from the pulse rate of the driver. The heart rate sensor 121 according to the present embodiment detects a heart rate by collecting a heart rate signal from the hand of a driver who is driving by an electrode disposed on a steering wheel (handle). The heart rate sensor 121 may be provided with a dedicated sensor on the driver's body such as a wrist.
Skin impedance sensor 122 is disposed on the steering and measures the skin impedance (resistance value) of the driver. Since the skin impedance value changes according to the change in the sweating state, the driver's sweating state can be detected from the change in the skin impedance.

環境情報取得装置13は、車間距離・相対速度測定装置131と、画像処理装置132を備えている。
車間距離・相対速度測定装置131は、車両前方、後方に配置されたミリ波レーダやレーザレーダ等で構成され、前方車両との車間距離や相対速度、後方車両との車間距離や相対速度が検出されるとともに、対向車の有無が判断される。
画像処理装置132は、後述する画像入力装置16(ステレオカメラ161)で撮像された車外画像の画像処理を行い、前方の視界(雨、雪、霧等の天候、及び、障害物など)の検出を行うようになっている。
The environmental information acquisition device 13 includes an inter-vehicle distance / relative speed measurement device 131 and an image processing device 132.
The inter-vehicle distance / relative speed measuring device 131 includes millimeter wave radars, laser radars, and the like arranged in front and rear of the vehicle, and detects inter-vehicle distances and relative speeds with the preceding vehicle and inter-vehicle distances and relative speeds with the rear vehicle. At the same time, the presence or absence of an oncoming vehicle is determined.
The image processing device 132 performs image processing of an image outside the vehicle captured by an image input device 16 (stereo camera 161), which will be described later, and detects a forward field of view (weather, rain, snow, fog, and other obstacles). Is supposed to do.

環境情報取得装置13は、現在の時刻を判断するためのセンサとして、時刻センサを備えている。
また、環境情報取得装置13は、天候を判断するためのセンサとして、画像処理装置132の画像処理による場合に加えて(又は代えて)、ワイパーの稼働状態を検出するワイパーセンサ、車幅灯のオン状態を検出する車幅灯センサ、ヘッドランプのオン状態を検出するヘッドランプセンサを備えている。
The environment information acquisition device 13 includes a time sensor as a sensor for determining the current time.
In addition to (or instead of) the image processing of the image processing device 132, the environment information acquisition device 13 is a sensor for determining the weather, a wiper sensor for detecting the operating state of the wiper, A vehicle width light sensor for detecting the on state and a head lamp sensor for detecting the on state of the headlamp are provided.

車両情報取得装置14は、ハンドル舵角センサ141、ブレーキ踏力センサ142、アクセル踏力センサ143、車速センサ144、ジャイロセンサ145、その他のセンサを備えており、カーブ走行時の走行状態や運転操作状況を検出する。
ハンドル舵角センサ141は、ハンドルの操舵角、ハンドル操作量、ハンドル操作トルク、ハンドル操作状況を検出する。
ブレーキ踏力センサ142は、ブレーキを踏み込む速度、ブレーキの踏力、ブレーキ操作状況を検出する。
The vehicle information acquisition device 14 includes a steering wheel steering angle sensor 141, a brake pedal force sensor 142, an accelerator pedal force sensor 143, a vehicle speed sensor 144, a gyro sensor 145, and other sensors. To detect.
The steering angle sensor 141 detects the steering angle of the steering wheel, the steering wheel operation amount, the steering wheel operation torque, and the steering wheel operation status.
The brake pedal force sensor 142 detects the speed at which the brake is depressed, the brake pedal force, and the brake operation status.

ブレーキ踏力センサ142により検出された値に基づいて、ECU10は、急ブレーキの判定、即ち、急ブレーキ操作がなされたか否かの判断を行う。
図3は、ブレーキ踏力センサ142の検出結果の例を示した図である。
ECU10は、例えば、ブレーキ踏力が平均値±3Σ以上、又は、ブレーキ操作状況平均値±3Σ以上の条件を満たす場合に急ブレーキ操作がなされたと判断する。
なお、平均値とは、現在の運転者が運転中の平均を示したものである。
Based on the value detected by the brake pedal force sensor 142, the ECU 10 determines a sudden brake, that is, determines whether or not a sudden brake operation has been performed.
FIG. 3 is a diagram illustrating an example of a detection result of the brake pedal force sensor 142.
For example, the ECU 10 determines that the sudden braking operation has been performed when the brake pedal force satisfies the condition of the average value ± 3Σ or more or the brake operation state average value ± 3Σ or more.
The average value indicates the average during driving by the current driver.

アクセル踏力センサ143は、アクセルを踏み込む速度、アクセルの踏力等を検出する。
車速センサ144は、車速を検出する。
ジャイロセンサ145は、車両の加速度を検出する。
The accelerator pedal force sensor 143 detects the speed at which the accelerator is depressed, the accelerator pedal force, and the like.
The vehicle speed sensor 144 detects the vehicle speed.
The gyro sensor 145 detects the acceleration of the vehicle.

記憶装置15は、ROM、RAMの他、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、メモリチップやICカード等の半導体記録媒体、CD−ROMやMO、PD(相変化書換型光ディスク)等の光学的に情報が読み取られる記録媒体、その他各種方法でデータやコンピュータプログラムが記録される記録媒体が含まれる。
記録媒体には、記録内容に応じて異なる媒体を使用し、例えば、随時内容が更新(追加)される情報を格納する場合には、データの書き換えが可能な記録媒体を使用する。
The storage device 15 includes a ROM, a RAM, a magnetic recording medium such as a flexible disk, a hard disk, and a magnetic tape, a semiconductor recording medium such as a memory chip and an IC card, a CD-ROM, an MO, and a PD (phase change rewritable optical disk). Recording media on which information is optically read, and recording media on which data and computer programs are recorded by various methods.
As the recording medium, a different medium is used depending on the recording contents. For example, when storing information whose contents are updated (added) as needed, a recording medium capable of rewriting data is used.

記憶装置15には、生体情報処理プログラム151、車両情報処理プログラム152、環境情報処理プログラム153、ヒヤリ・ハット判定プログラム154、ヒヤリ・ハット情報記憶メモリ155、車両情報記憶メモリ156、環境情報記憶メモリ157、画像記憶メモリ158、地図データベース159、履歴情報記憶メモリ160等の本実施形態で使用される各種データ、その他のデータが格納されている。   The storage device 15 includes a biological information processing program 151, a vehicle information processing program 152, an environmental information processing program 153, a near / miss determination program 154, a near / hat information storage memory 155, a vehicle information storage memory 156, and an environment information storage memory 157. Various data used in this embodiment, such as the image storage memory 158, the map database 159, the history information storage memory 160, and other data are stored.

生体情報処理プログラム151は、心拍センサ121、皮膚インピーダンスセンサ122による検出値を生体情報として取得し、RAMに格納するプログラムである。
なお、RAMには、生体情報として、心拍センサ121、皮膚インピーダンスセンサ122の検出(測定)結果、これらの検出結果から判断される生体情報の変化の有無や緊張度(Level)の判定結果が保存される。
車両情報処理プログラム152は、ハンドル舵角センサ141、ブレーキ踏力センサ142、アクセル踏力センサ143、車速センサ144、ジャイロセンサ145の検出値を車両情報として取得し、車両情報記憶メモリ156に格納するプログラムである。
The biological information processing program 151 is a program that obtains detection values obtained by the heart rate sensor 121 and the skin impedance sensor 122 as biological information and stores them in the RAM.
The RAM stores, as biological information, the detection results of the heart rate sensor 121 and the skin impedance sensor 122, the presence / absence of changes in the biological information determined from these detection results, and the determination result of the degree of tension (Level). Is done.
The vehicle information processing program 152 is a program that acquires detection values of the steering wheel angle sensor 141, the brake pedal force sensor 142, the accelerator pedal force sensor 143, the vehicle speed sensor 144, and the gyro sensor 145 as vehicle information and stores them in the vehicle information storage memory 156. is there.

環境情報処理プログラム153は、常時、車間距離・相対速度測定装置131による測定結果や、画像処理装置132の処理結果の情報を車両情報として取得し、環境情報記憶メモリ157に格納するプログラムである。
ヒヤリ・ハット判定プログラム154は、生体情報、車両情報、環境情報などに基づいて、運転者が“ヒヤリ”や“はっと”と感じた状態、即ち、突然の思いがけない出来事に驚きや恐怖を感じた状態を判定(検出)するプログラムである。つまり、ヒヤリ・ハット判定プログラム154は、生体情報の異常や運転操作の異常など、通常とは異なる危険反応(ヒヤリ・ハット反応)が検出される運転者が思いがけない出来事(以下、ヒヤリ・ハットイベントとする)に遭遇したことを検出するプログラムである。
The environmental information processing program 153 is a program that always acquires the measurement results by the inter-vehicle distance / relative speed measurement device 131 and the information of the processing results by the image processing device 132 as vehicle information and stores them in the environmental information storage memory 157.
The near-miss / hit determination program 154 was surprised or frightened by a situation where the driver felt “near” or “rapid” based on biological information, vehicle information, environmental information, etc., that is, a sudden unexpected event. This is a program for determining (detecting) the state. In other words, the near-miss determination program 154 is an unexpected event (hereinafter referred to as a near-miss event) for a driver who detects an unusual danger reaction (a near-miss reaction) such as an abnormality in biological information or an abnormality in driving operation. It is a program that detects that it has encountered.

ヒヤリ・ハット情報記憶メモリ155には、ヒヤリ・ハット判定プログラム154によりヒヤリ・ハット反応(生体情報の異常)が検出されたヒヤリ・ハットイベントに関する情報が記憶される。なお、このようなヒヤリ・ハット反応、ヒヤリ・ハットイベントに関する情報をヒヤリ・ハット情報とする。
図4は、ヒヤリ・ハット情報記憶メモリ155に格納される情報の例を示した図である。
図4に示されるように、ヒヤリ・ハット情報記憶メモリ155には、ヒヤリ・ハット反応の判定結果、ヒヤリ・ハットイベントに遭遇した時の車両情報、環境情報、位置情報、車両の周囲を撮像した画像データ、自車両に関する情報(車両特定情報)などが保存される。
The near-miss information storage memory 155 stores information related to a near-miss event in which a near-miss reaction (abnormality of biological information) is detected by the near-miss determination program 154. Information on such near-miss reactions and near-miss events is referred to as near-miss information.
FIG. 4 is a diagram showing an example of information stored in the near-miss information storage memory 155.
As shown in FIG. 4, the near-miss information storage memory 155 images the result of the near-miss reaction, vehicle information when encountering a near-hat event, environmental information, position information, and surroundings of the vehicle. Image data, information about the own vehicle (vehicle identification information), and the like are stored.

ヒヤリ・ハット情報記憶メモリ155には、判定結果として、ヒヤリ・ハット反応の検出の有無を示すフラグが保存され、車両情報として、車両速度、車両加速度、車両横方向加速度、ハンドル操作トルク、ハンドル操作状況、ブレーキ踏力、ブレーキ操作状況が保存され、環境情報として、前方車両車間距離、前方車両相対速度が保存され、位置情報として、道路種別、交差点判定、時刻、東経、北緯のデータが保存される。
また、ヒヤリ・ハット情報記憶メモリ155には、画像情報として、ヒヤリ・ハット反応の検出時点の前後の30秒(検出前15秒+検出後15秒)の画像データが保存され、自車両特定情報として、車両ナンバー、車種・形式、色データが保存される。
In the near-miss information storage memory 155, a flag indicating whether or not a near-miss reaction has been detected is stored as a determination result. As vehicle information, vehicle speed, vehicle acceleration, vehicle lateral acceleration, steering operation torque, steering operation Situation, brake pedal force, and brake operation status are saved, environmental information includes the following vehicle distance and forward vehicle relative speed, and location information includes road type, intersection determination, time, east longitude, and north latitude data. .
The near-miss information storage memory 155 stores image data of 30 seconds (15 seconds before detection + 15 seconds after detection) before and after the detection of the near-miss reaction as image information, and the vehicle identification information The vehicle number, vehicle type / format, and color data are stored.

図1の説明に戻り、車両情報記憶メモリ156には、車両速度(km/h)、車両加速度(G)、ハンドル操作トルク(N・m)、ハンドル操作状況(N・m/ms)、アクセル踏力(N・m)、ブレーキ踏力(N・m)、ブレーキ操作状況(N・m/ms)が保存される。
環境情報記憶メモリ157には、環境情報処理プログラム153に基づいて、常時、車間距離・相対速度測定装置131、画像処理装置132における検出データが保存される。
Returning to the description of FIG. 1, the vehicle information storage memory 156 stores vehicle speed (km / h), vehicle acceleration (G), steering wheel operation torque (N · m), steering wheel operation status (N · m / ms), accelerator. The pedal effort (N · m), the brake effort (N · m), and the brake operation status (N · m / ms) are stored.
The environmental information storage memory 157 always stores detection data in the inter-vehicle distance / relative speed measuring device 131 and the image processing device 132 based on the environmental information processing program 153.

画像記憶メモリ158には、環境情報処理プログラム153に基づいて、常時、画像入力装置16(ステレオカメラ161)で撮像された車両の周囲画像(周辺画像)が記憶される。
画像記憶メモリ158への画像の記憶処理は、FIFO(先入れ先出し)方式で行われ、古い画像データから順に消去されていくように構成されている。本実施の形態では、画像記憶メモリ158には、常時30分分の画像データが格納(保存)されるように構成されている。
ECU10は、ヒヤリ・ハット反応、即ちヒヤリ・ハットイベントへの遭遇が検出された場合、この画像記憶メモリ158に記憶されている画像データから、そのヒヤリ・ハット反応の検出前後30秒の画像データを読み出し、ヒヤリ・ハット情報記憶メモリ155に別途保存するように構成されている。
地図データベース159は、地図情報、道路情報、カーブ情報等の各種地図に関連した情報が格納されたデータベースである。
履歴情報記憶メモリ160には、当該情報処理装置での処理結果だけでなく、データセンタ2や他車の情報処理装置から受信した各種履歴情報が格納される。履歴情報記憶メモリ160には、例えば、データセンタ2から受信した、ヒヤリ・ハットイベントの原因車両と判定された旨の情報が格納される。
Based on the environmental information processing program 153, the image storage memory 158 always stores a surrounding image (peripheral image) of the vehicle captured by the image input device 16 (stereo camera 161).
Image storage processing in the image storage memory 158 is performed by a FIFO (first-in first-out) method, and is configured so that old image data is deleted in order. In the present embodiment, the image storage memory 158 is configured to always store (save) image data for 30 minutes.
When the ECU 10 detects a near-miss reaction, that is, an encounter with a near-miss event, the ECU 10 obtains image data for 30 seconds before and after the detection of the near-hat reaction from the image data stored in the image storage memory 158. The information is read and stored in the near-miss information storage memory 155 separately.
The map database 159 is a database in which information related to various maps such as map information, road information, and curve information is stored.
The history information storage memory 160 stores not only the processing result in the information processing apparatus but also various history information received from the data center 2 and information processing apparatuses of other vehicles. The history information storage memory 160 stores, for example, information received from the data center 2 that the vehicle is determined to be the cause vehicle of the near-miss event.

画像入力装置16は、車両前方に配置されたステレオカメラ161を備えている。
画像入力装置16で撮像した車外画像は、ヒヤリ・ハットイベントの解析やヒヤリ・ハットイベントの再現画像の作成などに使用される。
また、撮像画像は、画像処理装置132に供給されて、視界度判定や車間距離判定、天候(天気)判定に使用される。
表示装置17は、液晶表示装置、CRT、ヘッドアップディスプレイ等の各種表示装置が使用され、本実施形態におけるヒヤリ・ハット反応(ヒヤリ・ハットイベント)が検出された旨とその注意を喚起する警告画像、警告文字(テキスト)などが運転支援の一環として表示されるようになっている。
なお、表示装置17は、ナビゲーション機能に基づいて車両周辺や経路探索された走行経路周辺の地図や、探索経路、周辺施設案内画面などが表示される場合には、当該表示画面上にヒヤリ・ハット反応(ヒヤリ・ハットイベント)が検出された地点の警告を表示するようにしてもよい。
The image input device 16 includes a stereo camera 161 disposed in front of the vehicle.
The image outside the vehicle picked up by the image input device 16 is used for analysis of a near-miss event or creation of a reproduction image of a near-miss event.
The captured image is supplied to the image processing device 132 and used for visibility determination, inter-vehicle distance determination, and weather (weather) determination.
As the display device 17, various display devices such as a liquid crystal display device, a CRT, and a head-up display are used, and a warning image that alerts that a near-miss reaction (a near-miss event) in this embodiment has been detected. Warning characters (text) are displayed as part of driving assistance.
The display device 17 displays a near-miss or hat on the display screen when a map around the vehicle or a route searched for the route based on the navigation function, a searched route, a nearby facility guidance screen, or the like is displayed. A warning at a point where a reaction (near hat event) is detected may be displayed.

音声出力装置18は、車内に配置された複数のスピーカ及び音声制御装置で構成される。音声出力装置18からは、音声制御部で制御された音声、例えば、ヒヤリ・ハット反応(ヒヤリ・ハットイベント)が検出された旨とその注意を喚起する警告音声が、運転支援の一環として出力されるようになっている。この音声出力装置18は、オーディオ用のスピーカと兼用するようにしてもよい。
入力装置19は、タッチパネル(スイッチとして機能)、キーボード、マウス、ライトペン、ジョイスティック、赤外線等によるリモコン、表示装置の表示画面に取り付けられたタッチパネル、リモコン、音声認識装置などの各種の装置が使用可能であり、各種情報を入力するための入力手段を構成する。
通信装置20は、通信手段として機能し、無線ネットワークと接続して、外部のデータセンタ2との各種データの送信及び受信を行う。また、通信装置20を介して、他のプローブカー1との各種データの送信及び受信を行う。
The audio output device 18 includes a plurality of speakers and an audio control device arranged in the vehicle. The voice output device 18 outputs a voice controlled by the voice control unit, for example, a warning voice that alerts that a near-miss reaction (a near-miss event) has been detected and alerts the driver. It has become so. The audio output device 18 may also be used as an audio speaker.
As the input device 19, various devices such as a touch panel (functioning as a switch), a keyboard, a mouse, a light pen, a joystick, an infrared remote controller, a touch panel attached to the display screen of the display device, a remote controller, and a voice recognition device can be used. It constitutes an input means for inputting various information.
The communication device 20 functions as a communication unit, connects to a wireless network, and transmits and receives various data to and from the external data center 2. In addition, transmission and reception of various data with other probe cars 1 are performed via the communication device 20.

次に、以上のように構成されたデータベース作成システムにおけるデータベース作成処理の動作について説明する。
はじめに、プローブカー1におけるヒヤリ・ハット情報の取得方法について説明する。
図5は、プローブカー1におけるヒヤリ・ハット情報の取得処理の動作手順を示したフローチャートである。
このヒヤリ・ハット情報の取得処理は、プローブカー1の情報処理装置において、車両の走行開始により実行され走行中実行が継続されるが、イグニッションオンにより実行され、イグニッションオフにより終了するようにしてもよい。
Next, the operation of database creation processing in the database creation system configured as described above will be described.
First, a method for acquiring near-miss information in the probe car 1 will be described.
FIG. 5 is a flowchart showing an operation procedure of acquisition processing of near-miss information in the probe car 1.
This near-miss information acquisition process is executed by the information processing apparatus of the probe car 1 when the vehicle starts to run and continues to be executed while the vehicle is running, but is executed when the ignition is turned on and ends when the ignition is turned off. Good.

ECU10は、運転者の生体情報を生体情報取得装置12により検出する(ステップ11)。
そして、ECU10は、検出した生体情報について、所定の生体情報判定条件に従って、生体情報の変化の有無を判断する(ステップ12)。ここでは、運転者の生体情報の異常反応が生じたか否かを判断する。
本実施形態では、より精度の高いヒヤリ・ハット情報をデータセンタ2へ送信(提供)するために、複数の種類の生体情報の検出結果に基づいて生体情報の変化の有無を判断(検出)する。なお、この処理は、運転者の精神状態(緊張状態)を運転者の生体情報の変化から判断することを意味する。
ECU10 detects a driver | operator's biometric information by the biometric information acquisition apparatus 12 (step 11).
And ECU10 judges the presence or absence of a change of biometric information about the detected biometric information according to predetermined biometric information determination conditions (step 12). Here, it is determined whether or not an abnormal reaction of the driver's biological information has occurred.
In this embodiment, in order to transmit (provide) near-miss information with higher accuracy to the data center 2, the presence / absence of a change in biological information is determined (detected) based on detection results of a plurality of types of biological information. . In addition, this process means judging a driver | operator's mental state (tension state) from the change of a driver | operator's biometric information.

図6は、生体情報の変化の判定例を示した図である。
図6(a)、(b)ともに、上段は、皮膚インピーダンスセンサ122の検出(測定)結果を示し、下段は、心拍センサ121の検出(測定)結果を示す。
本実施の形態では、例えば、図6(a)に示すように、皮膚インピーダンス及び心拍数が急激に上昇した場合、又は、図6(b)に示すように、皮膚インピーダンスが急激に上昇したタイミングで心拍数が急激に低下した場合に、生体情報に変化が生じたと判定する。
FIG. 6 is a diagram illustrating a determination example of changes in biological information.
6A and 6B, the upper part shows the detection (measurement) result of the skin impedance sensor 122, and the lower part shows the detection (measurement) result of the heart rate sensor 121.
In the present embodiment, for example, when the skin impedance and the heart rate suddenly increase as shown in FIG. 6 (a), or when the skin impedance suddenly increases as shown in FIG. 6 (b). When the heart rate suddenly decreases, it is determined that the biological information has changed.

図5の説明に戻り、生体情報の変化が検出されない場合(ステップ12;N)、ECU10は、ステップ11に戻って生体情報の検出を継続する。
生体情報の変化が検出された場合(ステップ12;Y)、ECU10は、車両情報記憶メモリ156を参照し、生体情報の変化が生じたタイミング(時刻)における車両情報を取得し、一旦RAM内に格納する(ステップ13)。
ここでは、車両情報として、車両速度、車両加速度、ハンドル操作トルク、ハンドル操作状況、アクセル踏力、ブレーキ踏力、及びブレーキ操作状況などが検出される。
Returning to the description of FIG. 5, when a change in the biological information is not detected (step 12; N), the ECU 10 returns to step 11 and continues detecting the biological information.
When the change of the biological information is detected (step 12; Y), the ECU 10 refers to the vehicle information storage memory 156, acquires the vehicle information at the timing (time) when the change of the biological information occurs, and temporarily stores it in the RAM. Store (step 13).
Here, as vehicle information, vehicle speed, vehicle acceleration, steering wheel operation torque, steering wheel operation status, accelerator pedal force, brake pedal force, brake operation status, and the like are detected.

ついでECU10は、環境情報記憶メモリ157を参照し、生体情報の変化が生じたタイミング(時刻)における環境情報を取得し、一旦RAM内に格納する(ステップ14)。
ここでは、環境情報として、車間距離・相対速度測定装置131、画像処理装置132における測定データなどが取得される。
Next, the ECU 10 refers to the environment information storage memory 157, acquires the environment information at the timing (time) when the biometric information changes, and temporarily stores it in the RAM (step 14).
Here, measurement data and the like in the inter-vehicle distance / relative speed measuring device 131 and the image processing device 132 are acquired as the environmental information.

次にECU10は、検出された生体情報の変化情報や車両情報、環境情報に基づいて、検出された生体情報の異常反応の原因となったイベントが、その情報をデータセンタ2に提供すべきものであるか否か、即ち、ヒヤリ・ハットイベントであるか否かを判定する(ステップ15)。
このヒヤリ・ハットイベントの判定は、検出した車両情報や環境情報を所定の判定条件と比較し、該当条件を満たすか否かを判定することによって行う。
Next, based on the detected change information of the biological information, vehicle information, and environmental information, the ECU 10 should provide the data center 2 with the event that caused the abnormal reaction of the detected biological information. It is determined whether or not there is a near-miss event (step 15).
The near-miss event is determined by comparing the detected vehicle information and environmental information with a predetermined determination condition to determine whether or not the corresponding condition is satisfied.

図7は、ヒヤリ・ハットイベントか否かの判定項目とその条件の一例を示した図である。
図7に示すように、例えば、車両速度が5km/h以上、車両加速度が−0.3G以下、ブレーキ踏力が平均値±3Σ以上(又は、ブレーキ操作状況平均値±3Σ以上)の条件を満たす場合、ECU10は、急ブレーキ(条件例1)に関するヒヤリ・ハットイベントに遭遇した(ヒヤリ・ハットイベントが発生した)と判定する。
同様に、急接近(条件例2)、急ハンドル(条件例3)の各条件を満たす場合には、ヒヤリ・ハットイベントに遭遇したと判定する。
なお、急ブレーキ(条件例1)では、ブレーキ踏力とブレーキ操作状況のOR条件に基づいて急ブレーキの判定を行うようにしているが、急ブレーキの判定は、ブレーキ踏力とブレーキ操作状況を2次元プロットしたクラスタ解析の結果に基づいて行うようにしてもよい。
FIG. 7 is a diagram illustrating an example of a determination item for determining whether the event is a near-miss event and its conditions.
As shown in FIG. 7, for example, the vehicle speed is 5 km / h or more, the vehicle acceleration is −0.3 G or less, and the brake pedaling force is an average value ± 3Σ or more (or a brake operation situation average value ± 3Σ or more). In this case, the ECU 10 determines that a near-miss event related to sudden braking (condition example 1) has been encountered (a near-miss event has occurred).
Similarly, when the conditions of sudden approach (condition example 2) and sudden handle (condition example 3) are satisfied, it is determined that a near-miss event has been encountered.
In the sudden braking (condition example 1), the sudden braking determination is made based on the OR condition of the brake pedal force and the brake operation status. You may make it perform based on the result of the cluster analysis plotted.

急接近(条件例2)では、前方車両車間距離が平均値以下の場合のAND条件に基づいて急接近の判定を行うようにしているが、急接近の判定は、前方車両相対速度と前方車両車間距離を2次元プロットしたクラスタ解析の結果に基づいて行うようにしてもよい。
急ハンドル(条件例3)では、ハンドル操作トルクとハンドル操作状況のAND条件に基づいて急ハンドルの判定を行うようにしているが、急ハンドルの判定は、ハンドル操作トルクとハンドル操作状況のOR条件に基づいて行うようにしてもよい。
また、急ハンドルの判定は、ハンドル操作トルクとハンドル操作状況を2次元プロットしたクラスタ解析の結果に基づいて行うようにしてもよい。
In the rapid approach (condition example 2), the determination of the rapid approach is made based on the AND condition when the distance between the vehicles ahead of the vehicle is equal to or smaller than the average value. You may make it perform based on the result of the cluster analysis which plotted the inter-vehicle distance two-dimensionally.
In the sudden handle (condition example 3), the determination of the sudden handle is performed based on the AND condition of the handle operation torque and the handle operation status. The determination of the sudden handle is based on the OR condition of the handle operation torque and the handle operation status. You may make it perform based on.
The determination of the abrupt handle may be made based on the result of cluster analysis in which the handle operation torque and the handle operation situation are two-dimensionally plotted.

図5の説明に戻り、ヒヤリ・ハットイベントが発生していないと判定された場合(ステップ15;N)、ECU10は、ステップ11に戻って生体情報の検出を継続する。
ヒヤリ・ハットイベントが発生したと判定された場合(ステップ15;Y)、ECU10は、生体状態の変化(運転者の生体情報の異常反応)が検出された地点を、ヒヤリ・ハットイベントの遭遇地点として、その位置情報を現在位置検出装置11の検出結果から取得する(ステップ16)。ECU10は、ここで取得した位置情報を一旦RAM内に格納する。
Returning to the description of FIG. 5, when it is determined that a near-miss event has not occurred (step 15; N), the ECU 10 returns to step 11 and continues detecting biometric information.
When it is determined that a near-miss event has occurred (step 15; Y), the ECU 10 determines the point where the change in the biological state (abnormal reaction of the driver's biological information) is detected as the encounter point of the near-miss event. The position information is acquired from the detection result of the current position detection device 11 (step 16). The ECU 10 temporarily stores the position information acquired here in the RAM.

続いて、ECU10は、予め記憶装置15に記憶されている車両ナンバー、車種・形式、色データなどの自車両特定情報を読み出し、一旦RAM内に格納する(ステップ17)。
ECU10は、RAM内に格納した車両情報、環境情報、位置情報、自車両特定情報などをヒヤリハット情報として、ヒヤリ・ハット情報記憶メモリ155に保存する(ステップ18)。
Subsequently, the ECU 10 reads out the vehicle identification information such as the vehicle number, vehicle type / format, and color data stored in advance in the storage device 15 and temporarily stores it in the RAM (step 17).
The ECU 10 stores the vehicle information, environmental information, position information, own vehicle identification information, etc. stored in the RAM as the near hat information in the near hat information storage memory 155 (step 18).

さらに、ECU10は、生体状態の変化(運転者の生体情報の異常反応)が検出された時刻情報に基づいて、ヒヤリ・ハット反応の検出時点の前後の30秒(検出前15秒+検出後15秒)の画像データを画像記憶メモリ158から読み出し、ヒヤリ・ハット情報記憶メモリ155に記憶する(ステップ19)。
そして、ECU10は、ヒヤリ・ハット情報記憶メモリ155に記憶(格納)されているヒヤリ・ハット情報を、通信装置20を用いてデータセンタ2に送信し(ステップ20)、処理をリターンする。
なお、ヒヤリ・ハット情報記憶メモリ155に記憶(格納)されている情報は、データセンタ2への送信が完了した後に消去する。
Further, the ECU 10 detects 30 seconds (15 seconds before detection + 15 after detection) before and after the detection of the near-miss reaction based on the time information when the change in the biological state (abnormal reaction of the driver's biological information) is detected. Second) image data is read out from the image storage memory 158 and stored in the near-miss information storage memory 155 (step 19).
Then, the ECU 10 transmits the near-miss information stored (stored) in the near-miss information storage memory 155 to the data center 2 using the communication device 20 (step 20), and returns the process.
The information stored (stored) in the near-miss information storage memory 155 is deleted after the transmission to the data center 2 is completed.

なお、ヒヤリ・ハット反応の検出時の位置情報と時刻情報を除く他の情報は、必ずしも全ての情報をヒヤリ・ハット情報としてデータセンタ2へ送信しなくてもよい。例えば、必要な情報のみを任意に選択して、又は、必要な複数の情報を組み合わせてデータセンタ2へ送信するようにしてもよい。   It should be noted that all the information other than the position information and the time information at the time of detecting the near-miss reaction does not necessarily have to be transmitted to the data center 2 as the near-miss information. For example, only necessary information may be arbitrarily selected, or a plurality of necessary information may be combined and transmitted to the data center 2.

なお、上述した実施形態では、ヒヤリ・ハット情報記憶メモリ155に情報が記憶される都度、即ち、1つのヒヤリ・ハット情報が生成されるごとに、情報をデータセンタ2へ送信するように構成されているが、ヒヤリ・ハット情報の送信タイミングはこれに限定されるものではない。
例えば、所定の時間(例えば10分)おきに定期的にヒヤリ・ハット情報記憶メモリ155内の情報を読み出し、データセンタ2へ送信するようにしてもよい。
この場合、次の送信処理が実行されるまでの間に、ECU10は、上述したステップ11からステップ19にかけての一連のヒヤリ・ハット地域に関する情報の取得処理を繰り返し実行し、取得した情報をヒヤリ・ハット情報記憶メモリ155に蓄積しておく。
In the above-described embodiment, each time information is stored in the near-miss information storage memory 155, that is, every time one near-hat information is generated, the information is transmitted to the data center 2. However, the transmission timing of the near-miss information is not limited to this.
For example, information in the near-miss information storage memory 155 may be read periodically and transmitted to the data center 2 every predetermined time (for example, 10 minutes).
In this case, until the next transmission process is executed, the ECU 10 repeatedly executes a series of information processing related to the near-miss area from step 11 to step 19 described above, and the acquired information is The information is stored in the hat information storage memory 155.

次に、データセンタ2における、受信したヒヤリ・ハット情報に基づいてヒヤリ・ハットイベントの再現動画を作成し、これらの再現動画を格納したデータベース28を更新する処理について説明する。
図8は、データセンタ2における、データベース28の作成処理の動作手順を示したフローチャートである。
はじめに、データセンタ2におけるCPU21は、プローブカー1から送信されたヒヤリ・ハット情報を受信し(ステップ31)、記憶部15におけるヒヤリ・ハット情報格納部272に格納する。なお、ヒヤリ・ハット情報は、受信されると、順次ヒヤリ・ハット情報格納部272に格納される。
Next, a description will be given of processing in the data center 2 that creates a reproduced moving image of a near-miss event based on the received near-hat information and updates the database 28 storing these reproduced moving images.
FIG. 8 is a flowchart showing an operation procedure for creating the database 28 in the data center 2.
First, the CPU 21 in the data center 2 receives the near-miss information transmitted from the probe car 1 (step 31) and stores it in the near-hat information storage unit 272 in the storage unit 15. When the near-miss information is received, it is sequentially stored in the near-miss information storage unit 272.

そしてCPU21は、各ヒヤリ・ハット情報に含まれている、生体状態の変化(運転者の生体情報の異常反応)が検出された位置情報及び時刻情報に基づいて、格納されたヒヤリ・ハット情報を、関連するイベント単位にグループ分け(群分け)する(ステップ32)。
つまり、同一イベントに起因すると推定される生体情報の異常反応に関するヒヤリ・ハット情報のグループを作成する。なお、この同一グループにまとめられた複数のヒヤリ・ハット情報を、関連イベント情報とする。
例えば、最初に検出されたヒヤリ・ハット情報で特定される時刻と位置を基準とし、基準時刻から所定判定時間(例えば3分)以内で、かつ、基準位置から所定判定距離(例えば半径1km)のヒヤリ・ハット情報を同一グループにまとめる。なお、判定時間及び判定距離は、任意の値に変更可能である。
Then, the CPU 21 stores the stored near-hat information based on the position information and time information in which the change in the biological state (abnormal reaction of the driver's biological information) is detected, which is included in each near-miss information. Then, grouping (grouping) into related event units (step 32).
That is, a group of near-miss information related to an abnormal reaction of biological information presumed to be caused by the same event is created. The plurality of near-miss information collected in the same group is used as related event information.
For example, with reference to the time and position specified by the first detected near miss information, within a predetermined determination time (for example, 3 minutes) from the reference time and within a predetermined determination distance (for example, a radius of 1 km) from the reference position Combine near-miss information into the same group. Note that the determination time and the determination distance can be changed to arbitrary values.

CPU21は、後述するヒヤリ・ハットレベルを判定するための情報として、関連イベント情報ごとのヒヤリ・ハット情報数、即ち、事例数をカウントする(ステップ33)。
次にCPU21は、各関連イベント情報の必要なヒヤリ・ハット情報が揃ったか否かを判断する(ステップ34)。ここでは、例えば、最初のヒヤリ・ハット情報を受信した時刻から所定判定時間(例えば3分)が経過したか否かを判断する。また、最後のヒヤリ・ハット情報を受信してから所定時間(例えば1分)が経過したか否かを判断するようにしてもよい。
各関連イベント情報の必要なヒヤリ・ハット情報が揃っていないと判断された場合(ステップ34;N)、ステップ31の処理に戻る。
The CPU 21 counts the number of near-miss information for each related event information, that is, the number of cases, as information for determining a near-miss level described later (step 33).
Next, the CPU 21 determines whether or not the necessary near-miss information for each related event information has been prepared (step 34). Here, for example, it is determined whether or not a predetermined determination time (for example, 3 minutes) has elapsed since the time when the first near-miss information was received. Further, it may be determined whether or not a predetermined time (for example, 1 minute) has elapsed since the last near-miss information was received.
When it is determined that the necessary near-miss information for each related event information is not available (step 34; N), the processing returns to step 31.

一方、各関連イベント情報の必要なヒヤリ・ハット情報が揃ったと判断された場合(ステップ34;Y)、CPU21は、関連イベント情報に関するヒヤリ・ハットレベルを判定する(ステップ35)。
図9は、ヒヤリ・ハットレベルの判定条件の一例を示した図である。
図9に示すように、ステップ33の処理においてカウントされる各関連イベント情報毎のヒヤリ・ハット情報の数(事例カウント数)、及び、ヒヤリ・ハット情報に『急ブレーキ』、『急ハンドル』があるか否か基づいて、ヒヤリ・ハットレベルの判定条件が設定されている。但し、これらの判定条件の設定値は、運転環境などの条件によって適宜変更される。
On the other hand, when it is determined that the necessary near-miss information for each related event information has been prepared (step 34; Y), the CPU 21 determines the near-hat level for the related event information (step 35).
FIG. 9 is a diagram showing an example of a near / hat level determination condition.
As shown in FIG. 9, the number of near-miss information (number of case counts) for each related event information counted in the processing of step 33, and “sudden brake” and “sudden handle” are included in the near-miss information. Based on whether or not there is a near-miss level determination condition. However, the set values of these determination conditions are appropriately changed depending on conditions such as the driving environment.

CPU21は、このような判定条件に基づいて、各関連イベント情報のヒヤリ・ハットレベル、即ち、ヒヤリ・ハットイベントの危険度を判定する。
例えば、事例カウント数“1”、急ブレーキ“有”、急ハンドル“有”の場合は、ヒヤリ・ハットレベルが『中』レベルであると判定する。
本実施形態では、事例カウント数が“3以上”である場合には、『急ブレーキ』、『急ハンドル』の検出結果に依存せずに、ヒヤリ・ハットレベルが『高』レベルであると判定する。
なお、ヒヤリ・ハットレベルの判定条件は、これに限定されるものではなく、運転環境などの変化に応じて適宜変更される。
Based on such a determination condition, the CPU 21 determines the near-miss level of each related event information, that is, the risk of a near-miss event.
For example, when the case count number is “1”, the sudden brake is “present”, and the sudden handle is “present”, it is determined that the near-miss level is the “medium” level.
In this embodiment, when the case count number is “3 or more”, it is determined that the near-miss level is the “high” level without depending on the detection results of “sudden brake” and “sudden steering wheel”. To do.
Note that the near / hat level determination condition is not limited to this, and is appropriately changed according to changes in the driving environment.

図8の説明に戻り、CPU21は、関連イベント情報(ヒヤリ・ハット情報)の各種解析結果に基づいて、ヒヤリ・ハットイベントの発端となった原因車両の特定処理を行う(ステップ36)。
図10は、ヒヤリ・ハットイベント(割り込み)の発生状況の説明図である。
ここでは、例えば、図10に示すように、原因車両が車両A及び車両Bの前方方向を、2車線を跨いで割り込みをした場合について説明する。
なお、図中に示す「!」エクスクラメーションマークは、ヒヤリ・ハット反応を検出した車両を示す。
Returning to the description of FIG. 8, the CPU 21 performs a process of identifying the cause vehicle that has started the near-miss event based on various analysis results of the related event information (near-miss information) (step 36).
FIG. 10 is an explanatory diagram of the occurrence of a near-miss event (interrupt).
Here, for example, as shown in FIG. 10, a case where the cause vehicle interrupts the front direction of the vehicle A and the vehicle B across two lanes will be described.
The exclamation mark “!” Shown in the figure indicates a vehicle that has detected a near-miss reaction.

この場合、原因車両の割り込みによって、後方の車両A及び車両Bにおいてヒヤリ・ハット反応が検出され、ヒヤリ・ハット情報が車両A、Bからデータセンタ2に送信される。そして、データセンタ2のCPU21では、車両A及び車両Bから受信したヒヤリ・ハット情報を、同一のイベントに関連する情報としてグループ分け(群分け)する。
そしてCPU21は、このヒヤリ・ハットイベント(割り込み)の原因車両を特定するために、車両A及び車両Bから送信されたヒヤリ・ハット情報における画像データ(ヒヤリ・ハット反応の検出時点の前後30秒)の画像解析処理を実行する。
そして、画像解析処理の結果に基づいて、原因車両の識別情報、例えば、車両ナンバー、車種・形式、色の情報を特定する。
CPU21は、画像解析処理の結果を、原因車両情報格納部273に格納する。
In this case, a near-miss reaction is detected in the rear vehicle A and vehicle B due to the interruption of the cause vehicle, and the near-hat information is transmitted from the vehicles A and B to the data center 2. Then, the CPU 21 of the data center 2 groups (groups) the near-miss information received from the vehicle A and the vehicle B as information related to the same event.
Then, the CPU 21 specifies image data (30 seconds before and after the detection of the near-miss reaction) in the near-miss information transmitted from the vehicle A and the vehicle B in order to identify the cause vehicle of the near-miss event (interrupt). The image analysis process is executed.
Based on the result of the image analysis process, identification information of the cause vehicle, for example, vehicle number, vehicle type / format, and color information is specified.
The CPU 21 stores the result of the image analysis process in the cause vehicle information storage unit 273.

図8の説明に戻り、CPU21は、特定した原因車両の識別情報に基づいて、記憶部27のデータテーブル格納部271に格納されているデータテーブルから原因車両に搭載されている情報処理装置のアドレス情報を読み出す。
CPU21は、読み出した原因車両のアドレス情報を用いて、原因車両へ所定の情報を送信する(ステップ37)。
即ちCPU21は、原因車両へ、例えば、該ヒヤリ・ハットイベントの発生時における自車両(原因車両)の位置情報・車両情報、該ヒヤリ・ハットイベントの発生時前後の画像情報などの提供要求、及びヒヤリ・ハットイベントの原因となった旨のメッセージを原因車両へ送信する。
Returning to the description of FIG. 8, based on the identified identification information of the cause vehicle, the CPU 21 addresses the information processing apparatus mounted on the cause vehicle from the data table stored in the data table storage unit 271 of the storage unit 27. Read information.
The CPU 21 transmits predetermined information to the cause vehicle using the read address information of the cause vehicle (step 37).
That is, the CPU 21 requests the cause vehicle to provide, for example, position information / vehicle information of the own vehicle (cause vehicle) at the time of occurrence of the near-miss event, image information before and after the occurrence of the near-miss event, and the like. Send a message to the vehicle that caused the near-miss event.

原因車両(プローブカー1)のECU10は、データセンタ2(CPU21)から送信された上記情報を受信すると、受信した情報に基づいて、ヒヤリ・ハットイベントの発生時における当該車両の位置情報・車両情報を車両情報記憶メモリ156から読み出し、また、該ヒヤリ・ハットイベントの発生時前後の画像情報を画像記憶メモリ158から読み出しRAM内に格納する。
また、原因車両のECU10は、受信したヒヤリ・ハットイベントの原因となった旨のメッセージに基づいて、記憶装置15に設けられている履歴情報記憶メモリ160にヒヤリ・ハットイベントの原因車両と判定された旨を記憶する。履歴情報記憶メモリには、例えば、自車両が原因車両と判定されたヒヤリ・ハットイベントの発生時間、発生場所、イベント内容などを記憶する。
そして、原因車両のECU10は、原因車両情報として、記憶装置15から読み出したこれらの情報、即ち、データセンタ2への提供を要求された情報を、通信装置20を用いてデータセンタ2へ送信する。
When the ECU 10 of the cause vehicle (probe car 1) receives the information transmitted from the data center 2 (CPU 21), based on the received information, the position information / vehicle information of the vehicle at the time of occurrence of a near-miss event Is read from the vehicle information storage memory 156, and image information before and after the occurrence of the near-miss event is read from the image storage memory 158 and stored in the RAM.
Further, the ECU 10 of the cause vehicle is determined to be the cause vehicle of the near-miss event in the history information storage memory 160 provided in the storage device 15 based on the received message indicating that the cause of the near-hat event has occurred. Remember. For example, the history information storage memory stores the occurrence time, occurrence location, event content, etc. of a near-miss event in which the host vehicle is determined to be the cause vehicle.
Then, the cause vehicle ECU 10 transmits the information read from the storage device 15 as the cause vehicle information, that is, the information requested to be provided to the data center 2 to the data center 2 using the communication device 20. .

上述した例では、原因車両においてヒヤリ・ハット反応が検出されていないため、該原因車両のヒヤリ・ハット情報がデータセンタ2に存在しない。そのため、原因車両のヒヤリ・ハット情報を取得するために、データセンタ2においてステップ37及びステップ38の処理を行うように構成されている。
しかし、原因車両として特定された車両において、ヒヤリ・ハットイベントの発生時にヒヤリ・ハット反応が検出されている場合には、原因車両からヒヤリ・ハット情報を受信しているので、上述したステップ37及びステップ38の処理は行わず、原因車両のヒヤリ・ハット情報を原因車両情報として処理を行う。
In the above-described example, the near-miss reaction of the cause vehicle is not detected in the data center 2 because no near-miss reaction is detected in the cause vehicle. Therefore, in order to acquire the near / miss information of the cause vehicle, the data center 2 is configured to perform the processing of step 37 and step 38.
However, in the vehicle identified as the cause vehicle, when a near-miss reaction is detected when the near-miss event occurs, the near-hat information is received from the cause vehicle. The processing of step 38 is not performed, and the near-miss information of the cause vehicle is processed as the cause vehicle information.

データセンタ2のCPU21は、原因車両から原因車両情報を受信すると(ステップ38)、該ヒヤリ・ハットイベントの関連イベント情報と共に所定の記憶領域に格納する。
そして、CPU21は、取得した関連イベント情報や原因車両情報に基づいて、ヒヤリ・ハットイベントの再現動画を作成する(ステップ39)。
ここで、ヒヤリ・ハットイベントの再現動画の作成方法の一例について説明する。
例えば、上述した図10に示すようなヒヤリ・ハットイベント(割り込み)の再現動画を作成する場合、CPU21は、関連イベント情報の画像情報や車両情報(操作情報)に基づいて、車両A及び車両Bの走行軌跡a、bの算出処理を行う。
そしてCPU21は、算出した走行軌跡a、b、原因車両情報、及び車両A及び車両Bの画像情報に基づいて、画像処理を行い再現動画を作成する。
When receiving the cause vehicle information from the cause vehicle (step 38), the CPU 21 of the data center 2 stores the cause vehicle information together with the related event information of the near-miss event in a predetermined storage area.
Then, the CPU 21 creates a reproduced moving image of the near-miss event based on the acquired related event information and cause vehicle information (step 39).
Here, an example of a method for creating a reproduction video of a near-miss event will be described.
For example, when creating a reproduction video of a near-miss event (interrupt) as shown in FIG. 10 described above, the CPU 21 performs vehicle A and vehicle B based on image information and vehicle information (operation information) of related event information. The travel locus a, b is calculated.
Then, the CPU 21 performs image processing based on the calculated travel trajectories a and b, the cause vehicle information, and the image information of the vehicles A and B to create a reproduction moving image.

ヒヤリ・ハットイベントの再現動画の作成方法は、上述した方法に限定されるものではなく、例えば、図10に示すようなヒヤリ・ハットイベント(割り込み)の場合、原因車両、車両A及び車両B、即ち、イベントに関連する全ての車両における時系列の走行軌跡を算出し、算出された各車両の走行軌跡(運動状況)や車両特定情報に基づいて、再現動画を作成してもよい。
原因車両から取得した原因車両情報に基づいて原因車両のCG(コンピュータグラフィックス)画像を作成し、この原因車両のCG画像を合成して再現動画を作成してもよい。
イベントに関連する全ての車両の画像情報を合成してヒヤリ・ハットイベントの再現動画を作成するようにしても、また、視点が固定されたものだけでなく、複数の視点から見たヒヤリ・ハットイベントの再現動画を作成するようにしてもよい。
The method of creating a near-miss event reproduction video is not limited to the above-described method. For example, in the case of a near-miss event (interrupt) as shown in FIG. 10, the cause vehicle, vehicle A and vehicle B, That is, a time-series travel locus for all the vehicles related to the event may be calculated, and a reproduction moving image may be created based on the calculated travel locus (exercise status) of each vehicle and vehicle identification information.
A CG (computer graphics) image of the cause vehicle may be created based on the cause vehicle information acquired from the cause vehicle, and a reproduction movie may be created by combining the CG images of the cause vehicle.
Even if you create a reproduction video of a near-miss event by combining the image information of all the vehicles related to the event, not only the viewpoint is fixed, but also the near-hat from multiple viewpoints You may make it produce the reproduction video of an event.

また、複数の車両から送信された画像を合成して再現動画を作成する場合には、原因車両が一番多く映っている画像を優先して合成することが好ましい。
その他、複数の車両から送信された画像を時系列に合成する場合には、例えば、原因車両が映し出されている区間をそれぞれの画像から抽出して時系列に継ぎ合わせるように合成することが好ましい。
In addition, when a reproduced moving image is created by combining images transmitted from a plurality of vehicles, it is preferable to preferentially combine the images in which the cause vehicle is most reflected.
In addition, when synthesizing images transmitted from a plurality of vehicles in time series, for example, it is preferable to extract a section in which the cause vehicle is projected from each image and combine them so as to be joined in time series. .

CPU21は、このようにして作成されたヒヤリ・ハットイベントの再現動画を追加してデータベース28を更新し(ステップ40)、メインルーチンにリターンする。
上述した実施形態では、説明の煩雑化を避けるために、ステップ35からステップ40までの一連の処理を、1つのヒヤリ・ハットイベントを対象にして説明したが、実際は、ステップ32の処理において群分け(グループ分け)された各ヒヤリ・ハットイベントに対してこれらの処理を行う。なお、これらの処理は、複数のヒヤリ・ハットイベントに対して平行して行うようにしても、また、1つのヒヤリ・ハットイベントごとに行うようにしてもよい。
The CPU 21 adds the reproduced moving image of the near-miss event created in this way, updates the database 28 (step 40), and returns to the main routine.
In the embodiment described above, a series of processing from step 35 to step 40 has been described for one near-miss event in order to avoid complicating the explanation. These processes are performed for each near-miss event (grouped). These processes may be performed in parallel for a plurality of near-miss events, or may be performed for each near-miss event.

本実施形態では、データセンタ2へのアクセス情報、詳しくは、原因車両に見てもらいたい、ヒヤリ・ハットイベントの再現動画のURL(該原因車両に起因するヒヤリ・ハットイベントの再現動画の格納場所を示したアドレス情報など)を原因車両へ送信して、原因車両の運転者へ当該URLへのアクセスを促す。つまり、原因車両の運転者へ自己の運転操作に起因したヒヤリ・ハットイベントの再現動画の閲覧を促す。
原因車両の運転者は、受信したURLへ、情報処理装置やPC3、携帯電話4などの端末装置を介して、アクセスすることにより再現動画を再生(閲覧)することができる。
図11は、ヒヤリ・ハットイベントの再現動画の閲覧例を示した図である。
図11に示すように、PC3や携帯電話4は、データセンタ2のデータベース28にアクセスし、そして所定の動画再生プログラムを起動させることによって、ヒヤリ・ハットイベントの再現動画を閲覧することができる。
再現動画が選択(指定)されると、例えば、図11に示すように、レポート情報として、再現動画像をはじめ、当該ヒヤリ・ハットイベントが発生した位置がポイント表示された地図画像やヒヤリ・ハットイベントの発生時刻、ヒヤリ・ハットレベル(危険度)などの関連情報がデータセンタ2から提供される。
In the present embodiment, access information to the data center 2, more specifically, the URL of the near-event event reproduction video that the cause vehicle wants to see (the storage location of the near-event event reproduction movie caused by the cause vehicle) Is transmitted to the cause vehicle to urge the driver of the cause vehicle to access the URL. That is, the driver of the cause vehicle is prompted to view a reproduction video of a near-miss event resulting from his / her driving operation.
The driver of the cause vehicle can reproduce (view) the reproduced moving image by accessing the received URL via a terminal device such as the information processing device, the PC 3, or the mobile phone 4.
FIG. 11 is a diagram illustrating an example of browsing a reproduced moving image of a near-miss event.
As shown in FIG. 11, the PC 3 and the mobile phone 4 can browse the reproduced moving image of the near-miss event by accessing the database 28 of the data center 2 and starting a predetermined moving image reproducing program.
When a reproduced video is selected (designated), for example, as shown in FIG. 11, a map image or a near-hat that displays the position where the near-miss event has occurred is displayed as report information, including the reproduced moving image. Related information such as event occurrence time, near-miss level (risk level), and the like is provided from the data center 2.

なお、再現動画を閲覧方法は、上述したような直接特定の再現動画へアクセスする方法に限定されるものではない。
例えば、端末装置からデータベース28にアクセスし、ヒヤリ・ハットイベントの発生エリア(位置情報)や時間帯、また、関連した車両の識別情報などを指定することによって再現動画を絞り込んで選択させ、選択された再現動画を閲覧させるようにしてもよい。
このように、本実施形態によれば、データセンタ2のデータベース28にアクセスすることにより、発生したヒヤリ・ハットイベントの情報を後から確認することができる。
また、本実施形態によれば、各プローブカー1から提供された情報に基づいて、発生したヒヤリ・ハットイベントの再現動画を作成することにより、ヒヤリ・ハットイベントの発生時の状況を容易に把握することができる。
このように、原因車両の運転者、即ち、危険な運転操作を行った運転者に対して、ヒヤリ・ハットイベントの再現動画の閲覧を促すことにより、運転者自身に対して危険な運転操作状況を客観的に容易に認識させることができ、運転マナーの向上が期待できる。
Note that the method for browsing the reproduced moving image is not limited to the method for directly accessing the specific reproduced moving image as described above.
For example, the database 28 is accessed from the terminal device, and the reproduction video is narrowed down and selected by designating the near-hat event occurrence area (position information), time zone, and related vehicle identification information. The reproduced video may be browsed.
As described above, according to the present embodiment, by accessing the database 28 of the data center 2, it is possible to confirm information on the near-miss event that has occurred.
In addition, according to the present embodiment, by creating a reproduction video of a near-miss event that has occurred based on information provided from each probe car 1, it is possible to easily grasp the situation at the time of the near-miss event occurring. can do.
In this way, the driver of the cause vehicle, that is, the driver who has performed a dangerous driving operation is encouraged to view a reproduction video of the near-miss event, thereby causing a dangerous driving operation situation to the driver himself. Can be objectively recognized easily and driving manners can be expected to improve.

また、データセンタ2へアクセスするためのURLの情報を、ヒヤリ・ハットイベントに関連した車両に送信するようにしてもよい。この場合、URLの情報をヒヤリ・ハットイベントに関連した全ての車両に送信するようにしても、また、一部の関連車両にのみ送信するようにしてもよい。一部の関連車両に送信する場合には、例えば、該ヒヤリ・ハットイベントに起因するヒヤリ・ハット情報を一番最初(または一番最後)に送信した車両、また、原因車両の一番近い車両を特定して送信するようにする。
このように、本実施形態によれば、原因車両の運転者だけでなく、危険反応(ヒヤリ・ハット)が検出された車両の運転者に対しても、ヒヤリ・ハットイベントの再現動画の閲覧を促すことにより、危険反応の原因となったイベントの状況を客観的に認識させることができる。
Moreover, you may make it transmit the information of URL for accessing the data center 2 to the vehicle relevant to a near-miss event. In this case, the URL information may be transmitted to all vehicles related to the near-miss event, or may be transmitted only to some related vehicles. When transmitting to some related vehicles, for example, the vehicle that transmitted the near-miss information due to the near-miss event first (or the last), and the vehicle closest to the cause vehicle Identify and send.
As described above, according to the present embodiment, not only the driver of the cause vehicle but also the driver of the vehicle in which the dangerous reaction (near-miss) is detected, the reproduction video of the near-miss event is viewed. By prompting, it is possible to objectively recognize the situation of the event that caused the dangerous reaction.

次に、上述したデータベース作成処理のステップ36の処理における原因車両の特定方法の変形例について説明する。
はじめに、変形例の説明で用いられるヒヤリ・ハットイベントのパターン例について説明する。
図12、図13は、ヒヤリ・ハットイベントのパターン例を示した図である。
ヒヤリ・ハットイベントのパターンとしては、上述した図10に示す割り込みの他に、図12(a)に示す『急ブレーキ』(パターンA)、図12(b)に示す『割り込み−1』(パターンB)、図12(c)に示す『割り込み−2』(パターンC)、図13(a)に示す『ふらつき』(パターンD)、図13(b)に示す『交差点 飛び出し』(パターンE)、図13(c)に示す『対向車線へのはみ出し』(パターンF)などのパターンがある。
Next, a modified example of the method for identifying the cause vehicle in the process of step 36 of the database creation process described above will be described.
First, an example of a near-miss event pattern used in the description of the modification will be described.
12 and 13 are diagrams showing examples of near-miss event patterns.
As a pattern of the near-miss event, in addition to the interrupt shown in FIG. 10 described above, “rapid braking” (pattern A) shown in FIG. 12A and “interrupt-1” shown in FIG. 12B (pattern) B), “Interrupt-2” (pattern C) shown in FIG. 12C, “Fluctuation” (pattern D) shown in FIG. 13A, “Jump out of intersection” (pattern E) shown in FIG. , There are patterns such as “protruding to the opposite lane” (pattern F) shown in FIG.

図12(a)に示す『急ブレーキ』は、原因車両の前方不注意による急ブレーキに起因するヒヤリ・ハットイベントのパターンである。
図12(b)に示す『割り込み−1』は、2車線の道路において、一方の車線から他方の車線への原因車両の無理な割り込み、又は、2車線から1車線へ合流する地点における原因車両の無理な割り込みに起因するヒヤリ・ハットイベントのパターンである。
図12(c)に示す『割り込み−2』は、3車線の道路において、原因車両の2車線を跨ぐ車線変更に起因するヒヤリ・ハットイベントのパターンである。
“Sudden braking” shown in FIG. 12A is a pattern of a near-miss event due to sudden braking due to carelessness of the vehicle ahead.
“Interrupt-1” shown in FIG. 12 (b) is a cause vehicle at a point where a cause vehicle is forcedly interrupted from one lane to the other lane on a two-lane road or merged from two lanes to one lane. This is a pattern of near-miss events caused by unreasonable interruptions.
“Interrupt-2” shown in FIG. 12C is a pattern of a near-miss event caused by a lane change across the two lanes of the cause vehicle on a three-lane road.

図13(a)に示す『ふらつき』は、原因車両が車線変更をしようとしたが途中でやめたことに起因するヒヤリ・ハットイベントのパターンである。
図13(b)に示す『交差点 飛び出し』は、交差点において原因車両が優先道路を走行中の車両の前方に飛び出したことに起因するヒヤリ・ハットイベントのパターンである。
図13(c)に示す『対向車線へのはみ出し』は、カーブなどで原因車両の対向車線へのはみ出しに起因するヒヤリ・ハットイベントのパターンである。
“Fluctuation” shown in FIG. 13A is a pattern of a near-miss event caused by the cause vehicle trying to change lanes but stopping halfway.
The “intersection jumping out” shown in FIG. 13B is a pattern of a near-miss event caused by the cause vehicle jumping out ahead of the vehicle traveling on the priority road at the intersection.
“Extrusion to oncoming lane” shown in FIG. 13C is a pattern of a near-miss event that is caused by an onset of the cause vehicle to the oncoming lane due to a curve or the like.

[例1]
例えば、パターンB〜Fに示すヒヤリ・ハットイベント(ふらつき、割り込み)の発生時、データセンタ2のCPU21は、関連イベント情報の画像情報に対して画像処理を行うことにより、各画像情報に写っている車両のナンバー、車種及び色を識別する。CPU21は、関連イベント情報の全画像情報に共通する車両を探索し、各車両の自車両特定情報の車両ナンバーと照合し、原因車両でない車両を消去して、原因車両を特定する。
このように消去法によって原因車両を特定するようにしてもよい。
[Example 1]
For example, when a near-miss event (fluctuation, interrupt) shown in patterns B to F occurs, the CPU 21 of the data center 2 performs image processing on the image information of the related event information, so that it is reflected in each image information. Identify the vehicle number, type and color of the vehicle. The CPU 21 searches for a vehicle that is common to all the image information of the related event information, collates with the vehicle number of the own vehicle specifying information of each vehicle, deletes the vehicle that is not the cause vehicle, and specifies the cause vehicle.
In this way, the cause vehicle may be specified by the elimination method.

[例2]
例えば、パターンB〜Dに示すヒヤリ・ハットイベントの発生時、原因車両の実際の特定処理を、データセンタ2ではなく、ヒヤリ・ハット反応を検出した各車両の情報処理装置が画像処理によって行うようにしてもよい。
図14は、車両におけるヒヤリ・ハットイベントの原因車両の特定処理の動作手順を示したフローチャートである。
プローブカー1のECU10は、画像入力装置16(ステレオカメラ161)で撮像された車両前方の画像を、画像処理装置132で処理することにより前方車両を認識する(ステップ51)。
そしてECU10は、画像処理装置132において車両前方の撮像画像の解析処理を行い、その解析結果に基づいて、前方の車両のふらつき、又は、当該車両前方へ他車両の割り込みが発生したか否かを判断する(ステップ52)。
前方の車両のふらつき、又は、他車両の割り込みの発生が検出された場合(ステップ52;Y)、ECU10は、上述したヒヤリ・ハット情報の取得処理におけるステップ15と同様に、生体情報取得装置12により検出された生体情報の変化の有無などの情報に基づいて、前方の車両のふらつき、又は、他車両の割り込みに対してヒヤリ・ハット反応が検出されたか否かを判定する(ステップ53)。
前方の車両のふらつき、又は、他車両の割り込みがヒヤリ・ハットイベントに相当すると判定された場合(ステップ53;Y)、ECU10は、前方の車両がヒヤリ・ハットイベントの原因車両と特定(認識)する(ステップ54)。
[Example 2]
For example, when a near-miss event shown in the patterns B to D occurs, the information processing device of each vehicle that has detected a near-hat reaction is performed by image processing instead of the data center 2 to actually identify the cause vehicle. It may be.
FIG. 14 is a flowchart showing an operation procedure for identifying the cause vehicle of a near-miss event in the vehicle.
The ECU 10 of the probe car 1 recognizes a forward vehicle by processing an image in front of the vehicle captured by the image input device 16 (stereo camera 161) by the image processing device 132 (step 51).
Then, the ECU 10 performs an analysis process on the captured image in front of the vehicle in the image processing device 132, and based on the analysis result, whether or not the vehicle in front of the vehicle fluctuates or an interruption of another vehicle has occurred in front of the vehicle. Judgment is made (step 52).
When the wobbling of the vehicle ahead or the occurrence of an interruption of another vehicle is detected (step 52; Y), the ECU 10 performs the biological information acquisition device 12 in the same manner as step 15 in the acquisition processing of the near-miss information described above. Based on information such as the presence / absence of a change in the biometric information detected by the above, it is determined whether a near-miss reaction has been detected in response to a wobbling of the vehicle ahead or an interruption of another vehicle (step 53).
When it is determined that the fluctuation of the vehicle ahead or the interruption of the other vehicle corresponds to a near-miss event (step 53; Y), the ECU 10 identifies (recognizes) that the front vehicle is the cause vehicle of the near-miss event. (Step 54).

そして、ECU10は、特定した原因車両の特定情報として車両ナンバー、車種・形式、色データの情報を、画像処理装置132による車両前方の撮像画像の解析処理を行うことによって取得する(ステップ55)。
ECU10は、取得した原因車両の特定情報を、ヒヤリ・ハット情報と共に、通信装置20を用いてデータセンタ2に送信し(ステップ56)、メインルーチンにリターンする。
一方、前方の車両のふらつき、又は、他車両の割り込みの発生が検出されない場合(ステップ52;N)、また、前方の車両のふらつき、又は、他車両の割り込みによっては、ヒヤリ・ハット反応が検出されない場合(ステップ53;N)、ECU10は、ステップ51の処理に戻る。
Then, the ECU 10 acquires the information of the vehicle number, the vehicle type / format, and the color data as the specific information of the specified cause vehicle by performing the analysis processing of the captured image in front of the vehicle by the image processing device 132 (step 55).
The ECU 10 transmits the acquired specific information of the cause vehicle together with the near / miss information to the data center 2 using the communication device 20 (step 56), and returns to the main routine.
On the other hand, when the occurrence of a wobbling of the vehicle ahead or the occurrence of an interruption of another vehicle is not detected (step 52; N), a near-miss reaction is detected depending on the wobbling of the vehicle ahead or the interruption of another vehicle. If not (step 53; N), the ECU 10 returns to the process of step 51.

データセンタ2のCPU21は、プローブカー1から送信された原因車両情報を取得することによって、ヒヤリ・ハットイベントの原因車両を特定する。
このように、ヒヤリ・ハットイベントの原因車両の特定処理をプローブカー1に分担させることにより、データセンタ2の負荷を軽減させることができるだけでなく、原因車両の特定精度を向上させることができる。
The CPU 21 of the data center 2 specifies the cause vehicle of the near-miss event by acquiring the cause vehicle information transmitted from the probe car 1.
In this way, by causing the probe car 1 to share the processing for identifying the cause vehicle of the near-miss event, not only can the load on the data center 2 be reduced, but also the accuracy of identifying the cause vehicle can be improved.

[例3]
データセンタ2が、管轄するエリア(カバーエリア)内の全車両と通信可能状態である場合、詳しくは、データセンタ2にエリア内の全車両の走行位置情報などが継続的に送信されることで各車両の走行軌跡を特定できる場合における、ヒヤリ・ハットイベントの原因車両の特定方法について説明する。
例えば、パターンB〜Dに示すヒヤリ・ハットイベントの発生時、データセンタ2のCPU21は、各車両から送信された車両の走行位置情報に基づいて、各車両の走行軌跡を算出する。
そして、CPU21は、算出された各車両の走行軌跡と、ヒヤリ・ハット情報を送信した車両との相対位置関係に基づいて原因車両を特定するようにしてもよい。CPU21は、例えば、1台だけ他車と軌跡ベクトルの向きが異なる車両を原因車両に特定する。
なお、軌跡ベクトルとは、各車両の走行軌跡に基づいて算出される、ある特定の時点における車両の走行方向きと速度を示したベクトルである。
[Example 3]
When the data center 2 is in a communicable state with all the vehicles in the area (cover area) under its jurisdiction, in detail, the traveling position information of all the vehicles in the area is continuously transmitted to the data center 2. A description will be given of a method for identifying the cause vehicle of a near-miss event when the traveling locus of each vehicle can be identified.
For example, when a near-miss event shown in the patterns B to D occurs, the CPU 21 of the data center 2 calculates the travel locus of each vehicle based on the travel position information of the vehicle transmitted from each vehicle.
Then, the CPU 21 may identify the cause vehicle based on the relative positional relationship between the calculated travel locus of each vehicle and the vehicle that has transmitted the near-miss information. CPU21 specifies the vehicle from which the direction of a locus vector differs from other vehicles, for example as a cause vehicle.
The trajectory vector is a vector indicating the travel direction and speed of the vehicle at a specific time point calculated based on the travel trajectory of each vehicle.

[例4]
上述した[例3]と同様に、データセンタ2が、管轄するエリア(カバーエリア)内の全車両と通信可能状態である場合、詳しくは、データセンタ2にエリア内の全車両の走行位置情報などが継続的に送信されることで各車両の走行軌跡を特定できる場合における、ヒヤリ・ハットイベントの原因車両の特定方法について説明する。
例えば、パターンB〜Dに示すヒヤリ・ハットイベントの発生時、データセンタ2のCPU21は、同一のヒヤリ・ハットイベントのエリア内(ヒヤリ・ハットイベントの関連領域内)に存在し、かつヒヤリ・ハット情報を送信していない車両(危険反応が検出されていない車両)を探索する。
ここでは、CPU21は、例えば、同一のヒヤリ・ハットイベントのエリア内に存在する車両をリストアップする。そして、この車両リストと、当該ヒヤリ・ハット情報の送信元リストとを比較し、車両リストから、ヒヤリ・ハット情報を送信した車両を削除することにより、危険反応が検出されていない車両を探索する。
[Example 4]
Similarly to [Example 3] described above, when the data center 2 is in a communicable state with all the vehicles in the area (cover area) under its jurisdiction, the data center 2 informs the data center 2 of the travel position information of all the vehicles in the area. A description will be given of a method of identifying the cause vehicle of a near-miss event in the case where the traveling locus of each vehicle can be identified by continuously transmitting and the like.
For example, when a near-miss event shown in the patterns B to D occurs, the CPU 21 of the data center 2 exists in the area of the same near-miss event (in the related area of the near-miss event) and is near the near-miss event. A vehicle that has not transmitted information (a vehicle in which no dangerous reaction has been detected) is searched.
Here, CPU21 lists the vehicle which exists in the area of the same near-miss event, for example. Then, the vehicle list and the transmission source list of the near-miss information are compared, and the vehicle that has transmitted the near-miss information is deleted from the vehicle list to search for a vehicle in which no dangerous reaction is detected. .

なお、ヒヤリ・ハットイベントのエリアとは、例えば、最初に検出されたヒヤリ・ハット情報で特定される時刻と位置を基準とし、基準時刻から所定判定時間(例えば3分)以内における、基準位置から所定判定距離(例えば半径50m)の領域を示す。
そして、CPU21は、探索された複数の車両の中からヒヤリ・ハット情報を送信した車両、即ち、危険反応が検出された車両に最も近い車両を原因車両に特定するようにしてもよい。
但し、上記[例1]〜[例4]に示す原因車両の特定方法は、原因車両において危険反応が検出されない場合を想定する。
The near-miss event area is, for example, from the reference position within a predetermined determination time (for example, 3 minutes) from the reference time based on the time and position specified by the first detected near-miss information. An area having a predetermined determination distance (for example, a radius of 50 m) is shown.
Then, the CPU 21 may identify a vehicle that has transmitted near-miss information among a plurality of searched vehicles, that is, a vehicle that is closest to a vehicle in which a dangerous reaction has been detected, as a cause vehicle.
However, the identification method of the cause vehicle shown in the above [Example 1] to [Example 4] assumes a case where no dangerous reaction is detected in the cause vehicle.

[例5]
ヒヤリ・ハットイベントに関連する車両間において、車車間通信が可能な状態である場合、即ち、プローブカー1同士がデータセンタ2を介さずに直接通信が可能な場合における、ヒヤリ・ハットイベントの原因車両の特定方法について説明する。
なお、この場合には、[例1]と同様に、データセンタ2ではなく、ヒヤリ・ハットイベントに関連している車両(プローブカー1)の情報処理装置において原因車両の実際の特定処理を行う。
[Example 5]
Causes of a near-miss event when vehicles related to a near-miss event are in a state where vehicle-to-vehicle communication is possible, that is, when the probe cars 1 can directly communicate with each other without going through the data center 2. A vehicle identification method will be described.
In this case, as in [Example 1], not the data center 2 but the information processing apparatus of the vehicle (probe car 1) related to the near-miss event is actually identified. .

例えば、パターンAに示すような原因車両の前方不注意による急ブレーキが原因のヒヤリ・ハットイベントの発生時、各プローブカー1における情報処理装置のECU10は、画像入力装置16(ステレオカメラ161)で撮像された車両前方の画像情報に基づいて、前方車両のブレーキランプが点灯したことを認識する。
その後、運転者の危険反応(ヒヤリ・ハット反応)が検出された場合、ECU10は、前方車両のブレーキランプの点灯を認識してから、運転者の危険反応が検出されるまでの時間に基づいて、自車両が原因車両であるか、又は、前方車両が原因車両であるかを判断する。
ここでは、例えば、前方車両のブレーキランプの点灯から、運転者の危険反応が検出されるまでに1秒以上経過した場合には、自車両が原因車両と判断し、即ち、運転者自身の不注意に起因する危険反応であると判断する。一方、経過時間が1秒未満である場合には、前方車両が原因車両であると判断し、即ち、前方車両の急ブレーキに起因する危険反応であると判断する。
For example, when a near-miss event occurs due to a sudden braking due to carelessness of the vehicle ahead as shown in pattern A, the ECU 10 of the information processing device in each probe car 1 uses the image input device 16 (stereo camera 161). Based on the captured image information ahead of the vehicle, it is recognized that the brake lamp of the vehicle ahead is lit.
Thereafter, when a driver's dangerous reaction (near-miss reaction) is detected, the ECU 10 recognizes the lighting of the brake lamp of the preceding vehicle until the driver's dangerous reaction is detected. Then, it is determined whether the own vehicle is the cause vehicle or the preceding vehicle is the cause vehicle.
Here, for example, if one or more seconds elapse from the lighting of the brake lamp of the preceding vehicle until the driver's dangerous reaction is detected, the vehicle is determined to be the cause vehicle, that is, the driver's own failure. Judged as a dangerous reaction due to attention. On the other hand, when the elapsed time is less than 1 second, it is determined that the preceding vehicle is the cause vehicle, that is, it is determined that the reaction is a dangerous reaction caused by the sudden braking of the preceding vehicle.

前方車両が原因車両であると判断した場合、ECU10は、前方車両が原因車両である旨の判断結果を、前方車両へ送信する。
一方、自車両が原因車両であると判断した場合、ECU10は、自車両が原因車両である旨の判断結果を、ヒヤリ・ハット情報と共にデータセンタ2に送信する。
なお、自車両が原因車両であると判断した場合において、後続車両から“前方車両(=自車両)が原因車両である旨の判断結果”を受信した際には、後続車両へ、自車両が原因車両である旨の判断結果を送信する。
そして、データセンタ2のCPU21は、プローブカー1から送信された原因車両情報を取得することによって、ヒヤリ・ハットイベントの原因車両を特定するようにしてもよい。
When it is determined that the preceding vehicle is the cause vehicle, the ECU 10 transmits a determination result indicating that the preceding vehicle is the cause vehicle to the preceding vehicle.
On the other hand, when determining that the host vehicle is the cause vehicle, the ECU 10 transmits a determination result indicating that the host vehicle is the cause vehicle to the data center 2 together with the near-miss information.
When it is determined that the own vehicle is the cause vehicle, when the “determination result that the preceding vehicle (= own vehicle) is the cause vehicle” is received from the following vehicle, the own vehicle The judgment result indicating that the vehicle is the cause is transmitted.
Then, the CPU 21 of the data center 2 may identify the cause vehicle of the near-miss event by acquiring the cause vehicle information transmitted from the probe car 1.

次に、車車間通信を利用した原因車両の特定処理の具体的な手順について説明する。
図15は、車車間通信を利用したヒヤリ・ハットイベントの原因車両の特定処理の動作手順を示したフローチャートである。
ここでは、図12(a)に示すような原因車両の前方不注意による急ブレーキが原因のヒヤリ・ハットイベントの発生時を例に説明し、具体的には、車両A(原因車両)、車両B及び車両Cにおける車車間通信を利用した原因車両の特定方法について説明する
Next, a specific procedure for identifying the cause vehicle using inter-vehicle communication will be described.
FIG. 15 is a flowchart showing an operation procedure for identifying a cause vehicle of a near-miss event using inter-vehicle communication.
Here, an explanation will be given by taking as an example the occurrence of a near-miss event caused by sudden braking due to carelessness in front of the cause vehicle as shown in FIG. 12A. Specifically, vehicle A (cause vehicle), vehicle A method for identifying a cause vehicle using inter-vehicle communication in B and vehicle C will be described.

車両AのECU10は、画像入力装置16(ステレオカメラ161)で撮像された車両前方の画像情報に基づいて、前方車両のブレーキランプが点灯したことを認識する(ステップ71)。
そして、前方車両のブレーキランプの点灯が認識されてから1秒以上経過した後に、車両AのECU10は、生体情報取得装置12により検出された生体情報の変化の有無などの情報に基づいて、運転者のヒヤリ・ハット反応(危険反応)を検出する(ステップ72)。
車両AのECU10は、ブレーキ踏力センサ142により検出された値に基づいて、運転者の急ブレーキ操作を検出する(ステップ73)。
The ECU 10 of the vehicle A recognizes that the brake lamp of the front vehicle is lit based on the image information ahead of the vehicle imaged by the image input device 16 (stereo camera 161) (step 71).
Then, after one second or more has passed since the lighting of the brake lamp of the preceding vehicle is recognized, the ECU 10 of the vehicle A operates based on information such as the presence or absence of a change in biological information detected by the biological information acquisition device 12. A near-miss reaction (dangerous reaction) is detected (step 72).
The ECU 10 of the vehicle A detects the driver's sudden braking operation based on the value detected by the brake pedal force sensor 142 (step 73).

車両BのECU10は、車両前方の画像情報に基づいて、車両Aの点灯したブレーキランプを認識する(ステップ81)。
そして、前方車両のブレーキランプの点灯が認識されてから1秒以内に、車両BのECU10は、生体情報取得装置12により検出された生体情報の変化の有無などの情報に基づいて、運転者のヒヤリ・ハット反応(危険反応)を検出する(ステップ82)。
車両BのECU10は、ブレーキ踏力センサ142により検出された値に基づいて、運転者の急ブレーキ操作を検出する(ステップ83)。
車両BのECU10は、自車両(車両B)において検出されたヒヤリ・ハット情報を前方車両(車両A)に送信する(ステップ84)。
The ECU 10 of the vehicle B recognizes the brake lamp that the vehicle A is turned on based on the image information in front of the vehicle (step 81).
Then, within one second after the lighting of the brake lamp of the preceding vehicle is recognized, the ECU 10 of the vehicle B is based on information such as the presence or absence of a change in the biological information detected by the biological information acquisition device 12. A near-miss reaction (dangerous reaction) is detected (step 82).
The ECU 10 of the vehicle B detects the driver's sudden braking operation based on the value detected by the brake pedal force sensor 142 (step 83).
The ECU 10 of the vehicle B transmits the near-miss information detected in the own vehicle (vehicle B) to the preceding vehicle (vehicle A) (step 84).

車両CのECU10は、車両前方の画像情報に基づいて、車両Bにおける急ブレーキ操作により点灯したブレーキランプを認識する(ステップ91)。
そして、前方車両のブレーキランプの点灯が認識されてから1秒以内に、車両CのECU10は、生体情報取得装置12により検出された生体情報の変化の有無などの情報に基づいて、運転者のヒヤリ・ハット反応(危険反応)を検出する(ステップ92)。
車両CのECU10は、ブレーキ踏力センサ142により検出された値に基づいて、運転者の急ブレーキ操作を検出する(ステップ93)。
車両CのECU10は、自車両(車両C)において検出されたヒヤリ・ハット情報を前方車両(車両B)に送信する(ステップ94)。
なお、上述したステップ84、ステップ94における前方車両に検出されたヒヤリ・ハット情報を送信する処理は、前方車両のブレーキランプの点灯が認識されてから1秒以内に運転者のヒヤリ・ハット反応が検出された場合にのみ実行される。
The ECU 10 of the vehicle C recognizes the brake lamp that is turned on by the sudden brake operation in the vehicle B based on the image information in front of the vehicle (step 91).
Then, within one second after the lighting of the brake lamp of the preceding vehicle is recognized, the ECU 10 of the vehicle C, based on information such as the presence / absence of a change in the biological information detected by the biological information acquisition device 12, A near-miss reaction (dangerous reaction) is detected (step 92).
The ECU 10 of the vehicle C detects the driver's sudden braking operation based on the value detected by the brake pedal force sensor 142 (step 93).
The ECU 10 of the vehicle C transmits the near-miss information detected in the own vehicle (vehicle C) to the preceding vehicle (vehicle B) (step 94).
The process of transmitting the detected near-miss information to the preceding vehicle in the above-described step 84 and step 94 is performed in such a manner that the driver's near-miss reaction occurs within one second after the lighting of the brake lamp of the preceding vehicle is recognized. It is executed only when it is detected.

車両AのECU10は、車両Bから送信されたヒヤリ・ハット情報を受信する(ステップ74)。
そして車両AのECU10は、自車両が原因車両であるか否かを判断する(ステップ75)。ここでECU10は、例えば、前方車両のブレーキランプの点灯を認識してから、運転者の危険反応が検出されるまでに1秒以上経過した場合に、自車両が原因車両と判断する。
自車両が原因車両であると判断した場合(ステップ75;Y)、車両AのECU10は、自車両(車両A)が原因車両である旨を示した情報(原因車両情報)を、データセンタ2及び車両Bに送信し(ステップ76)、メインルーチンにリターンする。
一方、自車両が原因車両でないと判断した場合(ステップ75;N)、そのままメインルーチンにリターンする。
The ECU 10 of the vehicle A receives the near-miss information transmitted from the vehicle B (step 74).
Then, the ECU 10 of the vehicle A determines whether or not the own vehicle is the cause vehicle (step 75). Here, for example, the ECU 10 determines that the host vehicle is the cause vehicle when 1 second or more has elapsed after the driver's dangerous reaction is detected after the brake lamp of the vehicle ahead is recognized.
When it is determined that the host vehicle is the cause vehicle (step 75; Y), the ECU 10 of the vehicle A uses the data center 2 as information (cause vehicle information) indicating that the host vehicle (vehicle A) is the cause vehicle. And it transmits to the vehicle B (step 76), and returns to the main routine.
On the other hand, when it is determined that the host vehicle is not the cause vehicle (step 75; N), the process directly returns to the main routine.

車両BのECU10は、車両Aから原因車両情報が送信された場合、この車両Aから送信された原因車両情報を受信する(ステップ85)。
また、車両BのECU10は、車両Cから送信された車両Cで検出されたヒヤリ・ハット情報を受信する(ステップ86)。
車両BのECU10は、車両Aが原因車両である旨を示した情報(原因車両情報)を、車両Cに送信し(ステップ87)、メインルーチンにリターンする。
車両CのECU10は、車両Bから送信された、車両Aが原因車両である旨を示した情報(原因車両情報)を受信し(ステップ95)、メインルーチンにリターンする。
データセンタ2のCPU21は、車両A、即ち原因車両から送信された原因車両情報を取得することによって、ヒヤリ・ハットイベントの原因車両を特定することができる。
When the cause vehicle information is transmitted from the vehicle A, the ECU 10 of the vehicle B receives the cause vehicle information transmitted from the vehicle A (step 85).
Further, the ECU 10 of the vehicle B receives the near-miss information detected by the vehicle C transmitted from the vehicle C (step 86).
The ECU 10 of the vehicle B transmits information (cause vehicle information) indicating that the vehicle A is the cause vehicle to the vehicle C (step 87), and returns to the main routine.
The ECU 10 of the vehicle C receives information (cause vehicle information) transmitted from the vehicle B and indicating that the vehicle A is the cause vehicle (step 95), and returns to the main routine.
The CPU 21 of the data center 2 can identify the cause vehicle of the near-miss event by acquiring the cause vehicle information transmitted from the vehicle A, that is, the cause vehicle.

[例6]
次に、データセンタ2が管轄するエリア(カバーエリア)内に設置されている交通監視カメラと通信可能状態である場合、即ち、データセンタ2がエリア内を監視しているカメラ映像を取得することが可能な場合に利用可能な、ヒヤリ・ハットイベントの原因車両の特定方法について説明する。
例えば、パターンA〜Fに示すヒヤリ・ハットイベントの発生時、データセンタ2のCPU21は、関連イベント情報に基づいてヒヤリ・ハットイベントの発生位置を特定し、その特定エリア(該当エリア)を監視しているカメラ映像を取得する。
[Example 6]
Next, when communication with a traffic monitoring camera installed in an area (cover area) managed by the data center 2 is possible, that is, to acquire a camera image in which the data center 2 is monitoring the area. A method for identifying the cause vehicle of a near-miss event that can be used in the case where it is possible will be described.
For example, when a near-miss event shown in patterns A to F occurs, the CPU 21 of the data center 2 identifies the occurrence location of the near-miss event based on the related event information, and monitors the specific area (corresponding area). Get the camera image.

CPU21は、取得したカメラ映像を解析し、カメラ映像の解析結果と、関連イベント情報、詳しくは、該ヒヤリ・ハットイベントに関連する車両から送信された自車両特定情報や画像情報から得られる各車両情報とを照合し、原因車両を特定する。
このように、交通監視カメラの撮像画像情報を利用して原因車両を特定するようにしてもよい。交通監視カメラの撮像画像情報を利用することにより、より多くの証拠情報に基づいて、原因車両の特定ができるため、原因車両の特定精度をより向上させることができる。
The CPU 21 analyzes the acquired camera video, and each vehicle obtained from the analysis result of the camera video and related event information, specifically, own vehicle specifying information and image information transmitted from the vehicle related to the near-miss event. Check the information and identify the cause vehicle.
In this way, the cause vehicle may be specified using the captured image information of the traffic monitoring camera. By using the captured image information of the traffic monitoring camera, the cause vehicle can be identified based on more evidence information, so that the cause vehicle identification accuracy can be further improved.

[例7]
例えば、パターンB〜Fに示すヒヤリ・ハットイベントの発生時、ヒヤリ・ハットイベントに関連している車両(プローブカー1)の情報処理装置において、自車両又は周辺に位置する他車両が原因車両である可能性を有していることを判断し、その判断結果をデータセンタ2へ送信する。そしてデータセンタ2が、関連車両から送信された判断結果の情報に基づいて、原因車両を特定するようにしてもよい。
[Example 7]
For example, when a near-miss event shown in patterns B to F occurs, in the information processing apparatus for a vehicle (probe car 1) related to the near-miss event, the own vehicle or another vehicle located in the vicinity is the cause vehicle. It is determined that there is a possibility, and the determination result is transmitted to the data center 2. Then, the data center 2 may identify the cause vehicle based on the information on the determination result transmitted from the related vehicle.

図16は、車両におけるヒヤリ・ハットイベントの原因車両である可能性を有する車両の特定処理の動作手順を示したフローチャートである。
プローブカー1のECU10は、画像入力装置16(ステレオカメラ161)で撮像された車両前方の画像を、画像処理装置132に読み込んで解析し、走行中の車線を認識する(ステップ101)。
そしてECU10は、画像処理装置132において車両前方の撮像画像の解析処理を行い、その解析結果に基づいて、自車両が走行車線を逸脱したか否かを判断する(ステップ102)。
自車両が走行車線を逸脱していない場合(ステップ102;N)、ECU10は、ステップ101に戻り、処理を繰り返す。
FIG. 16 is a flowchart illustrating an operation procedure of a process for identifying a vehicle having a possibility of being a cause vehicle of a near-miss event in the vehicle.
The ECU 10 of the probe car 1 reads an image in front of the vehicle imaged by the image input device 16 (stereo camera 161) into the image processing device 132 and analyzes it, and recognizes the traveling lane (step 101).
Then, the ECU 10 performs an analysis process on the captured image in front of the vehicle in the image processing device 132, and determines whether or not the own vehicle has deviated from the traveling lane based on the analysis result (step 102).
If the host vehicle has not deviated from the travel lane (step 102; N), the ECU 10 returns to step 101 and repeats the process.

自車両が走行車線を逸脱した場合(ステップ102;Y)、ECU10は、上述したヒヤリ・ハット情報の取得処理におけるステップ15と同様に、生体情報取得装置12により検出された生体情報の変化の有無などの情報に基づいて、この自車両の車線逸脱がヒヤリ・ハットイベントに相当するか否かを判定する(ステップ103)。
自車両の車線逸脱がヒヤリ・ハットイベントに相当しないと判定された場合(ステップ103;N)、ECU10は、自車両が原因車両である可能性がある旨の判断結果を、自車両の特定情報と共にデータセンタ2に送信し(ステップ104)、メインルーチンにリターンする。
一方、自車両の車線逸脱がヒヤリ・ハットイベントに相当すると判定された場合(ステップ103;Y)、ECU10は、例えば、車間距離・相対速度測定装置131の測定結果に基づいて、自車両の周辺(周囲)に他車両が存在するか否かを判断する(ステップ105)。
When the host vehicle deviates from the driving lane (step 102; Y), the ECU 10 determines whether there is a change in the biological information detected by the biological information acquisition device 12 as in step 15 in the acquisition processing of the near-miss information described above. Based on such information, it is determined whether the lane departure of the host vehicle corresponds to a near-miss event (step 103).
When it is determined that the lane departure of the host vehicle does not correspond to a near-miss event (step 103; N), the ECU 10 uses the determination result indicating that the host vehicle may be the cause vehicle as identification information of the host vehicle. At the same time, the data is transmitted to the data center 2 (step 104), and the process returns to the main routine.
On the other hand, when it is determined that the lane departure of the host vehicle corresponds to a near-miss event (step 103; Y), the ECU 10 determines the surroundings of the host vehicle based on the measurement result of the inter-vehicle distance / relative speed measuring device 131, for example. It is determined whether or not there is another vehicle (around) (step 105).

自車両の周辺(周囲)に他車両が存在しない場合(ステップ105;N)、メインルーチンにリターンする。
自車両の周辺(周囲)に他車両が存在する場合(ステップ105;Y)、ECU10は、自車両の周辺(周囲)に存在する他車両が原因車両である可能性がある旨の判断結果を、自車両の特定情報と共にデータセンタ2に送信し(ステップ106)、メインルーチンにリターンする。
そして、データセンタ2のCPU21は、プローブカー1から送信された原因車両である可能性を有する車両の情報に基づいて、ヒヤリ・ハットイベントの原因車両を特定する。
このような原因車両である可能性を有する旨を示した情報をデータセンタ2に提供することにより、原因車両の特定精度をより向上させることができる。
If there is no other vehicle around (around) the host vehicle (step 105; N), the process returns to the main routine.
When there is another vehicle around (around 105) the host vehicle (step 105; Y), the ECU 10 gives a determination result that the other vehicle around the host vehicle (around) may be the cause vehicle. Then, it is transmitted to the data center 2 together with the specific information of the own vehicle (step 106), and the process returns to the main routine.
Then, the CPU 21 of the data center 2 identifies the cause vehicle of the near-miss event based on the information on the vehicle having the possibility of being the cause vehicle transmitted from the probe car 1.
By providing the data center 2 with information indicating that there is a possibility that the vehicle is the cause vehicle, the identification accuracy of the cause vehicle can be further improved.

なお、上述した本実施形態、及び[例1]〜[例7]で説明したヒヤリ・ハットイベントの原因車両の特定方法は、システムの設備環境に応じて、それぞれ単独で用いるようにしても、また、複数の方法を組み合わせて用いるようにしてもよい。
例えば、[例2]で説明した車両(プローブカー1)側で原因車両を実際に特定する方法と、[例6]で説明したデータセンタ2側で原因車両を特定する方法とを組み合わせて用いるようにしてもよい。
It should be noted that the method for identifying the cause vehicle of the near-miss event described in the above-described embodiment and [Example 1] to [Example 7] may be used independently according to the facility environment of the system. A plurality of methods may be used in combination.
For example, the method of actually identifying the cause vehicle on the vehicle (probe car 1) side described in [Example 2] and the method of identifying the cause vehicle on the data center 2 side described in [Example 6] are used in combination. You may do it.

本実施形態におけるデータベース作成システムの構成を表した図である。It is a figure showing the structure of the database creation system in this embodiment. データセンタの概略構成を示した図である。It is the figure which showed schematic structure of the data center. ブレーキ踏力センサの検出結果の例を示した図である。It is the figure which showed the example of the detection result of a brake pedaling force sensor. ヒヤリ・ハット情報記憶メモリに格納される情報の例を示した図である。It is the figure which showed the example of the information stored in a near-miss information storage memory. プローブカーにおけるヒヤリ・ハット情報の取得処理の動作手順を示したフローチャートである。It is the flowchart which showed the operation | movement procedure of the acquisition process of near-miss information in a probe car. 生体情報の変化の判定例を示した図である。It is the figure which showed the example of determination of the change of biometric information. ヒヤリ・ハットイベントか否かの判定項目とその条件の一例を示した図である。It is the figure which showed an example of the judgment item of whether it is a near-miss event, and its conditions. データセンタにおける、データベースの作成処理の動作手順を示したフローチャートである。It is the flowchart which showed the operation | movement procedure of the production process of a database in a data center. ヒヤリ・ハットレベルの判定条件の一例を示した図である。It is the figure which showed an example of the judgment conditions of a near-miss level. ヒヤリ・ハットイベント(割り込み)の発生状況の説明図である。It is explanatory drawing of the generation | occurrence | production state of a near-miss event (interruption). ヒヤリ・ハットイベントの再現動画の閲覧例を示した図である。It is the figure which showed the browsing example of the reproduction animation of a near-miss event. ヒヤリ・ハットイベントのパターン例を示した図である。It is the figure which showed the example pattern of a near-miss event. ヒヤリ・ハットイベントのパターン例を示した図である。It is the figure which showed the example pattern of a near-miss event. 車両におけるヒヤリ・ハットイベントの原因車両の特定処理の動作手順を示したフローチャートである。It is the flowchart which showed the operation | movement procedure of the specific process of the cause vehicle of the near-miss event in a vehicle. 車車間通信を利用したヒヤリ・ハットイベントの原因車両の特定処理の動作手順を示したフローチャートである。It is the flowchart which showed the operation | movement procedure of the specific process of the cause vehicle of the near-miss event using inter-vehicle communication. 車両におけるヒヤリ・ハットイベントの原因車両である可能性を有する車両の特定処理の動作手順を示したフローチャートである。It is the flowchart which showed the operation | movement procedure of the specific process of the vehicle which may be a cause vehicle of the near-miss event in a vehicle.

符号の説明Explanation of symbols

1 プローブカー
2 データセンタ
3 PC
4 携帯電話
5 車両
6 ネットワーク
11 現在位置検出装置
12 生体情報取得装置
13 環境情報取得装置
14 車両情報取得装置
15 記憶装置
16 画像入力装置
17 表示装置
18 音声出力装置
19 入力装置
20 通信装置
21 CPU
22 ROM
23 RAM
24 入力装置
25 出力装置
26 通信装置
27 記憶部
28 データベース
121 心拍センサ
122 皮膚インピーダンスセンサ
131 車間距離・相対速度測定装置
132 画像処理装置
141 ハンドル舵角センサ
142 ブレーキ踏力センサ
143 アクセル踏力センサ
144 車速センサ
145 ジャイロセンサ
151 生体情報処理プログラム
152 車両情報処理プログラム
153 環境情報処理プログラム
154 ヒヤリ・ハット判定プログラム
155 ヒヤリ・ハット情報記憶メモリ
156 車両情報記憶メモリ
157 環境情報記憶メモリ
158 画像記憶メモリ
159 地図データベース
161 ステレオカメラ
1 Probe car 2 Data center 3 PC
4 Cellular Phone 5 Vehicle 6 Network 11 Current Position Detection Device 12 Biological Information Acquisition Device 13 Environmental Information Acquisition Device 14 Vehicle Information Acquisition Device 15 Storage Device 16 Image Input Device 17 Display Device 18 Audio Output Device 19 Input Device 20 Communication Device 21 CPU
22 ROM
23 RAM
24 input device 25 output device 26 communication device 27 storage unit 28 database 121 heart rate sensor 122 skin impedance sensor 131 inter-vehicle distance / relative speed measuring device 132 image processing device 141 steering wheel angle sensor 142 brake pedal force sensor 143 accelerator pedal force sensor 144 vehicle speed sensor 145 Gyro sensor 151 Biological information processing program 152 Vehicle information processing program 153 Environmental information processing program 154 Near-miss determination program 155 Near-miss information storage memory 156 Vehicle information storage memory 157 Environment information storage memory 158 Image storage memory 159 Map database 161 Stereo camera

Claims (6)

特定の原因車両に基づくイベントを起因とする運転者の生体情報の変化を検知した車両から、該生体情報の変化を検知した検知時刻、及び車両位置を含む検知情報を取得する検知情報取得手段と、
前記取得した検知情報に基づいて、各イベントに関連する関連車両を特定する関連車両特定手段と、
前記特定した各関連車両の周囲画像を取得する画像取得手段と、
前記取得した画像に基づいて、各イベントの再現画像を作成する再現画像作成手段と、
前記原因車両を特定する原因車両特定手段と、
前記特定した原因車両に、前記作成した再現画像を閲覧するためのアクセス情報を送信するアクセス情報送信手段と、
を具備したことを特徴とするデータベース作成装置。
Detection information acquisition means for acquiring detection information including a detection time and a vehicle position from the vehicle that has detected a change in the biological information of the driver due to an event based on a specific cause vehicle ,
Based on the acquired detection information, related vehicle specifying means for specifying related vehicles related to each event;
Image acquisition means for acquiring a surrounding image of each identified related vehicle;
Reproduction image creation means for creating a reproduction image of each event based on the acquired image;
A cause vehicle identifying means for identifying the cause vehicle;
Access information transmitting means for transmitting access information for viewing the created reproduced image to the identified cause vehicle;
A database creation device characterized by comprising:
前記原因車両特定手段は、前記取得した各関連車両の周囲画像から、前記原因車両を特定することを特徴とする請求項1記載のデータベース作成装置。 2. The database creation device according to claim 1, wherein the cause vehicle specifying means specifies the cause vehicle from the acquired surrounding image of each related vehicle . 前記画像取得手段は、前記関連車両の周囲画像として、前記検知情報を取得した車両から、運転者の生体情報の変化の検知時前後における該車両の周囲の動画像を取得し、
前記再現画像作成手段は、前記取得した動画像に基づいて、各イベントの再現画像を作成することを特徴とする請求項1、又は請求項2記載のデータベース作成装置。
The image acquisition means acquires, as a surrounding image of the related vehicle, a moving image around the vehicle before and after the detection of a change in the biological information of the driver from the vehicle from which the detection information has been acquired.
The database creation device according to claim 1, wherein the reproduction image creation unit creates a reproduction image of each event based on the acquired moving image.
前記アクセス情報送信手段は、更に、前記特定した関連車両のうちの少なくとも1つに、前記作成した再現画像を閲覧するためのアクセス情報を送信することを特徴とする請求項1、請求項2、又は請求項3記載のデータベース作成装置。 The access information transmitting means further transmits access information for viewing the created reproduction image to at least one of the identified related vehicles. Or the database creation apparatus of Claim 3. 前記再現画像作成手段は、前記イベントの再現画像として、原因車両の挙動の再現画像を作成することを特徴とする請求項1、請求項2、請求項3、又は請求項4記載のデータベース作成装置。   5. The database creation device according to claim 1, wherein the reproduction image creation unit creates a reproduction image of a cause vehicle behavior as a reproduction image of the event. . 検知情報取得手段と、関連車両特定手段と、画像取得手段と、再現画像作成手段と、原因車両特定手段と、アクセス情報送信手段とを具備したデータベース作成装置に、
前記検知情報取得手段が、特定の原因車両に基づくイベントを起因とする運転者の生体情報の変化を検知した車両から、該生体情報の変化を検知した検知時刻、及び車両位置を含む検知情報を取得する検知情報取得機能と、
前記関連車両特定手段が、前記取得した検知情報に基づいて、各イベントに関連する関連車両を特定する関連車両特定機能と、
前記画像取得手段が、前記特定した各関連車両の周囲画像を取得する画像取得機能と、
前記再現画像作成手段が、前記取得した画像に基づいて、各イベントの再現画像を作成する再現画像作成機能と、
前記原因車両特定手段が、前記原因車両を特定する原因車両特定機能と、
前記アクセス情報送信手段が、前記特定した原因車両に、前記作成した再現画像を閲覧するためのアクセス情報を送信するアクセス情報送信機能と、
を実現させるためのコンピュータ読み取り可能なデータベース作成プログラム。
In a database creation device comprising detection information acquisition means, related vehicle identification means, image acquisition means, reproduction image creation means, cause vehicle identification means, and access information transmission means ,
The detection information acquisition means includes detection information including a detection time at which a change in the biological information is detected and a vehicle position from a vehicle in which the change in the biological information of the driver due to an event based on the specific cause vehicle is detected. Detection information acquisition function to acquire,
The related vehicle specifying means specifies a related vehicle related to each event based on the acquired detection information;
An image acquisition function in which the image acquisition means acquires a surrounding image of each identified related vehicle;
The reproduction image creation means creates a reproduction image of each event based on the acquired image, a reproduction image creation function,
The cause vehicle specifying means specifies a cause vehicle specifying function for specifying the cause vehicle;
The access information transmitting means transmits an access information for browsing the created reproduced image to the identified cause vehicle, and an access information transmitting function.
A computer-readable database creation program for realizing the above.
JP2007074427A 2007-03-22 2007-03-22 Database creation device and database creation program Expired - Fee Related JP4986135B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007074427A JP4986135B2 (en) 2007-03-22 2007-03-22 Database creation device and database creation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007074427A JP4986135B2 (en) 2007-03-22 2007-03-22 Database creation device and database creation program

Publications (2)

Publication Number Publication Date
JP2008234414A JP2008234414A (en) 2008-10-02
JP4986135B2 true JP4986135B2 (en) 2012-07-25

Family

ID=39907100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007074427A Expired - Fee Related JP4986135B2 (en) 2007-03-22 2007-03-22 Database creation device and database creation program

Country Status (1)

Country Link
JP (1) JP4986135B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105206045A (en) * 2015-09-28 2015-12-30 深圳中创未来科技有限公司 Method and system for guaranteeing car renting safety and mobile terminal

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010128640A1 (en) * 2009-05-07 2010-11-11 コニカミノルタホールディングス株式会社 Device for acquiring stereo image
JP5585193B2 (en) * 2010-05-07 2014-09-10 富士通株式会社 Event data processing method, program, and apparatus
JP5610921B2 (en) * 2010-08-24 2014-10-22 アルパイン株式会社 Travel history display device, travel history display method, and travel history display program
JP5335754B2 (en) * 2010-10-27 2013-11-06 株式会社エフティエルインターナショナル Elderly mobility support system
JP5543501B2 (en) * 2012-01-27 2014-07-09 株式会社日本自動車部品総合研究所 Vehicle control device
JP5807578B2 (en) * 2012-02-10 2015-11-10 アイシン・エィ・ダブリュ株式会社 Alerting system, alerting program, and alerting method
JP6814236B2 (en) * 2012-11-30 2021-01-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing method
JP2015005168A (en) * 2013-06-21 2015-01-08 創研光電股▲ふん▼有限公司 Drive recorder (dr) having lane departure warning system (ldws), and forward collision warning system (fcws)
JP6234722B2 (en) * 2013-07-05 2017-11-22 株式会社昭文社 Information providing system and information providing server
JP6331285B2 (en) * 2013-08-08 2018-05-30 富士通株式会社 Driving support method, driving support device, vehicle system, and driving support program
JP6201603B2 (en) * 2013-10-04 2017-09-27 富士通株式会社 Information management program, information management method, and information processing apparatus
JP6279893B2 (en) * 2013-12-12 2018-02-14 株式会社Nttドコモ Search support apparatus, communication system, search support method, and program
JP6270580B2 (en) * 2014-03-26 2018-01-31 本田技研工業株式会社 Vehicle information terminal
JP2015219531A (en) * 2014-05-13 2015-12-07 株式会社デンソー In-vehicle device and travel image storage system
JP6301758B2 (en) * 2014-07-07 2018-03-28 エヌ・ティ・ティ・コミュニケーションズ株式会社 Driver crisis management device, driver crisis management method, and driver crisis management program
JP6160594B2 (en) * 2014-10-27 2017-07-12 富士通株式会社 Dangerous driving recording method, dangerous driving recording program, and dangerous driving recording device
JP6419033B2 (en) * 2015-07-06 2018-11-07 日本電信電話株式会社 Drive control device, drive control method, and drive control program
JP6471675B2 (en) * 2015-10-21 2019-02-20 株式会社デンソー Driving support system, information transmission device, and driving support device
JP6308444B2 (en) * 2016-03-11 2018-04-11 パナソニックIpマネジメント株式会社 Transmission device, communication system
JP6915982B2 (en) * 2016-12-07 2021-08-11 損害保険ジャパン株式会社 Information processing equipment, information processing methods and information processing programs
JP6960220B2 (en) * 2016-12-07 2021-11-05 損害保険ジャパン株式会社 Information processing equipment, information processing methods and information processing programs
JP7129147B2 (en) * 2017-05-19 2022-09-01 株式会社デンソーテン Vehicle device, safe driving support system, and safe driving support method
JP7043785B2 (en) 2017-10-25 2022-03-30 株式会社Ihi Information generator
JP7081131B2 (en) * 2017-12-11 2022-06-07 日産自動車株式会社 Acceleration / deceleration control method and acceleration / deceleration control device
JP7255582B2 (en) 2018-02-26 2023-04-11 日本電気株式会社 DANGEROUS ACTION ELIMINATION SYSTEM, DEVICE, METHOD AND PROGRAM
JP6714036B2 (en) * 2018-04-25 2020-06-24 株式会社日立物流 Management support system
JP2019197463A (en) * 2018-05-11 2019-11-14 日本電気通信システム株式会社 Vehicle information analyzing device, driving support device, driving support system, vehicle information analyzing method, driving support method, and program
JP6983335B2 (en) * 2018-09-21 2021-12-17 三菱電機株式会社 Operation judgment device and operation judgment method
JP7187371B2 (en) * 2019-03-28 2022-12-12 Kddi株式会社 Video provision system
US11741839B2 (en) 2019-04-23 2023-08-29 Quon Technology Ltd. Traffic safety assistance device, mobile information terminal, and program
JP7254000B2 (en) * 2019-08-02 2023-04-07 株式会社デンソーテン Image delivery device and method, and image delivery system
WO2021024495A1 (en) * 2019-08-08 2021-02-11 株式会社日立物流 During-driving incident notification system, method, and program
JP7369776B2 (en) * 2019-08-08 2023-10-26 ロジスティード株式会社 Operation incident image display system, method and program
JP7243586B2 (en) * 2019-11-11 2023-03-22 トヨタ自動車株式会社 Information processing device, information processing system, and information processing program
JP7347389B2 (en) * 2020-09-25 2023-09-20 トヨタ自動車株式会社 Driving evaluation system
JP7264865B2 (en) * 2020-12-18 2023-04-25 矢崎エナジーシステム株式会社 Risk assessment device
CN113240909B (en) * 2021-06-17 2022-11-29 阿波罗智联(北京)科技有限公司 Vehicle monitoring method, equipment, cloud control platform and vehicle road cooperative system
JP7320104B1 (en) 2022-04-28 2023-08-02 株式会社セトラス Image transaction device, information processing method and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3848554B2 (en) * 2001-10-11 2006-11-22 株式会社日立製作所 Danger information collection / distribution device, alarm generation device, vehicle danger information transmission device, and route search device
JP2003252152A (en) * 2001-12-28 2003-09-10 Matsushita Electric Ind Co Ltd Vehicle information recording system
JP3798996B2 (en) * 2002-06-19 2006-07-19 圭寿 藤沼 Vehicle accident situation automatic collection system
JP2007011148A (en) * 2005-07-01 2007-01-18 Atsushi Yagi Traffic safety education support system
JP4815943B2 (en) * 2005-08-19 2011-11-16 株式会社デンソー Hazardous area information display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105206045A (en) * 2015-09-28 2015-12-30 深圳中创未来科技有限公司 Method and system for guaranteeing car renting safety and mobile terminal

Also Published As

Publication number Publication date
JP2008234414A (en) 2008-10-02

Similar Documents

Publication Publication Date Title
JP4986135B2 (en) Database creation device and database creation program
US20230219580A1 (en) Driver and vehicle monitoring feedback system for an autonomous vehicle
CN110892351B (en) Vehicle control device and vehicle control method
US20210394751A1 (en) Information processing apparatus, information processing method, and program
US10527450B2 (en) Apparatus and method transitioning between driving states during navigation for highly automated vechicle
JP4815943B2 (en) Hazardous area information display device
JP2008015561A (en) Information providing vehicle and driving support device
US9707971B2 (en) Driving characteristics diagnosis device, driving characteristics diagnosis system, driving characteristics diagnosis method, information output device, and information output method
JP6459220B2 (en) Accident prevention system, accident prevention device, accident prevention method
JP6638608B2 (en) Driving support system
US20130147955A1 (en) Warning system, vehicular apparatus, and server
JP6552992B2 (en) Information processing apparatus, in-vehicle apparatus, and information processing method
CN111547043A (en) Automatic response to emergency service vehicle by autonomous vehicle
JP2008186045A (en) Driving evaluation apparatus
JP2012123625A (en) Vehicle driving estimation system
JP2007047914A (en) Danger reaction point recording system and operation support system
JP4622749B2 (en) Vehicle data collection device, vehicle driving support device, and vehicle safe driving support system
CN110462702B (en) Travel route providing system, control method thereof, and medium
KR101476886B1 (en) Apparatus for assisting change of the driving path
US11260856B2 (en) Information display device, information display method, and recording medium
JP4926182B2 (en) Signal recognition apparatus, signal recognition method, signal recognition program, and recording medium
JP6303795B2 (en) Route search system and route search method
KR20220036870A (en) Method, system, and computer program product for determining safety-critical traffic scenarios for driver assistance systems (das) and highly automated driving functions (had)
JP2022149946A (en) Driving characteristic determination device, driving characteristic determination method, and driving characteristic determination program
JP2004355055A (en) On-vehicle electronic device and navigation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120406

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120419

R150 Certificate of patent or registration of utility model

Ref document number: 4986135

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees