JP2021117905A - Analysis control device, record control device, operation support system, and analysis control method - Google Patents

Analysis control device, record control device, operation support system, and analysis control method Download PDF

Info

Publication number
JP2021117905A
JP2021117905A JP2020012655A JP2020012655A JP2021117905A JP 2021117905 A JP2021117905 A JP 2021117905A JP 2020012655 A JP2020012655 A JP 2020012655A JP 2020012655 A JP2020012655 A JP 2020012655A JP 2021117905 A JP2021117905 A JP 2021117905A
Authority
JP
Japan
Prior art keywords
unit
vehicle
analysis
point
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020012655A
Other languages
Japanese (ja)
Inventor
栄治 松本
Eiji Matsumoto
栄治 松本
剛 鈴木
Takeshi Suzuki
剛 鈴木
直哉 会津
Naoya Aizu
直哉 会津
誠 栗原
Makoto Kurihara
誠 栗原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020012655A priority Critical patent/JP2021117905A/en
Publication of JP2021117905A publication Critical patent/JP2021117905A/en
Pending legal-status Critical Current

Links

Images

Abstract

To appropriately notify a vehicle's driver of a point where minor contact between the vehicle and a surrounding object is likely to occur.SOLUTION: An analysis control device 90 comprises: an analysis data acquisition unit 92 that acquires image data of a bird's-eye view image around a vehicle and positional information of a position where the bird's-eye view image is taken from recording control devices mounted on a plurality of vehicles as analysis data; an analysis unit 93 that analyzes a point where a slight contact between the vehicle and an object around the vehicle is likely to occur based on the analysis data acquired by the analysis data acquisition unit 92; and a notification control unit 94 that notifies the recording control device of the point information of the contact frequent occurrence points analyzed by the analysis unit 93.SELECTED DRAWING: Figure 1

Description

本発明は、解析制御装置、記録制御装置、運転支援システム、および、解析制御方法に関する。 The present invention relates to an analysis control device, a recording control device, a driving support system, and an analysis control method.

合流区間において、自車周辺の右方および左方の他車を検出する技術が知られている(例えば、特許文献1参照。)。交通事故をマッピングして事故履歴データ及びリアルタイム事故データ、他の事故関連情報を格納する技術が知られている(例えば、特許文献2参照。)。 A technique for detecting other vehicles on the right and left sides around the own vehicle in the merging section is known (see, for example, Patent Document 1). A technique for mapping a traffic accident and storing accident history data, real-time accident data, and other accident-related information is known (see, for example, Patent Document 2).

特開2008−052399号公報Japanese Unexamined Patent Publication No. 2008-052399 特表2018−505422号公報Special Table 2018-505422

例えば、路地の曲がり角など、車両が壁などの周辺の物体を擦りやすい地点が存在する。特許文献1、特許文献2に記載の技術では、このような地点を車両の運転者に通知することができない。車両と周辺の物体との軽微な接触が発生しやすい地点を車両の運転者に適切に通知することが望まれる。 For example, there are points where the vehicle can easily rub surrounding objects such as walls, such as corners of alleys. With the techniques described in Patent Document 1 and Patent Document 2, such a point cannot be notified to the driver of the vehicle. It is desirable to appropriately notify the driver of the vehicle of the points where slight contact between the vehicle and surrounding objects is likely to occur.

本発明は、上記に鑑みてなされたものであって、車両と周辺の物体との軽微な接触を起こしやすい地点を適切に車両の運転者に通知することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to appropriately notify the driver of a vehicle of a point at which a slight contact between the vehicle and a surrounding object is likely to occur.

上述した課題を解決し、目的を達成するために、本発明に係る解析制御装置は、複数の車両に搭載された記録制御装置から、前記車両の周辺の俯瞰映像の映像データと前記俯瞰映像が撮影された位置の位置情報とを解析用データとして取得する解析用データ取得部と、前記解析用データ取得部が取得した前記解析用データに基づいて、前記車両と前記車両の周辺の物体との軽微な接触が発生しやすい地点である接触多発地点を解析する解析部と、前記解析部によって解析された前記接触多発地点の地点情報を、前記記録制御装置へ通知する通知制御部と、を備える。 In order to solve the above-mentioned problems and achieve the object, in the analysis control device according to the present invention, the video data of the bird's-eye view image around the vehicle and the bird's-eye view image are obtained from the recording control device mounted on a plurality of vehicles. An analysis data acquisition unit that acquires the position information of the photographed position as analysis data, and the vehicle and an object around the vehicle based on the analysis data acquired by the analysis data acquisition unit. It is provided with an analysis unit that analyzes a contact frequent occurrence point, which is a point where minor contact is likely to occur, and a notification control unit that notifies the recording control device of the point information of the contact frequent occurrence point analyzed by the analysis unit. ..

本発明に係る記録制御装置は、車両の周辺を撮影する撮影部が撮影した映像データを取得する映像データ取得部と、前記車両に加わる加速度を示す加速度情報を取得する加速度情報取得部と、前記車両と前記車両の周辺の物体との軽微な接触が発生しやすい地点を解析する解析装置から、前記地点の地点情報を取得する地点情報取得部と、前記地点情報取得部が取得した前記地点情報と、前記車両の現在位置の位置情報とに基づいて、イベントを検出するための加速度の閾値を変更する閾値設定部と、前記加速度情報取得部が取得した加速度情報が、前記閾値設定部が設定した閾値以上である場合にイベントが発生したことを検出するイベント検出部と、前記イベント検出部がイベントの発生を検出した場合、イベントの検出に対応する映像データを保存する記録制御部と、前記イベント検出部がイベントの発生を検出した場合、イベントの検出に対応する映像データから、前記車両の周辺の俯瞰映像を生成する俯瞰映像生成部と、前記俯瞰映像生成部が生成した前記俯瞰映像の映像データを、前記解析装置へ通信部を介して送信する送信制御部と、を備える。 The recording control device according to the present invention includes a video data acquisition unit that acquires video data captured by a photographing unit that photographs the periphery of the vehicle, an acceleration information acquisition unit that acquires acceleration information indicating acceleration applied to the vehicle, and the above. A point information acquisition unit that acquires point information of the point from an analysis device that analyzes a point where a slight contact between the vehicle and an object around the vehicle is likely to occur, and the point information acquired by the point information acquisition unit. A threshold setting unit that changes the acceleration threshold for detecting an event based on the position information of the current position of the vehicle, and an acceleration information acquired by the acceleration information acquisition unit are set by the threshold setting unit. An event detection unit that detects that an event has occurred when the value is equal to or greater than the specified threshold, a recording control unit that stores video data corresponding to the detection of the event when the event detection unit detects the occurrence of an event, and the above. When the event detection unit detects the occurrence of an event, the bird's-eye view image generation unit that generates a bird's-eye view image of the surroundings of the vehicle from the video data corresponding to the event detection, and the bird's-eye view image generated by the bird's-eye view image generation unit. It includes a transmission control unit that transmits video data to the analysis device via a communication unit.

本発明に係る運転支援システムは、上記の解析制御装置と、上記の記録制御装置と、を備える。 The driving support system according to the present invention includes the above-mentioned analysis control device and the above-mentioned recording control device.

本発明に係る解析制御方法は、複数の車両に搭載された記録制御装置から、前記車両の周辺の俯瞰映像の映像データと前記俯瞰映像が撮影された位置の位置情報とを解析用データとして取得する解析用データ取得ステップと、前記解析用データ取得ステップによって取得された前記解析用データに基づいて、前記車両と前記車両の周辺の物体との軽微な接触が発生しやすい地点である接触多発地点を解析する解析ステップと、前記解析ステップによって解析された前記接触多発地点の地点情報を、前記記録制御装置へ通知する通知制御ステップと、を含む。 In the analysis control method according to the present invention, video data of a bird's-eye view image of the periphery of the vehicle and position information of a position where the bird's-eye view image is taken are acquired as analysis data from a recording control device mounted on a plurality of vehicles. Based on the analysis data acquisition step and the analysis data acquired by the analysis data acquisition step, a contact frequent occurrence point is a point where a slight contact between the vehicle and an object around the vehicle is likely to occur. Includes an analysis step for analyzing the above, and a notification control step for notifying the recording control device of the point information of the contact frequent occurrence point analyzed by the analysis step.

本発明によれば、車両と周辺の物体との軽微な接触を起こしやすい地点を適切に車両の運転者に通知することができるという効果を奏する。 According to the present invention, it is possible to appropriately notify the driver of the vehicle of a point at which a slight contact between the vehicle and a surrounding object is likely to occur.

図1は、第一実施形態に係る運転支援システムの構成例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of the driving support system according to the first embodiment. 図2は、第一実施形態に係る経路案内装置の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of the route guidance device according to the first embodiment. 図3は、第一実施形態に係る記録装置の構成例を示すブロック図である。FIG. 3 is a block diagram showing a configuration example of the recording device according to the first embodiment. 図4は、俯瞰映像の一例を説明する図である。FIG. 4 is a diagram illustrating an example of a bird's-eye view image. 図5は、第一実施形態に係るサーバ装置における処理の流れを示すフローチャートである。FIG. 5 is a flowchart showing a processing flow in the server device according to the first embodiment. 図6は、第一実施形態に係る記録装置における処理の流れを示すフローチャートである。FIG. 6 is a flowchart showing a processing flow in the recording device according to the first embodiment. 図7は、車両の底部を擦っている状態を説明する図である。FIG. 7 is a diagram illustrating a state in which the bottom of the vehicle is rubbed.

以下に添付図面を参照して、本発明に係る解析制御装置、記録制御装置、運転支援システム、および、解析制御方法の実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of an analysis control device, a recording control device, a driving support system, and an analysis control method according to the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the following embodiments.

[第一実施形態]
<運転支援システム>
図1は、第一実施形態に係る運転支援システム1の構成例を示すブロック図である。運転支援システム1は、複数の車両に搭載された車載装置10と、車両と周辺の物体との軽微な接触が発生しやすい地点(以下、「接触多発地点」という。)を解析するサーバ装置(解析装置)80とを有する。運転支援システム1は、車載装置10から車両の周辺の俯瞰映像100(図4参照)を送信させて、映像データを取得する。運転支援システム1は、取得した映像データに基づいて、接触多発地点を解析する。
[First Embodiment]
<Driving support system>
FIG. 1 is a block diagram showing a configuration example of the driving support system 1 according to the first embodiment. The driving support system 1 is a server device (hereinafter referred to as a “contact frequent occurrence point”) that analyzes a point (hereinafter, referred to as a “contact frequent occurrence point”) in which a slight contact between the vehicle and a surrounding object is likely to occur between the in-vehicle device 10 mounted on a plurality of vehicles. It has an analyzer) 80. The driving support system 1 transmits a bird's-eye view image 100 (see FIG. 4) around the vehicle from the in-vehicle device 10 to acquire image data. The driving support system 1 analyzes the contact frequent occurrence points based on the acquired video data.

軽微な接触とは、いわゆるドライブレコーダにおいて、事故を検出する衝撃よりも小さい衝撃を伴う接触である。軽微な接触とは、車両に、目視でわかる程度の凹みを生じない接触である。軽微な接触とは、徐行運転している車両が、例えば、壁または樹木の枝などの停止している物体を擦って、車両に擦り傷が付く程度の接触である。 A slight contact is a contact with an impact smaller than the impact of detecting an accident in a so-called drive recorder. A slight contact is a contact that does not cause a visible dent in the vehicle. The slight contact is such that a vehicle driving slowly rubs a stationary object such as a wall or a branch of a tree, and the vehicle is scratched.

<車載装置>
車載装置10は、複数の車両にそれぞれ搭載されている。車載装置10は、経路案内装置20と、記録装置40とを含む。車載装置10である経路案内装置20と記録装置40とは、車両に搭載されているものに限らず、例えば、車両に持ち込んで使用される携帯用電子機器の機能として実装されていてもよい。
<In-vehicle device>
The in-vehicle device 10 is mounted on each of a plurality of vehicles. The in-vehicle device 10 includes a route guidance device 20 and a recording device 40. The route guidance device 20 and the recording device 40, which are the in-vehicle devices 10, are not limited to those mounted on the vehicle, and may be implemented as functions of a portable electronic device that is brought into the vehicle and used, for example.

<経路案内装置>
図2は、第一実施形態に係る経路案内装置20の構成例を示すブロック図である。経路案内装置20は、いわゆるナビゲーションシステムである。経路案内装置20は、地図情報記憶部21と、GPS(Global Positioning System)受信部22と、通信部23と、経路案内制御装置30とを有する。
<Route guidance device>
FIG. 2 is a block diagram showing a configuration example of the route guidance device 20 according to the first embodiment. The route guidance device 20 is a so-called navigation system. The route guidance device 20 includes a map information storage unit 21, a GPS (Global Positioning System) reception unit 22, a communication unit 23, and a route guidance control device 30.

地図情報記憶部21は、経路案内部31が使用する地図情報と、接触多発地点を示す地点情報とを記憶する。地図情報記憶部21は、更新制御部34の制御によって、サーバ装置80から取得した地点情報で地図情報を更新する。地図情報記憶部21は、例えば、フラッシュメモリなどの半導体メモリ素子、または、ハードディスク、光ディスクなどである。地図情報記憶部21は、通信部23を介して無線接続される外部記憶部であってもよい。 The map information storage unit 21 stores the map information used by the route guidance unit 31 and the point information indicating the frequent contact points. The map information storage unit 21 updates the map information with the point information acquired from the server device 80 under the control of the update control unit 34. The map information storage unit 21 is, for example, a semiconductor memory element such as a flash memory, a hard disk, an optical disk, or the like. The map information storage unit 21 may be an external storage unit that is wirelessly connected via the communication unit 23.

地点情報は、接触多発地点の点を示す位置情報、または、接触多発地点の周囲の所定範囲を示す位置情報であってもよい。本実施形態では、地図情報は、接触多発地点の周囲の所定範囲を示す位置情報である。 The point information may be position information indicating a point of a contact frequent occurrence point or position information indicating a predetermined range around a contact frequent occurrence point. In the present embodiment, the map information is position information indicating a predetermined range around a contact frequent occurrence point.

GPS受信部22は、図示しないGPS衛星から電波を受信する。GPS受信部22は、受信した電波の信号を経路案内制御装置30の位置情報取得部32へ出力する。 The GPS receiving unit 22 receives radio waves from GPS satellites (not shown). The GPS receiving unit 22 outputs the signal of the received radio wave to the position information acquisition unit 32 of the route guidance control device 30.

通信部23は、通信ユニットである。通信部23は、サーバ装置80と送受信可能に接続する。 The communication unit 23 is a communication unit. The communication unit 23 connects to the server device 80 so as to be able to transmit and receive.

経路案内制御装置30は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置(制御装置)である。経路案内制御装置30は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。経路案内制御装置30は、経路案内部31と、位置情報取得部32と、地点情報取得部33と、更新制御部34と、通信制御部35とを有する。経路案内制御装置30には図示しない内部メモリが含まれ、内部メモリは経路案内制御装置30におけるデータの一時記憶などに用いられる。 The route guidance control device 30 is, for example, an arithmetic processing unit (control device) composed of a CPU (Central Processing Unit) or the like. The route guidance control device 30 loads a program stored in a storage unit (not shown) into the memory and executes an instruction included in the program. The route guidance control device 30 includes a route guidance unit 31, a position information acquisition unit 32, a point information acquisition unit 33, an update control unit 34, and a communication control unit 35. The route guidance control device 30 includes an internal memory (not shown), and the internal memory is used for temporary storage of data in the route guidance control device 30 and the like.

経路案内部31は、地図情報を使用して、車両の現在位置からユーザが設定した目的地までの経路案内を行う。経路案内部31は、車両の現在位置の位置情報と目的地の位置情報とに基づいて、ルートを検索する。ルートを検索する方法は、公知のルート検索方法を使用可能であり、限定されない。経路案内部31は、検索されたルートに沿った経路案内を行う。ルートを案内する方法は、公知のルート案内方法を使用可能であり、限定されない。 The route guidance unit 31 uses the map information to provide route guidance from the current position of the vehicle to the destination set by the user. The route guidance unit 31 searches for a route based on the position information of the current position of the vehicle and the position information of the destination. As a method for searching a route, a known route search method can be used and is not limited. The route guidance unit 31 provides route guidance along the searched route. As a method of guiding a route, a known route guiding method can be used and is not limited.

位置情報取得部32は、GPS受信部22が受信した電波に基づいて、車両の現在位置の位置情報を公知の方法によって算出する。 The position information acquisition unit 32 calculates the position information of the current position of the vehicle by a known method based on the radio waves received by the GPS reception unit 22.

地点情報取得部33は、地図情報記憶部21に記憶した地図情報に含まれる地点情報を、サーバ装置80から取得する。地点情報取得部33は、所定期間ごとに、サーバ装置80から地点情報を取得してもよい。または、地点情報取得部33は、サーバ装置80から地点情報が送信された際に、取得してもよい。 The point information acquisition unit 33 acquires the point information included in the map information stored in the map information storage unit 21 from the server device 80. The point information acquisition unit 33 may acquire point information from the server device 80 at predetermined intervals. Alternatively, the point information acquisition unit 33 may acquire the point information when the point information is transmitted from the server device 80.

更新制御部34は、地点情報取得部33がサーバ装置80から取得した地点情報で、地図情報記憶部21に記憶した地図情報を更新するよう制御する。 The update control unit 34 controls the point information acquisition unit 33 to update the map information stored in the map information storage unit 21 with the point information acquired from the server device 80.

通信制御部35は、通信部23を介した通信を制御する。通信制御部35は、通信部23を介してサーバ装置80と通信する。 The communication control unit 35 controls communication via the communication unit 23. The communication control unit 35 communicates with the server device 80 via the communication unit 23.

<記録装置>
図3は、第一実施形態に係る記録装置40の構成例を示すブロック図である。記録装置40は、いわゆるドライブレコーダである。記録装置40は、車両に載置されているものに加えて、可搬型で車両において利用可能な装置であってもよい。記録装置40は、カメラユニット(撮影部)41と、記録部42と、操作部43と、表示部44と、加速度センサ45と、GPS受信部46と、通信部47と、記録制御装置50とを有する。
<Recording device>
FIG. 3 is a block diagram showing a configuration example of the recording device 40 according to the first embodiment. The recording device 40 is a so-called drive recorder. The recording device 40 may be a portable device that can be used in the vehicle, in addition to the device mounted on the vehicle. The recording device 40 includes a camera unit (shooting unit) 41, a recording unit 42, an operation unit 43, a display unit 44, an acceleration sensor 45, a GPS receiving unit 46, a communication unit 47, and a recording control device 50. Has.

カメラユニット41は、車両の周辺を撮影する複数のカメラを有する。カメラユニット41は、複数のカメラを有し、いわゆる俯瞰映像用カメラである。本実施形態では、カメラユニット41は、前方映像用カメラ411と、後方映像用カメラ412と、左側方映像用カメラ413と、右側方映像用カメラ414とを有する。以下の説明において前方映像用カメラ411と後方映像用カメラ412と左側方映像用カメラ413と右側方映像用カメラ414との区別を要しない場合、カメラユニット41として説明する。 The camera unit 41 has a plurality of cameras that photograph the periphery of the vehicle. The camera unit 41 has a plurality of cameras and is a so-called bird's-eye view image camera. In the present embodiment, the camera unit 41 includes a front image camera 411, a rear image camera 412, a left side image camera 413, and a right side image camera 414. In the following description, when it is not necessary to distinguish between the front image camera 411, the rear image camera 412, the left side image camera 413, and the right side image camera 414, the camera unit 41 will be described.

前方映像用カメラ411は、車両の前方に配置され、車両の前方を中心とした周辺を撮影する。前方映像用カメラ411は、撮影した映像データを記録制御装置50の映像データ取得部51へ出力する。 The front image camera 411 is arranged in front of the vehicle and photographs the surroundings centered on the front of the vehicle. The front video camera 411 outputs the captured video data to the video data acquisition unit 51 of the recording control device 50.

後方映像用カメラ412は、車両の後方に配置され、車両の後方を中心とした周辺を撮影する。後方映像用カメラ412は、撮影した映像データを記録制御装置50の映像データ取得部51へ出力する。 The rear image camera 412 is arranged at the rear of the vehicle and photographs the surroundings centered on the rear of the vehicle. The rear video camera 412 outputs the captured video data to the video data acquisition unit 51 of the recording control device 50.

左側方映像用カメラ413は、車両の左側方に配置され、車両の左側方を中心とした周辺を撮影する。左側方映像用カメラ413は、撮影した映像データを記録制御装置50の映像データ取得部51へ出力する。 The left-side video camera 413 is arranged on the left side of the vehicle and photographs the surroundings centered on the left side of the vehicle. The left-side video camera 413 outputs the captured video data to the video data acquisition unit 51 of the recording control device 50.

右側方映像用カメラ414は、車両の右側方に配置され、車両の右側方を中心とした周辺を撮影する。右側方映像用カメラ414は、撮影した映像データを記録制御装置50の映像データ取得部51へ出力する。 The right-side video camera 414 is arranged on the right side of the vehicle and photographs the surroundings centered on the right side of the vehicle. The right-side video camera 414 outputs the captured video data to the video data acquisition unit 51 of the recording control device 50.

前方映像用カメラ411と後方映像用カメラ412と左側方映像用カメラ413と右側方映像用カメラ414とで、車両の全方位を撮影する。 The front image camera 411, the rear image camera 412, the left side image camera 413, and the right side image camera 414 capture all directions of the vehicle.

記録部42は、記録装置40におけるデータの一時記憶や保存などに用いられる。記録部42は、例えば、RAM(Random Access Memory)、フラッシュメモリなどの半導体メモリ素子、または、メモリカードなどの記録部である。または、図示しない通信装置を介して無線接続される外部記録部であってもよい。記録部42は、記録制御装置50の記録制御部54から出力された制御信号に基づいて、ループ記録映像データまたはイベント記録データを記録する。 The recording unit 42 is used for temporary storage and storage of data in the recording device 40. The recording unit 42 is, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a recording unit such as a memory card. Alternatively, it may be an external recording unit wirelessly connected via a communication device (not shown). The recording unit 42 records loop recording video data or event recording data based on the control signal output from the recording control unit 54 of the recording control device 50.

操作部43は、記録装置40に対する各種操作を受付可能である。例えば、操作部43は、撮影した映像データを記録部42にイベント記録データとして手動で保存する操作を受付可能である。例えば、操作部43は、記録部42に記録したループ記録映像データまたはイベント記録データを再生する操作を受付可能である。例えば、操作部43は、記録部42に記録したイベント記録データを消去する操作を受付可能である。例えば、操作部43は、ループ記録を終了する操作を受付可能である。操作部43は、操作情報を記録制御装置50の操作制御部56に出力する。 The operation unit 43 can accept various operations on the recording device 40. For example, the operation unit 43 can accept an operation of manually saving the captured video data in the recording unit 42 as event recording data. For example, the operation unit 43 can accept an operation of reproducing the loop recorded video data or the event recording data recorded in the recording unit 42. For example, the operation unit 43 can accept an operation of erasing the event record data recorded in the recording unit 42. For example, the operation unit 43 can accept an operation to end the loop recording. The operation unit 43 outputs the operation information to the operation control unit 56 of the recording control device 50.

表示部44は、一例としては、記録装置40に固有の表示装置、または、ナビゲーションシステムを含む他のシステムと共用した表示装置などである。表示部44は、カメラユニット41と一体に形成されていてもよい。表示部44は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Electro−Luminescence)ディスプレイなどを含むディスプレイである。本実施形態では、表示部44は、車両の運転者前方の、ダッシュボード、インストルメントパネル、センターコンソールなどに配置されている。表示部44は、記録制御装置50の表示制御部57から出力された映像信号に基づいて、映像を表示する。表示部44は、カメラユニット41が撮影している映像、記録部42に記録された映像、または、俯瞰映像生成部63が生成した俯瞰映像100を表示する。 As an example, the display unit 44 is a display device unique to the recording device 40, a display device shared with other systems including a navigation system, and the like. The display unit 44 may be integrally formed with the camera unit 41. The display unit 44 is a display including, for example, a liquid crystal display (LCD: Liquid Crystal Display) or an organic EL (Electro-luminescence) display. In the present embodiment, the display unit 44 is arranged on a dashboard, an instrument panel, a center console, or the like in front of the driver of the vehicle. The display unit 44 displays an image based on the image signal output from the display control unit 57 of the recording control device 50. The display unit 44 displays the image captured by the camera unit 41, the image recorded on the recording unit 42, or the bird's-eye view image 100 generated by the bird's-eye view image generation unit 63.

加速度センサ45は、車両に対して生じる加速度を検出するセンサである。加速度センサ45は、検出結果を記録制御装置50の加速度情報取得部58に出力する。加速度センサ45は、例えば3軸方向の加速度を検出するセンサである。3軸方向とは、車両の前後方向、左右方向、および上下方向である。 The acceleration sensor 45 is a sensor that detects the acceleration generated on the vehicle. The acceleration sensor 45 outputs the detection result to the acceleration information acquisition unit 58 of the recording control device 50. The acceleration sensor 45 is, for example, a sensor that detects acceleration in three axial directions. The three-axis directions are the front-rear direction, the left-right direction, and the up-down direction of the vehicle.

GPS受信部46は、図示しないGPS衛星から電波を受信する。GPS受信部46は、受信した電波の信号を記録制御装置50の位置情報取得部59へ出力する。 The GPS receiving unit 46 receives radio waves from GPS satellites (not shown). The GPS receiving unit 46 outputs the signal of the received radio wave to the position information acquisition unit 59 of the recording control device 50.

通信部47は、通信ユニットである。通信部47は、サーバ装置80とデータを送受信可能に接続する。 The communication unit 47 is a communication unit. The communication unit 47 connects to the server device 80 so as to be able to transmit and receive data.

記録制御装置50は、例えば、CPUなどで構成された演算処理装置(制御装置)である。記録制御装置50は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。記録制御装置50には図示しない内部メモリが含まれ、内部メモリは記録制御装置50におけるデータの一時記憶などに用いられる。記録制御装置50は、バス50Xに接続された、映像データ取得部51と、バッファメモリ52と、映像データ処理部53と、記録制御部54と、再生制御部55と、操作制御部56と、表示制御部57と、加速度情報取得部58と、位置情報取得部59と、地点情報取得部60と、閾値設定部61と、イベント検出部62と、俯瞰映像生成部63と、送信制御部64とを有する。 The recording control device 50 is, for example, an arithmetic processing device (control device) composed of a CPU or the like. The recording control device 50 loads a program stored in a storage unit (not shown) into the memory and executes an instruction included in the program. The recording control device 50 includes an internal memory (not shown), and the internal memory is used for temporary storage of data in the recording control device 50 and the like. The recording control device 50 includes a video data acquisition unit 51, a buffer memory 52, a video data processing unit 53, a recording control unit 54, a playback control unit 55, an operation control unit 56, and the like, which are connected to the bus 50X. Display control unit 57, acceleration information acquisition unit 58, position information acquisition unit 59, point information acquisition unit 60, threshold value setting unit 61, event detection unit 62, bird's-eye view image generation unit 63, and transmission control unit 64. And have.

映像データ取得部51は、車両の周辺を撮影するカメラユニット41が撮影した映像データを取得して、バッファメモリ52に出力する。 The video data acquisition unit 51 acquires video data taken by the camera unit 41 that shoots the periphery of the vehicle and outputs the video data to the buffer memory 52.

バッファメモリ52は、記録制御装置50が備える内部メモリであり、映像データ取得部51が取得した一定時間分の映像データを、更新しながら一時的に記録するメモリである。 The buffer memory 52 is an internal memory included in the recording control device 50, and is a memory for temporarily recording the video data for a certain period of time acquired by the video data acquisition unit 51 while updating it.

映像データ処理部53は、バッファメモリ52が一時的に記憶している映像データを、例えばH.264やMPEG−4(Moving Picture Experts Group)などの任意の方式のコーデックで符号化された、例えばMP4形式などの任意のファイル形式に変換する。映像データ処理部53は、バッファメモリ52が一時的に記憶している映像データから、一定時間分のファイルとした映像データを生成する。具体例として、映像データ処理部53は、バッファメモリ52が一時的に記憶している映像データを、記録順に60秒間の映像データをファイルとして生成する。映像データ処理部53は、生成した映像データを記録制御部54へ出力する。また、映像データ処理部53は、生成した映像データを表示制御部57へ出力する。ファイルとして生成される映像データの期間は、一例として60秒としたが、これには限定されない。 The video data processing unit 53 stores the video data temporarily stored in the buffer memory 52, for example, by H.I. Convert to any file format encoded by any codec such as 264 or MPEG-4 (Moving Picture Experts Group), for example MP4 format. The video data processing unit 53 generates video data as a file for a certain period of time from the video data temporarily stored in the buffer memory 52. As a specific example, the video data processing unit 53 generates video data temporarily stored in the buffer memory 52 as a file for 60 seconds in the recording order. The video data processing unit 53 outputs the generated video data to the recording control unit 54. Further, the video data processing unit 53 outputs the generated video data to the display control unit 57. The period of the video data generated as a file is set to 60 seconds as an example, but the period is not limited to this.

記録制御部54は、映像データ処理部53でファイル化された映像データを、記録部42に記録させる制御を行う。記録制御部54は、車両のアクセサリ電源がONであるときなど、ループ記録処理を実行する期間は、映像データ処理部53でファイル化された映像データを、上書き可能な映像データとして、記録部42に記録する。より詳しくは、記録制御部54は、ループ記録処理を実行する期間は、映像データ処理部53が生成した映像データを記録部42に記録し続け、記録部42の容量が一杯になった場合、最も古い映像データに新しい映像データを上書きして記録する。 The recording control unit 54 controls the recording unit 42 to record the video data filed by the video data processing unit 53. During the period when the loop recording process is executed, such as when the accessory power supply of the vehicle is turned on, the recording control unit 54 uses the video data filed by the video data processing unit 53 as overwriteable video data in the recording unit 42. Record in. More specifically, when the recording control unit 54 continues to record the video data generated by the video data processing unit 53 in the recording unit 42 during the period of executing the loop recording processing, and the capacity of the recording unit 42 becomes full, The oldest video data is overwritten with the new video data and recorded.

さらに、記録制御部54は、イベント検出部62がイベントを検出した場合、イベントの検出に対応する映像データをイベント記録データとして保存する。 Further, when the event detection unit 62 detects an event, the recording control unit 54 saves the video data corresponding to the event detection as the event recording data.

再生制御部55は、操作制御部56から出力された再生操作の制御信号に基づいて、記録部42に記録されたループ記録映像データまたはイベント記録データを再生するよう制御する。 The reproduction control unit 55 controls to reproduce the loop recorded video data or the event recording data recorded in the recording unit 42 based on the control signal of the reproduction operation output from the operation control unit 56.

操作制御部56は、操作部43が受け付けた操作の操作情報を取得する。例えば、操作制御部56は、映像データの手動保存操作を示す保存操作情報、再生操作を示す再生操作情報、または、映像データの消去操作を示す消去操作情報を取得して制御信号を出力する。例えば、操作制御部56は、ループ記録を終了する操作を示す終了操作情報を取得して制御信号を出力する。 The operation control unit 56 acquires the operation information of the operation received by the operation unit 43. For example, the operation control unit 56 acquires the save operation information indicating the manual save operation of the video data, the reproduction operation information indicating the reproduction operation, or the erase operation information indicating the erase operation of the video data, and outputs the control signal. For example, the operation control unit 56 acquires end operation information indicating an operation for ending loop recording and outputs a control signal.

表示制御部57は、表示部44における映像データの表示を制御する。表示制御部57は、映像データを表示部44に出力させる映像信号を出力する。より詳しくは、表示制御部57は、カメラユニット41が撮影している映像、または、記録部42に記録されたループ記録映像データまたはイベント記録データの再生によって表示する映像信号を出力する。 The display control unit 57 controls the display of video data on the display unit 44. The display control unit 57 outputs a video signal for outputting the video data to the display unit 44. More specifically, the display control unit 57 outputs a video signal captured by the camera unit 41 or a video signal to be displayed by reproducing the loop recorded video data or the event recorded data recorded in the recording unit 42.

加速度情報取得部58は、加速度センサ45の検出結果から、車両に加わる加速度を示す加速度情報を取得する。 The acceleration information acquisition unit 58 acquires acceleration information indicating the acceleration applied to the vehicle from the detection result of the acceleration sensor 45.

位置情報取得部59は、GPS受信部46が受信した電波に基づいて、車両の現在の位置情報を公知の方法によって算出する。 The position information acquisition unit 59 calculates the current position information of the vehicle by a known method based on the radio waves received by the GPS reception unit 46.

地点情報取得部60は、サーバ装置80から、接触多発地点の地点情報を取得する。本実施形態では、地点情報取得部60は、経路案内装置20を介して、地図情報記憶部21に記憶した地図情報に含まれる接触多発地点の地点情報を取得する。 The point information acquisition unit 60 acquires the point information of the contact frequent occurrence point from the server device 80. In the present embodiment, the point information acquisition unit 60 acquires the point information of the contact-prone points included in the map information stored in the map information storage unit 21 via the route guidance device 20.

閾値設定部61は、地点情報取得部60が取得した接触多発地点の地点情報に基づいて、イベントを検出するための加速度の閾値を変更する。より詳しくは、閾値設定部61は、位置情報取得部59が取得した車両の位置情報と、地点情報取得部60が取得した地点情報とに基づいて、車両の現在位置が地点情報の周辺である場合、イベントを検出するための加速度の閾値を変更する。閾値設定部61は、車両の現在位置が地点情報の周辺である場合、閾値を通常の第一閾値より小さく変更して第二閾値に設定する。例えば、通常閾値(第一閾値)が1.5Gである場合、第二閾値は0.6Gである。閾値設定部61は、車両の現在位置が地点情報の周辺ではない場合、閾値を第一閾値に設定する。 The threshold value setting unit 61 changes the acceleration threshold value for detecting an event based on the point information of the contact frequent occurrence point acquired by the point information acquisition unit 60. More specifically, in the threshold value setting unit 61, the current position of the vehicle is around the point information based on the position information of the vehicle acquired by the position information acquisition unit 59 and the point information acquired by the point information acquisition unit 60. If so, change the acceleration threshold for detecting the event. When the current position of the vehicle is around the point information, the threshold value setting unit 61 changes the threshold value to be smaller than the normal first threshold value and sets the threshold value to the second threshold value. For example, when the normal threshold (first threshold) is 1.5G, the second threshold is 0.6G. The threshold value setting unit 61 sets the threshold value as the first threshold value when the current position of the vehicle is not around the point information.

車両の現在位置が地点情報の周辺であるとは、車両の現在位置が地点情報と一致する場合、車両の現在位置が地点情報の範囲に含まれる場合、または、車両の現在位置が地点情報から所定範囲内に含まれる場合である。 The current position of the vehicle is around the point information when the current position of the vehicle matches the point information, the current position of the vehicle is included in the range of the point information, or the current position of the vehicle is from the point information. This is a case where it is included within a predetermined range.

イベント検出部62は、加速度情報取得部58が取得した加速度が、閾値設定部61が設定した閾値以上である場合に、イベントが発生したことを検出する。より詳しくは、イベント検出部62は、加速度センサ45が検出した加速度における閾値以上の加速度が検出されると、イベントとして検出する。 The event detection unit 62 detects that an event has occurred when the acceleration acquired by the acceleration information acquisition unit 58 is equal to or greater than the threshold value set by the threshold value setting unit 61. More specifically, the event detection unit 62 detects an acceleration equal to or greater than a threshold value in the acceleration detected by the acceleration sensor 45 as an event.

俯瞰映像生成部63は、イベント検出部62がイベントの発生を検出した場合、イベントの検出に対応する周辺映像データに視点変換処理および合成処理を行い、車両から所定の表示範囲を表示する俯瞰映像100を生成する。俯瞰映像生成部63は、生成した俯瞰映像100を送信制御部64および表示制御部57に出力する。俯瞰映像生成部63は、視点変換処理部631と、切出処理部632と、合成処理部633とを有する。 When the event detection unit 62 detects the occurrence of an event, the bird's-eye view image generation unit 63 performs viewpoint conversion processing and composition processing on the peripheral image data corresponding to the event detection, and displays the bird's-eye view image in a predetermined display range from the vehicle. Generate 100. The bird's-eye view image generation unit 63 outputs the generated bird's-eye view image 100 to the transmission control unit 64 and the display control unit 57. The bird's-eye view image generation unit 63 includes a viewpoint conversion processing unit 631, a cutting processing unit 632, and a composition processing unit 633.

視点変換処理部631は、映像データ取得部51で取得した周辺映像データに対して、車両の上方から見下ろすように視点変換処理を行う。より詳しくは、視点変換処理部631は、カメラユニット41で撮影した周辺映像データに基づいて、視点変換処理を行った映像を生成する。視点変換処理の方法は、公知のいずれの方法でもよく、限定されない。視点変換処理部631は、視点変換処理を行った周辺映像データを切出処理部632に出力する。 The viewpoint conversion processing unit 631 performs viewpoint conversion processing on the peripheral video data acquired by the video data acquisition unit 51 so as to look down from above the vehicle. More specifically, the viewpoint conversion processing unit 631 generates an image that has undergone the viewpoint conversion processing based on the peripheral image data captured by the camera unit 41. The method of the viewpoint conversion process may be any known method and is not limited. The viewpoint conversion processing unit 631 outputs the peripheral video data that has undergone the viewpoint conversion processing to the cutout processing unit 632.

切出処理部632は、視点変換処理を行った周辺映像データから所定の範囲の映像を切出す切出処理を行う。どの範囲を切出範囲とするかは、あらかじめ登録され記憶されている。切出処理部632は、切出処理を行った映像の映像データを合成処理部633に出力する。 The cutout processing unit 632 performs a cutout process for cutting out a predetermined range of video from the peripheral video data that has undergone the viewpoint conversion process. Which range is to be the cutout range is registered and stored in advance. The cutout processing unit 632 outputs the video data of the cutout processed video to the synthesis processing unit 633.

合成処理部633は、切出処理を行った映像データを合成する合成処理を行う。合成処理部633は、合成した映像に車両アイコン110を表示した俯瞰映像100を生成する。 The compositing processing unit 633 performs a compositing process for synthesizing the cutout processed video data. The composition processing unit 633 generates a bird's-eye view image 100 in which the vehicle icon 110 is displayed on the combined image.

合成処理部633は、さらに、接触多発地点において、過去に同じ接触多発地点において、車体を擦った走行経路と、車両の予測走行経路とを、俯瞰映像100に重畳して合成してもよい。車体を擦った走行経路は、地点情報とともにサーバ装置80から経路案内装置20へ送信されている。車両の予測走行経路は、車両の操舵角などの走行状態を示す走行情報から予測する。 Further, the synthesis processing unit 633 may superimpose and synthesize the traveling route that rubbed the vehicle body and the predicted traveling route of the vehicle at the same contact frequent occurrence point in the past at the contact frequent occurrence point on the bird's-eye view image 100. The traveling route that rubs the vehicle body is transmitted from the server device 80 to the route guidance device 20 together with the point information. The predicted traveling route of the vehicle is predicted from the traveling information indicating the traveling state such as the steering angle of the vehicle.

図4を用いて、俯瞰映像100について説明する。図4は、俯瞰映像100の一例を説明する図である。俯瞰映像100は、車両から2m程度の範囲を表示する。俯瞰映像100は、前方映像101と後方映像102と左側方映像103と右側方映像104と、前方映像101と後方映像102と左側方映像103と右側方映像104とで囲まれた中央部に位置する車両アイコン110とを含む。車両アイコン110は、車両の位置と向きとを示す。車両アイコン110は、前後方向を俯瞰映像100の前後方向と平行にして、中央部に配置されている。 The bird's-eye view image 100 will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of the bird's-eye view image 100. The bird's-eye view image 100 displays a range of about 2 m from the vehicle. The bird's-eye view image 100 is located in the central portion surrounded by the front image 101, the rear image 102, the left image 103, the right image 104, the front image 101, the rear image 102, the left image 103, and the right image 104. Includes the vehicle icon 110 to be used. The vehicle icon 110 indicates the position and orientation of the vehicle. The vehicle icon 110 is arranged in the central portion so that the front-rear direction is parallel to the front-rear direction of the bird's-eye view image 100.

送信制御部64は、俯瞰映像生成部63が生成した俯瞰映像100の映像データと、俯瞰映像100の撮影位置の位置情報とを、サーバ装置80へ、通信部47を介して送信する。 The transmission control unit 64 transmits the video data of the bird's-eye view image 100 generated by the bird's-eye view image generation unit 63 and the position information of the shooting position of the bird's-eye view image 100 to the server device 80 via the communication unit 47.

<サーバ装置>
図1に戻って、サーバ装置80は、複数の車両に搭載された車載装置10から取得した、俯瞰映像100の映像データに基づいて、接触多発地点を解析する。サーバ装置80は、通信部81と、解析用データ記憶部82と、地点情報記憶部83と、解析制御装置90とを有する。
<Server device>
Returning to FIG. 1, the server device 80 analyzes the contact frequent occurrence points based on the video data of the bird's-eye view video 100 acquired from the vehicle-mounted devices 10 mounted on the plurality of vehicles. The server device 80 includes a communication unit 81, an analysis data storage unit 82, a point information storage unit 83, and an analysis control device 90.

通信部81は、通信ユニットである。通信部81は、複数の車両に搭載された車載装置10とデータを送受信可能に接続する。 The communication unit 81 is a communication unit. The communication unit 81 connects to the in-vehicle devices 10 mounted on a plurality of vehicles so as to be able to transmit and receive data.

解析用データ記憶部82は、解析用データ取得部92が記録装置40から取得した、俯瞰映像100の映像データと位置情報とを含む解析用データを関連付けて記憶する。解析用データ記憶部82は、通信部81を介して無線接続される外部記憶部であってもよい。 The analysis data storage unit 82 stores the video data of the bird's-eye view video 100 acquired from the recording device 40 by the analysis data acquisition unit 92 and the analysis data including the position information in association with each other. The analysis data storage unit 82 may be an external storage unit that is wirelessly connected via the communication unit 81.

地点情報記憶部83は、解析部93によって解析された、接触多発地点の地点情報を記憶する。地点情報記憶部83は、例えば、ハードディスク、または、光ディスクなどである。地点情報記憶部83は、通信部81を介して無線接続される外部記憶部であってもよい。 The point information storage unit 83 stores the point information of the contact frequent occurrence points analyzed by the analysis unit 93. The point information storage unit 83 is, for example, a hard disk, an optical disk, or the like. The point information storage unit 83 may be an external storage unit that is wirelessly connected via the communication unit 81.

解析制御装置90は、例えば、CPUなどで構成された演算処理装置(制御装置)である。解析制御装置90は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。解析制御装置90は、通知制御部91と、解析用データ取得部92と、解析部93と、通知制御部94とを有する。解析制御装置90には図示しない内部メモリが含まれ、内部メモリは解析制御装置90におけるデータの一時記憶などに用いられる。 The analysis control device 90 is, for example, an arithmetic processing device (control device) composed of a CPU or the like. The analysis control device 90 loads a program stored in a storage unit (not shown) into the memory and executes an instruction included in the program. The analysis control device 90 includes a notification control unit 91, an analysis data acquisition unit 92, an analysis unit 93, and a notification control unit 94. The analysis control device 90 includes an internal memory (not shown), and the internal memory is used for temporary storage of data in the analysis control device 90.

通知制御部91は、通信部81を介した通信を制御する。通知制御部91は、通信部81を介して複数の車両に搭載された車載装置10と通信する。 The notification control unit 91 controls communication via the communication unit 81. The notification control unit 91 communicates with the in-vehicle device 10 mounted on a plurality of vehicles via the communication unit 81.

解析用データ取得部92は、複数の車両に搭載された記録装置40から、車両の周辺の俯瞰映像100の映像データと位置情報とを、解析用データとして取得する。より詳しくは、解析用データ取得部92は、俯瞰映像100の映像データと位置情報とを、複数の車両に搭載された記録装置40から取得する。解析用データ取得部92は、取得した俯瞰映像100の映像データと位置情報とを解析用データ記憶部82に記憶する。 The analysis data acquisition unit 92 acquires the video data and the position information of the bird's-eye view video 100 around the vehicle from the recording devices 40 mounted on the plurality of vehicles as analysis data. More specifically, the analysis data acquisition unit 92 acquires the video data and the position information of the bird's-eye view video 100 from the recording devices 40 mounted on the plurality of vehicles. The analysis data acquisition unit 92 stores the acquired video data and position information of the bird's-eye view image 100 in the analysis data storage unit 82.

解析部93は、解析用データ取得部92が取得した解析用データに基づいて、軽微な接触が発生しやすい地点、言い換えると、軽微な接触の接触多発地点を解析する。より詳しくは、解析部93は、解析用データ記憶部82に記憶した、俯瞰映像100の映像データを画像処理して、接触多発地点を解析する。解析部93は、俯瞰映像100の映像データを画像処理して、車両と周辺の物体とが接触したか否かを判定する。俯瞰映像100に基づいて判定するので、車両と周辺の物体との相対的な位置関係を認識しやすい。これにより、車両と周辺物体とが接触したか否かに加えて、接触の程度、および、接触した車両の接触箇所が高精度に認識される。 Based on the analysis data acquired by the analysis data acquisition unit 92, the analysis unit 93 analyzes points where minor contacts are likely to occur, in other words, points where minor contacts occur frequently. More specifically, the analysis unit 93 performs image processing on the video data of the bird's-eye view video 100 stored in the analysis data storage unit 82 to analyze the contact frequent occurrence points. The analysis unit 93 performs image processing on the video data of the bird's-eye view video 100 to determine whether or not the vehicle and surrounding objects have come into contact with each other. Since the determination is made based on the bird's-eye view image 100, it is easy to recognize the relative positional relationship between the vehicle and surrounding objects. As a result, in addition to whether or not the vehicle and the peripheral object are in contact with each other, the degree of contact and the contact point of the contacted vehicle are recognized with high accuracy.

例えば、図4に示す俯瞰映像100を画像処理すると、曲がり角Pにおいて、車両の右側部が壁に接触していることが認識される。また、車両の右側部と壁とは、接している程度であって、車両が壁に食い込んだり、変形したりしている状況ではないことが認識される。これにより、車両に擦り傷が付く程度の軽微な接触であることが認識される。 For example, when the bird's-eye view image 100 shown in FIG. 4 is image-processed, it is recognized that the right side portion of the vehicle is in contact with the wall at the corner P. Further, it is recognized that the right side portion of the vehicle and the wall are only in contact with each other, and the vehicle is not in a state of biting into or deforming the wall. As a result, it is recognized that the contact is so slight that the vehicle is scratched.

解析部93は、所定期間に、同じ位置または所定の範囲で、所定回数の接触が発生したことを示す場合、その地点を接触多発地点とする。解析部93は、解析された接触多発地点の地点情報を地点情報記憶部83に記憶する。 When the analysis unit 93 indicates that a predetermined number of contacts have occurred at the same position or within a predetermined range in a predetermined period, that point is set as a contact frequent occurrence point. The analysis unit 93 stores the analyzed point information of the contact frequent occurrence point in the point information storage unit 83.

解析部93は、例えば、車種ごと、車両の形状ごと、時間帯ごと、曜日ごとなどに、接触多発地点を解析してもよい。 The analysis unit 93 may analyze the contact frequent occurrence points for each vehicle type, each vehicle shape, each time zone, each day of the week, and the like.

通知制御部94は、解析部93によって解析された接触多発地点の地点情報を、車載装置10へ通知する。より詳しくは、通知制御部94は、地点情報記憶部83に記憶された、更新前と更新後の地点情報の差分を示す地点情報を経路案内装置20へ送信するよう制御する。通知制御部94は、地点情報記憶部83に記憶された地点情報が更新されるたびに、すべての経路案内装置20へ地点情報を送信してもよい。または、通知制御部94は、例えば、毎日所定時刻ごとのような所定期間ごとに、すべての経路案内装置20へ地点情報を送信してもよい。通知制御部94は、経路案内装置20から地点情報の送信要求があった場合、当該経路案内装置20へ地点情報を送信してもよい。 The notification control unit 94 notifies the in-vehicle device 10 of the point information of the contact frequent occurrence point analyzed by the analysis unit 93. More specifically, the notification control unit 94 controls to transmit the point information stored in the point information storage unit 83, which indicates the difference between the point information before and after the update, to the route guidance device 20. The notification control unit 94 may transmit the point information to all the route guidance devices 20 every time the point information stored in the point information storage unit 83 is updated. Alternatively, the notification control unit 94 may transmit the point information to all the route guidance devices 20 at predetermined periods such as every day at predetermined times. When the route guidance device 20 requests the transmission of the point information, the notification control unit 94 may transmit the point information to the route guidance device 20.

<サーバ装置における情報処理>
次に、図5を用いて、サーバ装置80における処理の流れについて説明する。図5は、第一実施形態に係るサーバ装置80における処理の流れを示すフローチャートである。
<Information processing in the server device>
Next, the flow of processing in the server device 80 will be described with reference to FIG. FIG. 5 is a flowchart showing a processing flow in the server device 80 according to the first embodiment.

解析制御装置90は、解析用データ取得部92によって、複数の車両に搭載された記録装置40から、俯瞰映像100の映像データと位置情報とを含む解析用データを取得する(ステップS101)。取得した解析用データは、解析用データ記憶部82に記憶する。 The analysis control device 90 acquires analysis data including image data and position information of the bird's-eye view image 100 from recording devices 40 mounted on a plurality of vehicles by the analysis data acquisition unit 92 (step S101). The acquired analysis data is stored in the analysis data storage unit 82.

解析制御装置90は、解析部93によって、接触多発地点を解析する(ステップS102)。より詳しくは、解析部93によって、解析用データ取得部92が取得して解析用データ記憶部82に記憶した、俯瞰映像100の映像データと位置情報とを含む解析用データに基づいて、接触多発地点を解析する。解析部93は、所定期間に、同じ位置または所定の範囲で、所定回数の接触が発生したことを示す場合、その地点を接触多発地点とする。解析制御装置90は、ステップS103に進む。 The analysis control device 90 analyzes the contact frequent occurrence points by the analysis unit 93 (step S102). More specifically, the analysis unit 93 acquires the analysis data acquisition unit 92 and stores it in the analysis data storage unit 82. Analyze the point. When the analysis unit 93 indicates that a predetermined number of contacts have occurred at the same position or within a predetermined range in a predetermined period, that point is set as a contact frequent occurrence point. The analysis control device 90 proceeds to step S103.

解析制御装置90は、解析部93によって解析された、接触多発地点の地点情報を地点情報記憶部83に記憶する(ステップS103)。解析制御装置90は、処理を終了する。 The analysis control device 90 stores the point information of the contact frequent occurrence points analyzed by the analysis unit 93 in the point information storage unit 83 (step S103). The analysis control device 90 ends the process.

これらの処理が終わると、通知制御部94は、地点情報記憶部83に記憶された更新前と更新後の地点情報の差分を示す地点情報を、経路案内装置20へ送信する。 When these processes are completed, the notification control unit 94 transmits the point information indicating the difference between the point information before and after the update stored in the point information storage unit 83 to the route guidance device 20.

<記録装置における情報処理>
次に、図6を用いて、記録装置40における処理の流れについて説明する。図6は、第一実施形態に係る記録装置40における処理の流れを示すフローチャートである。
<Information processing in the recording device>
Next, the flow of processing in the recording device 40 will be described with reference to FIG. FIG. 6 is a flowchart showing a processing flow in the recording device 40 according to the first embodiment.

記録制御装置50は、イベント検出およびループ記録を開始する(ステップS111)。より詳しくは、イベント検出部62によって、加速度センサ45の検出結果に基づいた、イベント検出を開始する。映像データ処理部53によって、バッファメモリ52に記録された映像データから、所定期間の映像ごとのループ記録映像データを生成する。記録制御部54によって、ループ記録映像データを記録部42に記録させる。記録制御装置50は、ステップS112に進む。 The recording control device 50 starts event detection and loop recording (step S111). More specifically, the event detection unit 62 starts event detection based on the detection result of the acceleration sensor 45. The video data processing unit 53 generates loop recorded video data for each video for a predetermined period from the video data recorded in the buffer memory 52. The recording control unit 54 causes the recording unit 42 to record the loop recording video data. The recording control device 50 proceeds to step S112.

記録制御装置50は、車両の現在位置が接触多発地点であるか否かを判定する(ステップS112)。より詳しくは、記録制御装置50は、位置情報取得部59が取得した車両の現在位置の位置情報が、地点情報取得部60が取得した地点情報の周辺であるか否かによって、車両の現在位置が接触多発地点であるか否かを判定する。車両の現在位置の位置情報が地点情報の周辺である場合、接触多発地点であると判定して(ステップS112でYes)、ステップS116へ進む。車両の現在位置の位置情報が地点情報の周辺ではない場合、接触多発地点ではないと判定して(ステップS112でNo)、ステップS113へ進む。 The recording control device 50 determines whether or not the current position of the vehicle is a contact frequent occurrence point (step S112). More specifically, the recording control device 50 determines the current position of the vehicle depending on whether or not the position information of the current position of the vehicle acquired by the position information acquisition unit 59 is around the point information acquired by the point information acquisition unit 60. Determines whether or not is a contact frequent occurrence point. When the position information of the current position of the vehicle is around the point information, it is determined that the contact frequently occurs point (Yes in step S112), and the process proceeds to step S116. If the position information of the current position of the vehicle is not around the point information, it is determined that the point is not a contact frequent occurrence point (No in step S112), and the process proceeds to step S113.

接触多発地点ではないと判定した場合(ステップS112でNo)、閾値設定部61によって、イベント検出の閾値を第一閾値に設定する(ステップS113)。記録制御装置50は、ステップS114へ進む。 When it is determined that it is not a contact frequent occurrence point (No in step S112), the threshold value setting unit 61 sets the threshold value for event detection to the first threshold value (step S113). The recording control device 50 proceeds to step S114.

記録制御装置50は、イベント検出部62によって、イベントを検出したか否かを判定する(ステップS114)。ステップS114では、通常閾値である第一閾値で、事故などをイベントとして検出する。イベント検出部62によって、イベントが検出された場合(ステップS114でYes)、ステップS115に進む。イベント検出部62によって、イベントが検出されなかった場合(ステップS114でNo)、ステップS121に進む。 The recording control device 50 determines whether or not an event has been detected by the event detection unit 62 (step S114). In step S114, an accident or the like is detected as an event at the first threshold value, which is a normal threshold value. If an event is detected by the event detection unit 62 (Yes in step S114), the process proceeds to step S115. If no event is detected by the event detection unit 62 (No in step S114), the process proceeds to step S121.

イベントが検出された場合(ステップS114でYes)、記録制御装置50は、イベント検出前後の映像データであるイベント記録データを保存する(ステップS115)。より詳しくは、映像データ処理部53によって、記録部42に記録されたループ記録映像データから、少なくともイベントの発生時点を含む映像データをイベント記録データとして生成する。記録制御部54によって、イベント記録データを記録部42に保存する。記録制御装置50は、ステップS121に進む。 When an event is detected (Yes in step S114), the recording control device 50 saves the event recording data which is the video data before and after the event detection (step S115). More specifically, the video data processing unit 53 generates video data including at least the time when an event occurs as event recording data from the loop recorded video data recorded in the recording unit 42. The recording control unit 54 saves the event recording data in the recording unit 42. The recording control device 50 proceeds to step S121.

接触多発地点であると判定した場合(ステップS112でYes)、閾値設定部61によって、イベント検出の閾値を第一閾値より小さい第二閾値に設定する(ステップS116)。記録制御装置50は、ステップS117へ進む。 When it is determined that the contact frequently occurs point (Yes in step S112), the threshold value setting unit 61 sets the threshold value for event detection to a second threshold value smaller than the first threshold value (step S116). The recording control device 50 proceeds to step S117.

接触多発地点であると判定した場合(ステップS112でYes)、記録制御装置50は、図示しない警告出力制御部によって、図示しないスピーカから、接触多発地点であることを警告する警告音声を出力させてもよい。さらに、図示しないセンサによって、車両と周辺の物体との距離を測距して、距離が閾値以下になった場合に、警告音声を出力させてもよい。 When it is determined that the contact frequently occurs point (Yes in step S112), the recording control device 50 causes a warning output control unit (not shown) to output a warning voice warning that the contact frequently occurs point from a speaker (not shown). May be good. Further, a sensor (not shown) may be used to measure the distance between the vehicle and a surrounding object, and output a warning voice when the distance becomes equal to or less than a threshold value.

記録制御装置50は、イベント検出部62によって、イベントを検出したか否かを判定する(ステップS117)。ステップS117では通常閾値より小さい第二閾値で、事故としては検出されない、車両と周辺の物体との軽微な接触などをイベントとして検出する。より詳しくは、イベント検出部62によって、イベントが検出された場合(ステップS117でYes)、ステップS118に進む。イベント検出部62によって、イベントが検出されなかった場合(ステップS117でNo)、ステップS121に進む。 The recording control device 50 determines whether or not an event has been detected by the event detection unit 62 (step S117). In step S117, a second threshold value smaller than the normal threshold value is detected as an event, such as a slight contact between the vehicle and a surrounding object, which is not detected as an accident. More specifically, when an event is detected by the event detection unit 62 (Yes in step S117), the process proceeds to step S118. If no event is detected by the event detection unit 62 (No in step S117), the process proceeds to step S121.

イベントが検出された場合(ステップS117でYes)、イベント検出前後の映像データであるイベント記録データと位置情報とを保存する(ステップS118)。より詳しくは、映像データ処理部53によって、記録部42に記録されたループ記録映像データから、少なくともイベントの発生時点を含む映像データをイベント記録データとして生成する。記録制御部54によって、イベント記録データを記録部42に保存する。記録制御部54によって、イベント記録データとともに、位置情報を保存する。記録制御装置50は、ステップS119に進む。 When an event is detected (Yes in step S117), the event recording data and the position information, which are video data before and after the event detection, are saved (step S118). More specifically, the video data processing unit 53 generates video data including at least the time when an event occurs as event recording data from the loop recorded video data recorded in the recording unit 42. The recording control unit 54 saves the event recording data in the recording unit 42. The recording control unit 54 saves the position information together with the event recording data. The recording control device 50 proceeds to step S119.

記録制御装置50は、俯瞰映像生成部63によって、イベント記録データに対応する俯瞰映像100を生成する(ステップS119)。記録制御装置50は、ステップS120へ進む。 The recording control device 50 generates the bird's-eye view image 100 corresponding to the event recording data by the bird's-eye view image generation unit 63 (step S119). The recording control device 50 proceeds to step S120.

俯瞰映像生成部63が生成した俯瞰映像100は、表示制御部57によって、表示部44に表示されてもよい。俯瞰映像100には、車体を擦った走行経路と、車両の予測走行経路とが合成されていてもよい。 The bird's-eye view image 100 generated by the bird's-eye view image generation unit 63 may be displayed on the display unit 44 by the display control unit 57. In the bird's-eye view image 100, a traveling route that rubs the vehicle body and a predicted traveling route of the vehicle may be combined.

記録制御装置50は、送信制御部64によって、生成した俯瞰映像100を、車両の位置情報とともにサーバ装置80へ送信する(ステップS120)。記録制御装置50は、ステップS121へ進む。 The recording control device 50 transmits the bird's-eye view image 100 generated by the transmission control unit 64 to the server device 80 together with the position information of the vehicle (step S120). The recording control device 50 proceeds to step S121.

記録制御装置50は、イベント検出およびループ記録を終了するか否かを判定する(ステップS121)。より詳しくは、操作制御部56によって、終了操作情報が出力された場合や、車両の動作が終了するなど、任意の条件で、イベント検出およびループ記録を終了すると判定して(ステップS121でYes)、処理を終了する。操作制御部56によって、終了操作情報が出力されていないと、イベント検出およびループ記録を終了しないと判定して(ステップS121でNo)、ステップS112の処理を再度実行する。 The recording control device 50 determines whether or not to end the event detection and loop recording (step S121). More specifically, it is determined by the operation control unit 56 that the event detection and the loop recording are finished under any conditions such as when the end operation information is output or the operation of the vehicle is finished (Yes in step S121). , End the process. If the operation control unit 56 does not output the end operation information, it is determined that the event detection and the loop recording are not ended (No in step S121), and the process of step S112 is executed again.

このようにして、サーバ装置80は、複数の車両に搭載された車載装置10から取得した、俯瞰映像100の映像データに基づいて、接触多発地点を解析する。サーバ装置80は、接触多発地点を示す地点情報を、車載装置10の経路案内装置20へ送信する。車載装置10の記録装置40は、車両の現在位置が、接触多発地点である場合、イベント検出の閾値を第二閾値に設定して、軽微な接触をイベントとして検出可能にする。 In this way, the server device 80 analyzes the contact frequent occurrence points based on the video data of the bird's-eye view video 100 acquired from the vehicle-mounted devices 10 mounted on the plurality of vehicles. The server device 80 transmits the point information indicating the frequent contact points to the route guidance device 20 of the in-vehicle device 10. When the current position of the vehicle is a contact frequent occurrence point, the recording device 40 of the in-vehicle device 10 sets the threshold value for event detection to the second threshold value so that a slight contact can be detected as an event.

上述したように、本実施形態によれば、複数の車両に搭載された車載装置10から取得した、俯瞰映像100の映像データに基づいて、接触多発地点を解析することができる。本実施形態では、俯瞰映像100を画像認識するので、車両と周辺の物体との相対的な位置関係を高精度に認識することができる。本実施形態では、接触多発地点を高精度に解析した接触多発地点の地点情報を、車載装置10へ通知することができる。本実施形態では、車両の現在位置が、接触多発地点である場合、車両の運転者に警告することができる。このように、本実施形態は、車両と周辺の物体との軽微な接触を起こしやすい地点を適切に車両の運転者に通知することができる。 As described above, according to the present embodiment, it is possible to analyze the contact frequent occurrence points based on the video data of the bird's-eye view video 100 acquired from the vehicle-mounted devices 10 mounted on the plurality of vehicles. In the present embodiment, since the bird's-eye view image 100 is image-recognized, the relative positional relationship between the vehicle and surrounding objects can be recognized with high accuracy. In the present embodiment, it is possible to notify the in-vehicle device 10 of the point information of the contact frequent occurrence point obtained by analyzing the contact frequent occurrence point with high accuracy. In the present embodiment, when the current position of the vehicle is a contact frequent occurrence point, the driver of the vehicle can be warned. As described above, in the present embodiment, it is possible to appropriately notify the driver of the vehicle of a point at which a slight contact between the vehicle and a surrounding object is likely to occur.

しかも、本実施形態では、車両の現在位置が、接触多発地点である場合、イベント検出の閾値を第二閾値に設定して、車両と周辺の物体との軽微な接触などをイベントとして検出することができる。 Moreover, in the present embodiment, when the current position of the vehicle is a contact frequent occurrence point, the threshold value for event detection is set to the second threshold value, and a slight contact between the vehicle and a surrounding object is detected as an event. Can be done.

本実施形態では、接触多発地点において、第二閾値でイベントを検出した場合、イベント記録データに対応する俯瞰映像100を生成して、サーバ装置80へ送信することができる。本実施形態によれば、車両と周辺の物体との軽微な接触などの情報を共有することができる。 In the present embodiment, when an event is detected at the second threshold value at the contact frequent occurrence point, the bird's-eye view image 100 corresponding to the event record data can be generated and transmitted to the server device 80. According to the present embodiment, it is possible to share information such as a slight contact between the vehicle and a surrounding object.

本実施形態では、接触多発地点において、車体を擦った走行経路と、車両の予測走行経路とが合成された俯瞰映像100を表示することができる。本実施形態によれば、車両の運転者が適切な走行経路を認識することができるので、車両と周辺の物体との軽微な接触が発生することを抑制することができる。 In the present embodiment, it is possible to display the bird's-eye view image 100 in which the traveling route rubbing the vehicle body and the predicted traveling route of the vehicle are combined at the contact frequent occurrence point. According to the present embodiment, since the driver of the vehicle can recognize an appropriate traveling route, it is possible to suppress the occurrence of slight contact between the vehicle and surrounding objects.

本実施形態では、接触多発地点を通過しないように、経路を検索して案内することができる。本実施形態によれば、車両と周辺の物体との軽微な接触が発生することを抑制することができる。 In the present embodiment, the route can be searched and guided so as not to pass through the contact frequent occurrence point. According to this embodiment, it is possible to suppress the occurrence of slight contact between the vehicle and surrounding objects.

[第二実施形態]
図7を参照しながら、本実施形態に係る運転支援システム1について説明する。図7は、車両の底部を擦っている状態を説明する図である。本実施形態では、車両の底部を擦りやすい地点を解析する。運転支援システム1は、基本的な構成は第一実施形態の運転支援システム1と同様である。以下の説明においては、運転支援システム1と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。
[Second Embodiment]
The driving support system 1 according to the present embodiment will be described with reference to FIG. 7. FIG. 7 is a diagram illustrating a state in which the bottom of the vehicle is rubbed. In this embodiment, a point where the bottom of the vehicle is easily rubbed is analyzed. The basic configuration of the driving support system 1 is the same as that of the driving support system 1 of the first embodiment. In the following description, the same components as those of the driving support system 1 are designated by the same reference numerals or corresponding reference numerals, and detailed description thereof will be omitted.

記録装置40の記録制御装置50の送信制御部64は、サーバ装置80に、車両の周辺の俯瞰映像100の映像データと、俯瞰映像100が撮影された撮影位置の位置情報とともに、視点変換前の映像データとを送信する。 The transmission control unit 64 of the recording control device 50 of the recording device 40 sends the server device 80 the video data of the bird's-eye view image 100 around the vehicle and the position information of the shooting position where the bird's-eye view image 100 was shot, before the viewpoint conversion. Send video data.

サーバ装置80の解析用データ記憶部82は、解析用データ取得部92が記録装置40から取得した、車両の周辺の俯瞰映像100の映像データと位置情報と視点変換前の映像データとを関連付けて解析用データとして記憶する。 The analysis data storage unit 82 of the server device 80 associates the video data of the bird's-eye view video 100 around the vehicle acquired by the analysis data acquisition unit 92 from the recording device 40 with the position information and the video data before the viewpoint conversion. Store as analysis data.

解析用データ取得部92は、複数の車両に搭載された記録装置40から、車両の周辺の俯瞰映像100の映像データと位置情報と視点変換前の映像データとを、解析用データとして取得する。解析用データ取得部92は、取得した俯瞰映像100の映像データと位置情報と視点変換前の映像データとを解析用データとして解析用データ記憶部82に記憶する。解析用データは、映像データに加えて、擦った際の音声の音声データを含んでいてもよい。 The analysis data acquisition unit 92 acquires the video data of the bird's-eye view video 100 around the vehicle, the position information, and the video data before the viewpoint conversion as analysis data from the recording devices 40 mounted on the plurality of vehicles. The analysis data acquisition unit 92 stores the acquired video data of the bird's-eye view video 100, the position information, and the video data before the viewpoint conversion in the analysis data storage unit 82 as analysis data. The analysis data may include audio data of audio when rubbed, in addition to video data.

解析部93は、俯瞰映像100の映像データと視点変換前の映像データとを画像処理して、車両の底部と路面上の物体との軽微な接触が発生しやすい地点を、接触多発地点として解析する。解析部93は、俯瞰映像100の映像データと視点変換前の映像データとを画像処理して、車両の底部と路面上の物体とが接触したか否かを解析する。視点変換前の映像データを画像処理することにより、例えば、雪道の轍の間に残った雪、または、駐車場の出入口の段差のような、車両の周辺の路面上の物体の高さを認識する。解析部93は、車両の周辺の路面上の物体の高さが、車両の底部の路面からの高さより高い場合、車両の底部と物体とが接触したと判定する。 The analysis unit 93 processes the image data of the bird's-eye view image 100 and the image data before the viewpoint conversion, and analyzes a point where a slight contact between the bottom of the vehicle and an object on the road surface is likely to occur as a contact frequent occurrence point. do. The analysis unit 93 performs image processing on the video data of the bird's-eye view video 100 and the video data before the viewpoint conversion, and analyzes whether or not the bottom of the vehicle and an object on the road surface are in contact with each other. By image processing the video data before viewpoint conversion, the height of objects on the road surface around the vehicle, such as the snow remaining between the ruts of the snowy road or the steps at the entrance and exit of the parking lot, can be determined. recognize. When the height of the object on the road surface around the vehicle is higher than the height of the bottom of the vehicle from the road surface, the analysis unit 93 determines that the bottom of the vehicle and the object are in contact with each other.

上述したように、本実施形態によれば、複数の車両に搭載された車載装置10から取得した、俯瞰映像100の映像データと視点変換前の映像データとに基づいて、車両の底部と路面上の物体との接触の多発地点を解析することができる。本実施形態によれば、例えば、雪道の轍の間に残った雪、または、駐車場の出入口の段差のような、車両の周辺の路面上の物体の高さを高精度に認識することができる。 As described above, according to the present embodiment, the bottom of the vehicle and the road surface are based on the image data of the bird's-eye view image 100 and the image data before the viewpoint conversion acquired from the in-vehicle devices 10 mounted on the plurality of vehicles. It is possible to analyze the frequent occurrence points of contact with an object. According to the present embodiment, for example, the height of an object on the road surface around the vehicle, such as the snow remaining between the ruts of a snowy road or the step at the entrance / exit of a parking lot, is recognized with high accuracy. Can be done.

さて、これまで本発明に係る運転支援システム1について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよいものである。 Although the driving support system 1 according to the present invention has been described so far, it may be implemented in various different forms other than the above-described embodiment.

図示した運転支援システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。 Each component of the illustrated driving support system 1 is a functional concept and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of each device is not limited to the one shown in the figure, and all or part of each device is functionally or physically dispersed or integrated in an arbitrary unit according to the processing load and usage status of each device. You may.

運転支援システム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。 The configuration of the driving support system 1 is realized, for example, by a program loaded in a memory as software. In the above embodiment, it has been described as a functional block realized by cooperation of these hardware or software. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。 The above-mentioned components include those that can be easily assumed by those skilled in the art and those that are substantially the same. Further, the above configurations can be combined as appropriate. Further, various omissions, substitutions or changes of the configuration can be made without departing from the gist of the present invention.

1 運転支援システム
10 車載装置
20 経路案内装置
21 地図情報記憶部
30 経路案内制御装置
31 経路案内部
33 地点情報取得部
34 更新制御部
40 記録装置
41 カメラユニット
50 記録制御装置
51 映像データ取得部
54 記録制御部
60 地点情報取得部
61 閾値設定部
62 イベント検出部
63 俯瞰映像生成部
64 送信制御部
80 サーバ装置(解析装置)
90 解析制御装置
92 解析用データ取得部
93 解析部
94 通知制御部
100 俯瞰映像
1 Driving support system 10 In-vehicle device 20 Route guidance device 21 Map information storage unit 30 Route guidance control device 31 Route guidance unit 33 Point information acquisition unit 34 Update control unit 40 Recording device 41 Camera unit 50 Recording control device 51 Video data acquisition unit 54 Recording control unit 60 Point information acquisition unit 61 Threshold setting unit 62 Event detection unit 63 Bird's-eye view image generation unit 64 Transmission control unit 80 Server device (analysis device)
90 Analysis control device 92 Analysis data acquisition unit 93 Analysis unit 94 Notification control unit 100 Bird's-eye view video

Claims (6)

複数の車両に搭載された記録制御装置から、前記車両の周辺の俯瞰映像の映像データと前記俯瞰映像が撮影された位置の位置情報とを解析用データとして取得する解析用データ取得部と、
前記解析用データ取得部が取得した前記解析用データに基づいて、前記車両と前記車両の周辺の物体との軽微な接触が発生しやすい地点である接触多発地点を解析する解析部と、
前記解析部によって解析された前記接触多発地点の地点情報を、前記記録制御装置へ通知する通知制御部と、
を備える解析制御装置。
An analysis data acquisition unit that acquires the image data of the bird's-eye view image around the vehicle and the position information of the position where the bird's-eye view image was taken from the recording control devices mounted on a plurality of vehicles as analysis data.
Based on the analysis data acquired by the analysis data acquisition unit, an analysis unit that analyzes a contact frequent occurrence point, which is a point where a slight contact between the vehicle and an object around the vehicle is likely to occur, and an analysis unit.
A notification control unit that notifies the recording control device of the point information of the contact frequent occurrence point analyzed by the analysis unit, and
An analysis control device comprising.
前記解析用データ取得部は、さらに視点変換前の映像データを前記解析用データとして取得し、
前記解析部は、前記解析用データ取得部が取得した前記解析用データに基づいて、前記車両の底部と前記車両の路面上の物体との軽微な接触が発生しやすい地点を解析する、
請求項1に記載の解析制御装置。
The analysis data acquisition unit further acquires the video data before the viewpoint conversion as the analysis data.
Based on the analysis data acquired by the analysis data acquisition unit, the analysis unit analyzes a point where a slight contact between the bottom of the vehicle and an object on the road surface of the vehicle is likely to occur.
The analysis control device according to claim 1.
車両の周辺を撮影する撮影部が撮影した映像データを取得する映像データ取得部と、
前記車両に加わる加速度を示す加速度情報を取得する加速度情報取得部と、
前記車両と前記車両の周辺の物体との軽微な接触が発生しやすい地点を解析する解析装置から、前記地点の地点情報を取得する地点情報取得部と、
前記地点情報取得部が取得した前記地点情報と、前記車両の現在位置の位置情報とに基づいて、イベントを検出するための加速度の閾値を変更する閾値設定部と、
前記加速度情報取得部が取得した加速度情報が、前記閾値設定部が設定した閾値以上である場合にイベントが発生したことを検出するイベント検出部と、
前記イベント検出部がイベントの発生を検出した場合、イベントの検出に対応する映像データを保存する記録制御部と、
前記イベント検出部がイベントの発生を検出した場合、イベントの検出に対応する映像データから、前記車両の周辺の俯瞰映像を生成する俯瞰映像生成部と、
前記俯瞰映像生成部が生成した前記俯瞰映像の映像データを、前記解析装置へ通信部を介して送信する送信制御部と、
を備える記録制御装置。
The video data acquisition unit that acquires the video data taken by the shooting unit that shoots the surroundings of the vehicle,
An acceleration information acquisition unit that acquires acceleration information indicating the acceleration applied to the vehicle, and
A point information acquisition unit that acquires point information of the point from an analysis device that analyzes a point where a slight contact between the vehicle and an object around the vehicle is likely to occur.
A threshold setting unit that changes the acceleration threshold for detecting an event based on the point information acquired by the point information acquisition unit and the position information of the current position of the vehicle.
An event detection unit that detects that an event has occurred when the acceleration information acquired by the acceleration information acquisition unit is equal to or greater than the threshold value set by the threshold value setting unit.
When the event detection unit detects the occurrence of an event, the recording control unit that saves the video data corresponding to the event detection and
When the event detection unit detects the occurrence of an event, the bird's-eye view image generation unit that generates a bird's-eye view image of the surroundings of the vehicle from the video data corresponding to the event detection.
A transmission control unit that transmits the video data of the bird's-eye view video generated by the bird's-eye view video generation unit to the analysis device via the communication unit.
A recording control device comprising.
前記閾値設定部は、前記車両の現在位置が前記地点情報の周辺である場合、閾値を通常の第一閾値より小さい第二閾値に変更する、
請求項3に記載の記録制御装置。
When the current position of the vehicle is around the point information, the threshold value setting unit changes the threshold value to a second threshold value smaller than the normal first threshold value.
The recording control device according to claim 3.
請求項1または2に記載の解析制御装置と、
請求項3または4に記載の記録制御装置と、
を備える運転支援システム。
The analysis control device according to claim 1 or 2,
The recording control device according to claim 3 or 4,
Driving support system equipped with.
複数の車両に搭載された記録制御装置から、前記車両の周辺の俯瞰映像の映像データと前記俯瞰映像が撮影された位置の位置情報とを解析用データとして取得する解析用データ取得ステップと、
前記解析用データ取得ステップによって取得された前記解析用データに基づいて、前記車両と前記車両の周辺の物体との軽微な接触が発生しやすい地点である接触多発地点を解析する解析ステップと、
前記解析ステップによって解析された前記接触多発地点の地点情報を、前記記録制御装置へ通知する通知制御ステップと、
を含む解析制御方法。
An analysis data acquisition step of acquiring the image data of the bird's-eye view image around the vehicle and the position information of the position where the bird's-eye view image was taken from the recording control devices mounted on a plurality of vehicles as analysis data.
Based on the analysis data acquired by the analysis data acquisition step, an analysis step of analyzing a contact frequent occurrence point, which is a point where a slight contact between the vehicle and an object around the vehicle is likely to occur, and an analysis step.
A notification control step for notifying the recording control device of the point information of the contact frequent occurrence point analyzed by the analysis step, and
Analysis control method including.
JP2020012655A 2020-01-29 2020-01-29 Analysis control device, record control device, operation support system, and analysis control method Pending JP2021117905A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020012655A JP2021117905A (en) 2020-01-29 2020-01-29 Analysis control device, record control device, operation support system, and analysis control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020012655A JP2021117905A (en) 2020-01-29 2020-01-29 Analysis control device, record control device, operation support system, and analysis control method

Publications (1)

Publication Number Publication Date
JP2021117905A true JP2021117905A (en) 2021-08-10

Family

ID=77175008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020012655A Pending JP2021117905A (en) 2020-01-29 2020-01-29 Analysis control device, record control device, operation support system, and analysis control method

Country Status (1)

Country Link
JP (1) JP2021117905A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078393A (en) * 2002-08-13 2004-03-11 Nec Fielding Ltd System and program for taking emergency countermeasure to traffic accident
JP2008052399A (en) * 2006-08-23 2008-03-06 Alpine Electronics Inc Surround monitor system
JP2017114218A (en) * 2015-12-22 2017-06-29 株式会社Jvcケンウッド Bird's-eye video generation device, bird's-eye video generation system, bird's-eye video generation method and program
JP2018139033A (en) * 2017-02-24 2018-09-06 住友電気工業株式会社 Danger level determination device, information providing device, danger level determination method, information providing method and computer program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078393A (en) * 2002-08-13 2004-03-11 Nec Fielding Ltd System and program for taking emergency countermeasure to traffic accident
JP2008052399A (en) * 2006-08-23 2008-03-06 Alpine Electronics Inc Surround monitor system
JP2017114218A (en) * 2015-12-22 2017-06-29 株式会社Jvcケンウッド Bird's-eye video generation device, bird's-eye video generation system, bird's-eye video generation method and program
JP2018139033A (en) * 2017-02-24 2018-09-06 住友電気工業株式会社 Danger level determination device, information providing device, danger level determination method, information providing method and computer program

Similar Documents

Publication Publication Date Title
US10958866B2 (en) Recording apparatus, recording method, and a non-transitory computer readable medium
US11769358B2 (en) Vehicle recording control device, vehicle recording device, vehicle recording control method, and computer program
US11978255B2 (en) Recording control apparatus, recording apparatus, recording control method, and recording control program
JP6962712B2 (en) In-vehicle image recording device
KR20110131161A (en) Vehicle black box apparatus using smart phone with camera
JP6696558B1 (en) Vehicle recording control device, vehicle recording device, vehicle recording control method, and program
US20230260289A1 (en) On-vehicle recording control device and on-vehicle recording control method
JP7259661B2 (en) VEHICLE RECORDING CONTROL DEVICE, VEHICLE RECORDING DEVICE, VEHICLE RECORDING CONTROL METHOD AND PROGRAM
JP6769504B2 (en) Vehicle record control device, vehicle photography device, vehicle record control method and program
JP2021117905A (en) Analysis control device, record control device, operation support system, and analysis control method
US11917285B2 (en) Recording control apparatus, recording apparatus, recording control method, and recording control program
JP7351111B2 (en) Vehicle recording control device, recording control method and program
JP7255425B2 (en) Recording control device, recording control method, and program
EP3751846B1 (en) Recording control device for vehicle, recording device for vehicle, recording control method for vehicle, and program
JP7326719B2 (en) RECORDING/PLAYBACK CONTROL DEVICE, RECORDING/PLAYBACK CONTROL METHOD, AND RECORDING/PLAYBACK CONTROL PROGRAM
JP7192678B2 (en) VEHICLE RECORDING CONTROL DEVICE, RECORDING CONTROL METHOD AND PROGRAM
JP7287010B2 (en) Vehicle display control device, vehicle imaging device, vehicle display control method and program
WO2021149316A1 (en) Recording and reproducing control device, reproducing control device, display control method, and program
JP6959587B2 (en) Vehicle record control device and vehicle record control method
JP6874879B2 (en) Vehicle record control device, vehicle record device, vehicle record control method and program
WO2020241088A1 (en) Vehicular recording control device, recording control method, and program
JP2023047763A (en) Information provision device and information provision method
JP2023047945A (en) Driving assistance control device
JP2023047797A (en) Driving assistance control device
JP2022191814A (en) recording device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240325