JP2016133932A - On-vehicle device, on-vehicle system, image data processing method, and image data processing program - Google Patents

On-vehicle device, on-vehicle system, image data processing method, and image data processing program Download PDF

Info

Publication number
JP2016133932A
JP2016133932A JP2015007211A JP2015007211A JP2016133932A JP 2016133932 A JP2016133932 A JP 2016133932A JP 2015007211 A JP2015007211 A JP 2015007211A JP 2015007211 A JP2015007211 A JP 2015007211A JP 2016133932 A JP2016133932 A JP 2016133932A
Authority
JP
Japan
Prior art keywords
vehicle
image data
danger
state
approaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015007211A
Other languages
Japanese (ja)
Inventor
広嗣 藤原
Hiroshi Fujiwara
広嗣 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Peripherals Ltd
Original Assignee
Fujitsu Peripherals Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Peripherals Ltd filed Critical Fujitsu Peripherals Ltd
Priority to JP2015007211A priority Critical patent/JP2016133932A/en
Publication of JP2016133932A publication Critical patent/JP2016133932A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To efficiently leave an appropriate circumstantial evidence when an accident occurs in a vehicle.SOLUTION: An on-vehicle device 30 includes: a dangerous state determination section 38 for determining whether a vehicle is in danger on the basis of data to be obtained from sensors (a sensor group) mounted on the vehicle; and an image synthesis section 40 for synthesizing image data captured by multiple cameras (a camera group) mounted on the vehicle from the point of time of detection that the danger is coming near in driving the vehicle, and generating synthetic image data for enabling the recognition of a state in a direction where the danger comes near and the recognition of states in directions other than the direction where the danger comes near.SELECTED DRAWING: Figure 5

Description

本発明は、車載装置、車載システム、画像データ処理方法及び画像データ処理プログラムに関する。   The present invention relates to an in-vehicle device, an in-vehicle system, an image data processing method, and an image data processing program.

従来、自動車などの車両に搭載されるドライブレコーダは、車両の一定方向(例えば前方)をカメラで常時録画する。また、従来のドライブレコーダは、障害物等と衝突したか否かを検出する加速度センサ等の検出結果に基づいて、衝突前後の映像を保管する(例えば、特許文献1参照)。   Conventionally, a drive recorder mounted on a vehicle such as an automobile always records a certain direction (for example, forward) of the vehicle with a camera. Further, the conventional drive recorder stores videos before and after the collision based on the detection result of an acceleration sensor or the like that detects whether or not the vehicle collides with an obstacle or the like (see, for example, Patent Document 1).

また、従来、車両に設けられた複数カメラで撮影した映像を再生する場合において、映像取得中にセンサ等でイベントが検知されていた場合に、イベントの方向に向いた映像を生成して再生する技術が知られている(例えば、特許文献2参照)。   Conventionally, in the case of playing back images shot by a plurality of cameras provided in a vehicle, if an event is detected by a sensor or the like during video acquisition, a video oriented in the direction of the event is generated and played back. A technique is known (for example, refer to Patent Document 2).

特開平7−277230号公報JP 7-277230 A 特開2014−134912号公報JP 2014-134912 A

しかしながら、上記特許文献2では、例えば衝突時において衝突方向の映像を生成するが、衝突方向の映像だけでは、衝突発生時の状況証拠を的確に示すことができない場合がある。例えば、衝突方向と反対方向で発生した事象に起因して衝突が発生した場合や、複数方向で発生した事象に起因した複合事象であった場合、衝突方向の事象だけでは状況を的確に示すことができない。また、上記特許文献2は再生に関する技術を示すものにすぎない。   However, in the above-mentioned Patent Document 2, for example, a collision direction image is generated at the time of a collision. However, there are cases where the situation evidence at the time of the collision cannot be accurately shown only by the collision direction image. For example, if a collision occurs due to an event that occurred in the opposite direction of the collision direction, or if it was a complex event due to an event that occurred in multiple directions, the situation should be accurately indicated only by the event in the collision direction. I can't. Further, the above-mentioned Patent Document 2 merely shows a technique related to reproduction.

1つの側面では、本発明は、車両に事故が発生した場合の適切な状況証拠を効率的に残すことが可能な車載装置、車載システム、画像データ処理方法及び画像データ処理プログラムを提供することを目的とする。   In one aspect, the present invention provides an in-vehicle device, an in-vehicle system, an image data processing method, and an image data processing program that can efficiently leave appropriate situation evidence when an accident occurs in a vehicle. Objective.

一つの態様では、車載装置は、車両に搭載されたセンサから得られるデータに基づいて、車両に危険が迫っている状態か否かを検出する検出部と、車両運転時に前記検出部により前記車両に前記危険が迫っている状態であることが検出された時点から、前記車両に搭載された複数のカメラが撮影した画像データを合成して、前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成するか、又は前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する他の装置への前記画像データの送信を行う処理部と、を備えている。   In one aspect, the in-vehicle device includes: a detection unit that detects whether or not the vehicle is in danger based on data obtained from a sensor mounted on the vehicle; and the vehicle by the detection unit during driving of the vehicle. From the time when it is detected that the danger is imminent, the image data taken by a plurality of cameras mounted on the vehicle is synthesized, and the state of the danger imminent and the danger Composite image data capable of recognizing a state in a direction other than the approaching direction, or a composite image capable of recognizing the state in the direction in which the danger is approaching and the state in a direction other than the direction in which the danger is approaching A processing unit that transmits the image data to another device that generates data.

車両に事故が発生した場合の適切な状況証拠を効率的に残すことができる。   Appropriate situational evidence in the event of a vehicle accident can be efficiently left.

一実施形態に係る情報処理システムの構成を概略的に示す図である。It is a figure showing roughly the composition of the information processing system concerning one embodiment. 図2(a)は、車載システムのハードウェア構成を示す図であり、図2(b)は、車載装置のハードウェア構成を示す図である。FIG. 2A is a diagram illustrating a hardware configuration of the in-vehicle system, and FIG. 2B is a diagram illustrating a hardware configuration of the in-vehicle device. カメラ及びセンサの配置を示す図である。It is a figure which shows arrangement | positioning of a camera and a sensor. サーバのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a server. 車載装置及びサーバの機能ブロック図である。It is a functional block diagram of a vehicle-mounted apparatus and a server. 図6(a)は、車両DBのデータ構造を示す図であり、図6(b)は、合成画像DBのデータ構造を示す図である。FIG. 6A is a diagram illustrating a data structure of the vehicle DB, and FIG. 6B is a diagram illustrating a data structure of the composite image DB. 全車両DBのデータ構造を示す図である。It is a figure which shows the data structure of all the vehicle DB. 車載装置の処理を示すフローチャートである。It is a flowchart which shows the process of a vehicle-mounted apparatus. 合成画像データの一例を示す図である。It is a figure which shows an example of synthetic | combination image data. 変形例に係る車載装置及びサーバの機能ブロック図である。It is a functional block diagram of the vehicle-mounted apparatus and server which concern on a modification.

以下、情報処理システムの一実施形態について、図1〜図9に基づいて詳細に説明する。   Hereinafter, an embodiment of an information processing system will be described in detail with reference to FIGS.

図1には、一実施形態に係る情報処理システム100の構成が概略的に示されている。情報処理システム100は、1又は複数の車載システム20と、サーバ10とを備える。車載システム20とサーバ10は、インターネットなどのネットワーク80に接続されている。   FIG. 1 schematically shows a configuration of an information processing system 100 according to an embodiment. The information processing system 100 includes one or more in-vehicle systems 20 and a server 10. The in-vehicle system 20 and the server 10 are connected to a network 80 such as the Internet.

図2(a)には、車載システム20のハードウェア構成が示されている。車載システム20は、自動車などの車両に設けられるシステムであり、図2(a)に示すように、カメラ群28と、センサ群26と、取得装置としての車載計器類24と、車載装置30と、を備える。   FIG. 2A shows a hardware configuration of the in-vehicle system 20. The in-vehicle system 20 is a system provided in a vehicle such as an automobile, and as shown in FIG. 2A, a camera group 28, a sensor group 26, an in-vehicle instrument 24 as an acquisition device, an in-vehicle device 30, .

カメラ群28は、複数のカメラ21を有する。複数のカメラ21は、例えば、図3に示すように、車両の前側、後側、左側、右側に1つずつ、計4つ設けられているものとする。ただし、カメラ21の個数や配置は、車両の形状等に合わせて適宜変更してもよい。なお、カメラ21は、例えば、運転をアシストするために予め車両に設けられているカメラであってもよいし、後付けしたカメラであってもよい。なお、各カメラは、例えば、図3において破線で示す範囲を撮影可能な広角カメラであるものとする。   The camera group 28 has a plurality of cameras 21. For example, as shown in FIG. 3, a plurality of cameras 21 are provided, one for each of the front side, the rear side, the left side, and the right side of the vehicle. However, the number and arrangement of the cameras 21 may be appropriately changed according to the shape of the vehicle. The camera 21 may be, for example, a camera provided in advance in the vehicle to assist driving or may be a retrofitted camera. In addition, each camera shall be a wide-angle camera which can image | photograph the range shown with a broken line in FIG. 3, for example.

センサ群26は、複数のセンサ23を有する。センサ23としては、クリアランスソナーやミリ波レーダ等、障害物接近を検知できるものであればよい。なお、カメラ群28の撮影画像から障害物接近を検知できる場合には、カメラ群28をセンサ群26として利用しても良い。センサ23は、例えば、図3に示すように、車両の前側、後側、左側、右側に2つずつ、計8つ設けられているものとする。なお、センサ23は、安全性向上のため、予め車両に設けられているセンサであってもよいし、後付けしたセンサであってもよい。   The sensor group 26 includes a plurality of sensors 23. The sensor 23 may be any sensor that can detect the approach of an obstacle, such as a clearance sonar or a millimeter wave radar. Note that the camera group 28 may be used as the sensor group 26 when the approach of the obstacle can be detected from the captured image of the camera group 28. For example, as shown in FIG. 3, it is assumed that a total of eight sensors 23 are provided, two on each of the front side, the rear side, the left side, and the right side of the vehicle. The sensor 23 may be a sensor provided in advance in the vehicle for improving safety, or may be a retrofitted sensor.

車載計器類24は、車両の状態を計測するセンサ類を含む。例えば、車載計器類24には、速度センサ、加速度センサ、ハンドルの角度(操舵角)を検出するセンサ、ブレーキのON、OFFを検出するセンサ、ウィンカー(方向指示器)の作動状態を検出するセンサ等を含む。なお、車載計器類24としては、車内を撮影可能なカメラや、GPSセンサ、ジャイロセンサなどを含んでいてもよい。   The vehicle-mounted instrument 24 includes sensors that measure the state of the vehicle. For example, the vehicle-mounted instrument 24 includes a speed sensor, an acceleration sensor, a sensor that detects an angle (steering angle) of a steering wheel, a sensor that detects ON / OFF of a brake, and a sensor that detects an operating state of a blinker (direction indicator). Etc. The vehicle-mounted instrument 24 may include a camera capable of photographing the inside of the vehicle, a GPS sensor, a gyro sensor, and the like.

車載装置30は、カメラ群28、センサ群26、及び車載計器類24から情報等を取得し、処理し、各種データをサーバ10に送信する。図2(b)には、車載装置30のハードウェア構成が示されている。図2(b)に示すように、車載装置30は、CPU(Central Processing Unit)190、ROM(Read Only Memory)192、RAM(Random Access Memory)194、記憶部(ここではHDD(Hard Disk Drive))196、ネットワークインタフェース197、及び可搬型記憶媒体用ドライブ199等を備えている。これら車載装置30の各部は、バス198に接続されている。なお、カメラ群28、センサ群26、及び車載計器類24は不図示のインタフェース部を介してバス198に接続されている。CPU190が、ROM192あるいはHDD196に格納されているプログラム(画像データ処理プログラムを含む)、或いは可搬型記憶媒体用ドライブ199が可搬型記憶媒体191から読み取ったプログラム(画像データ処理プログラムを含む)を実行することにより、車載装置30を、図5に示す各部として機能させる。なお、図5の各部の詳細については後述する。   The in-vehicle device 30 acquires information from the camera group 28, the sensor group 26, and the in-vehicle instrument 24, processes the information, and transmits various data to the server 10. FIG. 2B shows the hardware configuration of the in-vehicle device 30. As shown in FIG. 2B, the in-vehicle device 30 includes a CPU (Central Processing Unit) 190, a ROM (Read Only Memory) 192, a RAM (Random Access Memory) 194, and a storage unit (here, an HDD (Hard Disk Drive)). 196, a network interface 197, a portable storage medium drive 199, and the like. Each part of the in-vehicle device 30 is connected to the bus 198. The camera group 28, the sensor group 26, and the vehicle-mounted instrument 24 are connected to the bus 198 via an interface unit (not shown). The CPU 190 executes a program (including an image data processing program) stored in the ROM 192 or the HDD 196 or a program (including an image data processing program) read by the portable storage medium drive 199 from the portable storage medium 191. Thus, the in-vehicle device 30 is caused to function as each unit shown in FIG. Details of each part in FIG. 5 will be described later.

図1に戻り、サーバ10は、1又は複数の車載システム20から送信されてくるデータを収集し、管理する。図4には、サーバ10のハードウェア構成が示されている。サーバ10は、図4に示すように、CPU90、ROM92、RAM94、記憶部(HDD)96、ネットワークインタフェース97、及び可搬型記憶媒体用ドライブ99等を備えている。サーバ10の各部は、バス98に接続されている。CPU90は、ROM92あるいはHDD96に格納されているプログラム、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラムを実行することで、サーバ10を図5の各部として機能させる。   Returning to FIG. 1, the server 10 collects and manages data transmitted from one or more in-vehicle systems 20. FIG. 4 shows the hardware configuration of the server 10. As shown in FIG. 4, the server 10 includes a CPU 90, a ROM 92, a RAM 94, a storage unit (HDD) 96, a network interface 97, a portable storage medium drive 99, and the like. Each part of the server 10 is connected to a bus 98. The CPU 90 causes the server 10 to function as each unit in FIG. 5 by executing a program stored in the ROM 92 or the HDD 96 or a program read from the portable storage medium 91 by the portable storage medium drive 99.

次に、図5に基づいて、車載装置30及びサーバ10の機能について説明する。   Next, functions of the in-vehicle device 30 and the server 10 will be described with reference to FIG.

図5に示すように、車載装置30は、CPU190がプログラムを実行することで、画像取得部32、車両情報取得部34、検出結果取得部36、検出部としての危険状態判定部38、処理部としての画像合成部40、及び通信部42として機能する。なお、図5には、HDD196等に格納される車両DB50及び合成画像DB52も図示されている。   As illustrated in FIG. 5, the in-vehicle device 30 includes an image acquisition unit 32, a vehicle information acquisition unit 34, a detection result acquisition unit 36, a dangerous state determination unit 38 as a detection unit, and a processing unit by the CPU 190 executing a program. Function as an image composition unit 40 and a communication unit 42. 5 also shows a vehicle DB 50 and a composite image DB 52 stored in the HDD 196 and the like.

画像取得部32は、カメラ群28において撮影される画像データを取得し、車両DB50に格納する。なお、画像取得部32は、カメラ群28において撮影される動画データから1フレームごとに切り出した画像データ(静止画データ)を車両DB50に格納するものとする。   The image acquisition unit 32 acquires image data captured by the camera group 28 and stores it in the vehicle DB 50. In addition, the image acquisition part 32 shall store the image data (still image data) cut out for every frame from the moving image data image | photographed in the camera group 28 in vehicle DB50.

車両情報取得部34は、車載計器類24において検出される車両情報を車両DB50に格納する。なお、画像取得部32で取得された画像データと、該画像データと同一時刻において車両情報取得部34で取得された車両情報は、関連付けられた状態で車両DB50に格納される。   The vehicle information acquisition part 34 stores the vehicle information detected in the vehicle-mounted instrument 24 in vehicle DB50. The image data acquired by the image acquisition unit 32 and the vehicle information acquired by the vehicle information acquisition unit 34 at the same time as the image data are stored in the vehicle DB 50 in an associated state.

ここで、車両DB50のデータ構造について、図6(a)に基づいて説明する。車両DB50は、図6(a)に示すように、「時刻」、「画像」、「速度」、「加速度」、「ハンドル」、「ブレーキ」、「ウィンカー」等のフィールドを有する。「時刻」のフィールドには、画像データや車両情報が取得された時刻(日時)の情報が格納される。「画像」のフィールドには、カメラ群28(4つのカメラ21)で取得された4つの画像データ(1フレーム)が格納される。「速度」のフィールドには、車両の速度(km/h)が格納され、「加速度」のフィールドには、車両の加速度(m/s2)が格納される。「ハンドル」のフィールドには、ハンドルが中立位置からどの程度(何度)回転した状態にあるかの情報(すなわち、操舵角の情報)が格納され、「ブレーキ」のフィールドには、ブレーキを踏んでいるか否かの情報(ON/OFF)が格納される。また、「ウィンカー」のフィールドには、ウィンカーを利用した状態か否か(左/右/なし)が格納される。なお、車両DB50には、上記のほか、車両の位置情報(例えば、車両に搭載されたGPSセンサ等から取得できる)や、進行方向の情報(例えば、ジャイロセンサ等から取得できる)などが格納されていてもよい。また、車両DB50には、車両内部を撮影した画像データ(例えば、運転者の状態を確認できる画像データ等)が格納されてもよい。なお、車両DB50においては、格納できる情報(レコード)の数が予め定められている。このため、予め定められている数の情報が車両DB50に格納された後は、古い情報から順次削除される。 Here, the data structure of vehicle DB50 is demonstrated based on Fig.6 (a). As shown in FIG. 6A, the vehicle DB 50 has fields such as “time”, “image”, “speed”, “acceleration”, “handle”, “brake”, and “winker”. In the “time” field, information on the time (date and time) when the image data and the vehicle information are acquired is stored. In the “image” field, four image data (one frame) acquired by the camera group 28 (four cameras 21) are stored. The “speed” field stores the vehicle speed (km / h), and the “acceleration” field stores the vehicle acceleration (m / s 2 ). The “handle” field stores information (ie, steering angle information) indicating how much (how many times) the handle has been rotated from the neutral position, and the “brake” field stores the brakes. Is stored (ON / OFF). In the “winker” field, whether or not a winker is used (left / right / none) is stored. In addition to the above, the vehicle DB 50 stores vehicle position information (e.g., obtainable from a GPS sensor mounted on the vehicle), traveling direction information (e.g., obtainable from a gyro sensor, etc.), and the like. It may be. The vehicle DB 50 may store image data obtained by photographing the inside of the vehicle (for example, image data that can confirm the driver's state). In the vehicle DB 50, the number of information (records) that can be stored is determined in advance. For this reason, after the predetermined number of information is stored in the vehicle DB 50, the old information is sequentially deleted.

図5に戻り、検出結果取得部36は、センサ群26による衝突可能性の検出結果を取得する。検出結果取得部36は、取得した結果を危険状態判定部38に送信する。   Returning to FIG. 5, the detection result acquisition unit 36 acquires the detection result of the possibility of collision by the sensor group 26. The detection result acquisition unit 36 transmits the acquired result to the dangerous state determination unit 38.

危険状態判定部38は、検出結果取得部36から受信したセンサ群26の検出結果に基づいて、車両に危険が迫ってきているか否かを判定する。危険状態判定部38の判定結果は、画像合成部40に送信される。   The dangerous state determination unit 38 determines whether or not the vehicle is approaching danger based on the detection result of the sensor group 26 received from the detection result acquisition unit 36. The determination result of the dangerous state determination unit 38 is transmitted to the image composition unit 40.

画像合成部40は、危険状態判定部38の判定結果に基づいて、車両DB50に格納された画像データ(同一時刻に取得された画像データ)を合成して合成画像データを生成する。画像合成部40は、生成した合成画像データを通信部42に送信する。また画像合成部40は、通信部42がサーバ10と通信できない場合には、合成画像データを合成画像DB52に格納する。   The image composition unit 40 synthesizes image data (image data acquired at the same time) stored in the vehicle DB 50 based on the determination result of the dangerous state determination unit 38 to generate composite image data. The image composition unit 40 transmits the generated composite image data to the communication unit 42. Further, when the communication unit 42 cannot communicate with the server 10, the image composition unit 40 stores the composite image data in the composite image DB 52.

ここで、合成画像DB52は、図6(b)に示すようなデータ構造を有する。図6(b)に示すように、合成画像DB52は、撮影された時刻と対応付けて合成画像データを格納する。   Here, the composite image DB 52 has a data structure as shown in FIG. As shown in FIG. 6B, the composite image DB 52 stores the composite image data in association with the time of shooting.

図5に戻り、通信部42は、ネットワーク80に直接接続する、もしくは、携帯端末経由でネットワーク80に接続することで、サーバ10の通信部12との間で画像データや情報のやり取りを行う。本実施形態では、通信部42は、画像合成部40が生成した合成画像データや、車両DB50に格納されている車両情報(速度や加速度などの情報)を、ネットワーク80を介してサーバ10に送信する。   Returning to FIG. 5, the communication unit 42 exchanges image data and information with the communication unit 12 of the server 10 by directly connecting to the network 80 or by connecting to the network 80 via a portable terminal. In the present embodiment, the communication unit 42 transmits the composite image data generated by the image composition unit 40 and vehicle information (information such as speed and acceleration) stored in the vehicle DB 50 to the server 10 via the network 80. To do.

次に、サーバ10の機能について説明する。サーバ10は、CPU90がプログラムを実行することにより、図5に示す通信部12及び情報処理部14として機能する。通信部12は、ネットワーク80を介して車載装置30の通信部42から、合成画像データやこれに関連する車両情報を取得し、情報処理部14に送信する。   Next, functions of the server 10 will be described. The server 10 functions as the communication unit 12 and the information processing unit 14 illustrated in FIG. 5 when the CPU 90 executes the program. The communication unit 12 acquires composite image data and vehicle information related thereto from the communication unit 42 of the in-vehicle device 30 via the network 80 and transmits the composite image data to the information processing unit 14.

情報処理部14は、通信部12から取得した合成画像データや車両情報を全車両DB16に格納する。ここで、全車両DB16は、図7に示すようなデータ構造を有する。図7に示すように、全車両DB16は、車両DB50(図6(a))と比較して、「車両」フィールドが新たに設けられているとともに、「動画」フィールドが「画像」フィールドに代えて設けられている。「車両」フィールドには、車両の識別情報が格納され、「動画」フィールドには、取得した合成画像データから得られる動画データが格納される。その他のフィールドについては、図6(a)の車両DB50と同様である。   The information processing unit 14 stores the composite image data and vehicle information acquired from the communication unit 12 in the all vehicle DB 16. Here, the entire vehicle DB 16 has a data structure as shown in FIG. As shown in FIG. 7, the all-vehicle DB 16 has a “vehicle” field newly provided in comparison with the vehicle DB 50 (FIG. 6A), and the “movie” field is replaced with an “image” field. Is provided. The “vehicle” field stores vehicle identification information, and the “moving image” field stores moving image data obtained from the acquired combined image data. Other fields are the same as those of the vehicle DB 50 in FIG.

次に、車載システム20(車載装置30)の処理について、図8のフローチャートに沿って、その他図面を適宜参照しつつ詳細に説明する。なお、図8の処理は、例えば、車両の運転者がイグニッションキーをONにした場合や、車載装置30の電源が運転者によってONされた場合等に実行される処理である。すなわち、図8の処理は、運転者が車両を運転している間に実行される処理である。   Next, processing of the in-vehicle system 20 (in-vehicle device 30) will be described in detail along the flowchart of FIG. 8 with reference to other drawings as appropriate. The process of FIG. 8 is a process that is executed, for example, when the driver of the vehicle turns on the ignition key or when the power source of the in-vehicle device 30 is turned on by the driver. That is, the process of FIG. 8 is a process executed while the driver is driving the vehicle.

図8の処理では、まず、ステップS10において、画像取得部32がカメラ21から画像データを取得し、検出結果取得部36がセンサ23の検出結果を取得し、車両情報取得部34が車載計器類24から車両状態を取得する。なお、ステップS10の処理は、カメラ21の1フレームごとに実行されるものとする。   In the process of FIG. 8, first, in step S10, the image acquisition unit 32 acquires image data from the camera 21, the detection result acquisition unit 36 acquires the detection result of the sensor 23, and the vehicle information acquisition unit 34 performs in-vehicle instrumentation. The vehicle state is acquired from 24. Note that the processing in step S10 is executed for each frame of the camera 21.

次いで、ステップS12では、画像取得部32が、取得した画像データを車両DB50に記憶するとともに、車両情報取得部34が、取得した車両情報を車両DB50に記憶する。この場合、図6の各レコード(行)のように、画像データと車両情報が取得時刻と関連付けて車両DB50に格納される。   Next, in step S12, the image acquisition unit 32 stores the acquired image data in the vehicle DB 50, and the vehicle information acquisition unit 34 stores the acquired vehicle information in the vehicle DB 50. In this case, as in each record (row) in FIG. 6, the image data and the vehicle information are stored in the vehicle DB 50 in association with the acquisition time.

次いで、ステップS14では、危険状態判定部38が、検出結果取得部36から取得したセンサの検出結果に基づいて、車両に危険が迫っているか否かを判断する。例えば、車両の前方や後方から別の車両が接近している場合には、ステップS14の判断は肯定され、ステップS16に移行する。一方、ステップS14の判断が否定された場合には、ステップS10に戻る。   Next, in step S14, the dangerous state determination unit 38 determines whether or not the vehicle is in danger based on the detection result of the sensor acquired from the detection result acquisition unit 36. For example, if another vehicle is approaching from the front or rear of the vehicle, the determination in step S14 is affirmed and the process proceeds to step S16. On the other hand, if the determination in step S14 is negative, the process returns to step S10.

ステップS14の判断が肯定されて、ステップS16に移行すると、画像合成部40は、車両DB50に直前に格納された画像データを合成し、合成画像データを生成する。例えば、図3のように、車両に4つのカメラ21が設けられている場合には、合成画像データとして、図9に示すような車両周囲を見渡せる、車両を上から俯瞰したような合成画像データを生成する。この合成画像データは、危険が迫っている方向の状態及びその方向以外の方向の状態を認識可能な合成画像データであるといえる。例えば、他車Aによって後方から追突された場合において、前方の画像データしか残ってなければ、他車Aによって追突された事象が画像データとして残らない。これに対し、図9のような合成画像データを生成することにより、前方に障害物があることで自車が危険回避のためにハンドルを切り、そこへ他車Aが後ろから衝突した、という一連の事象を把握することができる。また、その時に反対車線の他車Bの動き等も同時に把握することができる。なお、合成画像データに関連する車両情報として、車両が急減速したという情報が含まれていれば、急減速により、後方の他車Aが自社に追突したことも把握することができる。   When the determination in step S14 is affirmed and the process proceeds to step S16, the image composition unit 40 synthesizes the image data stored immediately before in the vehicle DB 50 to generate composite image data. For example, as shown in FIG. 3, when four cameras 21 are provided in the vehicle, as the composite image data, the composite image data overlooking the vehicle as shown in FIG. Is generated. This composite image data can be said to be composite image data that can recognize a state in a direction in which danger is imminent and a state in a direction other than that direction. For example, in the case where a rear-end collision is caused by the other vehicle A, if only the front image data remains, the event of the rear-end collision by the other vehicle A does not remain as image data. On the other hand, by generating the composite image data as shown in FIG. 9, the vehicle has turned the steering wheel to avoid danger due to an obstacle ahead, and another vehicle A collided there from behind. A series of events can be grasped. At the same time, the movement of the other vehicle B in the opposite lane can be grasped at the same time. Note that if the vehicle information related to the composite image data includes information that the vehicle has suddenly decelerated, it can be understood that the other vehicle A in the rear has collided with the company due to the rapid deceleration.

次いで、ステップS18では、通信部42が、ネットワーク80に接続されているか否かを判断する。ここでの判断が肯定された場合には、通信部42は、画像合成部40で生成された合成画像データと、車両DB50に記憶された車両情報とを関連付けた状態で、サーバ10の通信部12に送信する。その後は、ステップS10に移行する。   Next, in step S <b> 18, the communication unit 42 determines whether or not it is connected to the network 80. When the determination here is affirmed, the communication unit 42 communicates the communication unit of the server 10 with the combined image data generated by the image combining unit 40 and the vehicle information stored in the vehicle DB 50 associated with each other. 12 to send. Thereafter, the process proceeds to step S10.

一方、ステップS18の判断が否定された場合、すなわち、通信部42がネットワーク80に接続されていない場合には、ステップS22に移行する。ステップS22に移行すると、画像合成部40は、生成した合成画像データを合成画像DB52に記憶する。この場合、生成した合成画像データの元になった画像データを取得した時刻と関連づけて合成画像データを合成画像DB52に記憶しておくものとする。ステップS22の処理の後は、ステップS10に戻る。なお、合成画像DB52に記憶された合成画像データは、通信部42がネットワーク80に接続された場合において、合成画像データに対応する車両情報(車両DB50に記憶されている)とともに、サーバ10に適宜送信されるものとする。   On the other hand, if the determination in step S18 is negative, that is, if the communication unit 42 is not connected to the network 80, the process proceeds to step S22. In step S22, the image composition unit 40 stores the generated composite image data in the composite image DB 52. In this case, it is assumed that the composite image data is stored in the composite image DB 52 in association with the time when the image data that is the basis of the generated composite image data is acquired. After the process of step S22, the process returns to step S10. Note that the composite image data stored in the composite image DB 52 is appropriately stored in the server 10 together with vehicle information (stored in the vehicle DB 50) corresponding to the composite image data when the communication unit 42 is connected to the network 80. Shall be sent.

なお、サーバ10の情報処理部14は、車載装置30において図8のステップS20の処理が繰り返し実行されることにより、合成画像データと車両情報を順次取得することになる。この場合、情報処理部14は、取得した合成画像データと車両情報とを全車両DB16に格納する。なお、情報処理部14は、車両の識別情報が同一で、時刻が連続する複数の合成画像データについては、連続的につなぎ合わせた動画データとして、全車両DB16に格納するものとする(図7の「ABCD」参照)。   Note that the information processing unit 14 of the server 10 sequentially acquires the composite image data and the vehicle information by repeatedly executing the process of step S20 of FIG. In this case, the information processing unit 14 stores the acquired composite image data and vehicle information in the all vehicle DB 16. Note that the information processing unit 14 stores a plurality of composite image data having the same vehicle identification information and continuous times in the all vehicle DB 16 as continuously connected moving image data (FIG. 7). (See “ABCD”).

以上の処理により、車両が事故にあった場合に、その前後の車両を上から俯瞰した状態を示す合成画像データ(動画データ)がサーバ10の全車両DB50に蓄積されることになる。このため、ユーザ等は事故があった場合に、全車両DB50の動画データを確認することで、事故原因等を詳細に分析することができる。また、これに合わせて、全車両DB50に蓄積されている車両情報を確認することで、事故原因等を更に詳細に分析することができる。   Through the above processing, when the vehicle is in an accident, composite image data (moving image data) indicating a state where the vehicles before and after the vehicle are viewed from above are accumulated in the all vehicle DB 50 of the server 10. For this reason, when there is an accident, the user or the like can analyze the cause of the accident or the like in detail by confirming the moving image data of the entire vehicle DB 50. In accordance with this, the cause of the accident or the like can be analyzed in more detail by checking the vehicle information stored in the all vehicle DB 50.

以上詳細に説明したように、本実施形態によると、車載装置30は、車両に搭載されたセンサ23(センサ群26)から得られるデータに基づいて、車両に危険が迫っている状態か否かを危険状態判定部38と、車両運転時に危険が迫っている状態であることが検出された時点から、車両に搭載された複数のカメラ21(カメラ群28)が撮影した画像データを合成し、危険が迫っている方向の状態と危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する画像合成部40と、を備えている。これにより、危険が迫っていたり、事故が発生したときの、危険が迫っている方向の状態と危険が迫っている方向以外の方向の状態を確認できる合成画像データ(動画データ)を状況証拠として残すことができる。この合成画像データ(動画データ)により、事故が発生した場合に、事故の状況のほか、事故の間接的な原因や事故が発生したときの周囲の様子などを確認することが可能となる。また、本実施形態では、合成画像データを常時生成しないため、合成画像データを常時生成する場合と比べ、処理量を低減することができる。すなわち、本実施形態によれば、効率的に事故の適切な状況証拠を残すことができる。   As described above in detail, according to the present embodiment, the in-vehicle device 30 determines whether or not the vehicle is in danger based on data obtained from the sensor 23 (sensor group 26) mounted on the vehicle. The image data taken by a plurality of cameras 21 (camera group 28) mounted on the vehicle from the time when it is detected that the danger state is approaching when the vehicle is driven is synthesized with the dangerous state determination unit 38, And an image composition unit 40 that generates composite image data capable of recognizing a state in a direction approaching danger and a state in a direction other than the direction approaching danger. As a result, composite image data (video data) that can confirm the state of the direction in which the danger is approaching and the state in the direction other than the direction in which the danger is approaching when the danger is imminent or an accident occurs is used as the situation evidence. Can leave. With this composite image data (moving image data), in the event of an accident, in addition to the situation of the accident, it is possible to confirm the indirect cause of the accident and the surrounding situation when the accident occurs. In the present embodiment, since the composite image data is not always generated, the processing amount can be reduced as compared with the case where the composite image data is always generated. That is, according to the present embodiment, it is possible to efficiently leave an appropriate situation proof of an accident.

また、本実施形態では、危険が迫っている状態は、車両に障害物が予め定めた距離以上接近してきた状態としているので、車両に障害物が所定以上接近してきたという適切なタイミングから画像データを合成することができる。   Further, in the present embodiment, since the state where the danger is imminent is a state where the obstacle has approached the vehicle more than a predetermined distance, the image data is obtained from an appropriate timing that the obstacle has approached the vehicle more than a predetermined distance. Can be synthesized.

また、本実施形態では、複数のカメラが撮影した画像データと、該画像データを撮影したタイミングにおける車両情報(例えば、速度や加速度)と、を関連付けて記憶する車両DB50を備えている。これにより、事故が発生した場合における車両の状態を確認することができるので、より詳細な事故原因の分析等を行うことが可能となる。   In the present embodiment, a vehicle DB 50 that stores image data captured by a plurality of cameras and vehicle information (for example, speed and acceleration) at the timing of capturing the image data in association with each other is provided. Thereby, since the state of the vehicle when an accident occurs can be confirmed, it becomes possible to perform a more detailed analysis of the cause of the accident.

また、本実施形態では、画像合成部40が合成画像データを生成した場合に、合成画像データを車両に搭載されていない装置(サーバ10)にリアルタイムで送信する(図8のステップS20参照)。これにより、事故によって火災等が発生し車載装置30が壊れるような事態が生じても、事故の状況証拠となるデータを車両外のサーバ10に退避させているので、状況証拠の消失を抑制することができる。   Further, in the present embodiment, when the image composition unit 40 generates composite image data, the composite image data is transmitted in real time to a device (server 10) not mounted on the vehicle (see step S20 in FIG. 8). As a result, even if a situation such as a fire occurs due to an accident and the in-vehicle device 30 is broken, the data that is the situation evidence of the accident is evacuated to the server 10 outside the vehicle, thereby suppressing the disappearance of the situation evidence. be able to.

なお、上記実施形態では、図9に示すように、合成画像データが、車両の真上から俯瞰したような画像データである場合について説明した。しかしながら、これに限られるものではなく、例えば、車両の周囲を360°見渡したような合成画像データ、運転者からの視野範囲をカバーする合成画像データなど、種々の合成画像データを生成するようにしてもよい。   In the above-described embodiment, as illustrated in FIG. 9, the case has been described in which the composite image data is image data as seen from directly above the vehicle. However, the present invention is not limited to this. For example, various composite image data such as composite image data overlooking the periphery of the vehicle by 360 ° and composite image data covering the field of view from the driver are generated. May be.

なお、上記実施形態では、車載計器類24から得られる車両情報を画像データ及び合成画像データに関連付ける場合について説明したが、必ずしも車両情報を関連付けなくてもよい。   In the above embodiment, the case where the vehicle information obtained from the vehicle-mounted instrument 24 is associated with the image data and the composite image data has been described. However, the vehicle information need not necessarily be associated.

また、上記実施形態では、全車両DB16に格納するデータが動画データである場合について説明したが、これに限らず、静止画のデータであってもよい。また、上記実施形態では、車両DB50に画像データを常時記憶する場合について説明したが、これに限らず、画像データは車両DB50に記憶しないようにしてもよい。この場合、車載装置30のHDD196の記憶容量を低減することができる。   Moreover, although the case where the data stored in all the vehicle DB16 was moving image data was demonstrated in the said embodiment, it is not restricted to this, You may be still image data. Moreover, although the said embodiment demonstrated the case where image data was always memorize | stored in vehicle DB50, not only this but you may make it not memorize | store image data in vehicle DB50. In this case, the storage capacity of the HDD 196 of the in-vehicle device 30 can be reduced.

なお、上記実施形態では、車載装置30において画像データを合成する場合について説明したが、これに限られるものではない。例えば、図10に示すように、車載装置30から画像合成部40や合成画像DB52を省略し、サーバ10の情報処理部14に合成処理部としての機能を持たせるようにしてもよい。この場合、危険状態判定部38が危険が迫っている状態であると判断した場合に、通信部42が画像データと車両情報とを関連付けた状態でサーバ10に送信するようにする。そして、サーバ10の情報処理部14は、受信した画像データを合成して合成画像データを生成するようにすればよい。このようにしても、上記実施形態と同様の効果を得ることができる。なお、図10の場合、通信部42を含んで、複数の画像データから、危険が迫っている方向と危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する他の装置(サーバ10)へ画像データを送信する処理部としての機能が実現されている。   In addition, although the said embodiment demonstrated the case where image data was synthesize | combined in the vehicle-mounted apparatus 30, it is not restricted to this. For example, as illustrated in FIG. 10, the image composition unit 40 and the composite image DB 52 may be omitted from the in-vehicle device 30, and the information processing unit 14 of the server 10 may have a function as a composition processing unit. In this case, when the danger state determination unit 38 determines that the danger is imminent, the communication unit 42 transmits the image data and the vehicle information to the server 10 in association with each other. Then, the information processing unit 14 of the server 10 may synthesize the received image data to generate composite image data. Even if it does in this way, the effect similar to the said embodiment can be acquired. In the case of FIG. 10, including the communication unit 42, other composite image data that can recognize a state in a direction other than the direction in which danger is imminent and the direction in which danger is imminent is generated from a plurality of image data. A function as a processing unit for transmitting image data to the apparatus (server 10) is realized.

なお、上記実施形態では、合成画像データをサーバ10に送信する場合について説明したが、これに限られるものではない。例えば、合成画像データ等を記憶するデータベースを、車両内に設けられた耐久性や耐火性の高い筐体内に設けられた記憶装置に格納し、当該データベースに車載装置30で生成された合成画像データ等を記憶するようにしてもよい。これにより、事故が発生し、車両が炎上等しても状況証拠が消失するのを抑制することができる。また、サーバ10やネットワーク80を設けなくてもよいことから、システム構築に必要な費用の低減が可能であるとともに、通信費等が不要となるという利点もある。   In the above embodiment, the case where the composite image data is transmitted to the server 10 has been described. However, the present invention is not limited to this. For example, a database storing composite image data or the like is stored in a storage device provided in a casing having high durability or fire resistance provided in the vehicle, and the composite image data generated by the in-vehicle device 30 in the database. Etc. may be stored. Thereby, even if an accident occurs and the vehicle is in flames, it is possible to suppress the disappearance of the situation evidence. Further, since it is not necessary to provide the server 10 or the network 80, there is an advantage that the cost required for system construction can be reduced and the communication cost or the like becomes unnecessary.

なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。   The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the processing apparatus should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium (except for a carrier wave).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When the program is distributed, for example, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

なお、以上の実施形態の説明に関して、更に以下の付記を開示する。
(付記1) 車両に搭載されたセンサから得られるデータに基づいて、車両に危険が迫っている状態か否かを検出する検出部と、
車両運転時に前記検出部により前記車両に前記危険が迫っている状態であることが検出された時点から、前記車両に搭載された複数のカメラが撮影した画像データを合成して、前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成するか、又は前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する他の装置への前記画像データの送信を行う処理部と、を備える車載装置。
(付記2) 前記複数のカメラが撮影した画像データと、該画像データを撮影したタイミングにおける前記車両の状態の情報及び前記車両の内部の状態の情報の少なくとも一方と、を関連付けて記憶する記憶部を更に備える付記1に記載の車載装置。
(付記3) 前記処理部は、前記合成画像データを生成した場合に、該合成画像データを前記車両に搭載されていない装置に送信することを特徴とする付記1又は2に記載の車載装置。
(付記4) 前記合成画像データは、前記車両を上から俯瞰した状態を認識可能なデータであることを特徴とする付記1〜3のいずれかに記載の車載装置。
(付記5) 前記危険が迫っている状態は、前記車両に障害物が予め定めた距離以上接近してきた状態であることを特徴とする付記1〜4のいずれかに記載の車載装置。
(付記6) 車両に搭載されたセンサと、
前記車両に搭載された複数のカメラと、
付記1〜5のいずれかに記載の車載装置と、を備える車載システム。
(付記7) 前記車両の状態の情報及び前記車両の内部の状態の情報の少なくとも一方を取得する取得装置を更に備える付記6に記載の車載システム。
(付記8) 車両に搭載されたセンサから得られるデータに基づいて、車両に危険が迫っている状態か否かを検出し、
車両運転時に前記車両に前記危険が迫っている状態であることが検出された時点から、前記車両に搭載された複数のカメラが撮影した画像データを合成し、前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する、処理を1又は複数のコンピュータが実行することを特徴とする画像データ処理方法。
(付記9) 前記複数のカメラが撮影した画像データと、該画像データを撮影したタイミングにおける前記車両の状態の情報及び前記車両の内部の状態の情報の少なくとも一方と、を関連付けて記憶部に記憶する、処理を前記1又は複数のコンピュータが実行することを特徴とする付記8に記載の画像データ処理方法。
(付記10) 前記合成画像データを前記車両に搭載されていない装置に送信する、処理を前記1又は複数のコンピュータが実行することを特徴とする付記8又は9に記載の画像データ処理方法。
(付記11) 前記合成画像データは、前記車両を上から俯瞰した状態を認識可能なデータであることを特徴とする付記8〜10のいずれかに記載の画像データ処理方法。
(付記12) 前記危険が迫っている状態は、前記車両に障害物が予め定めた距離以上接近してきた状態であることを特徴とする付記8〜11のいずれかに記載の画像データ処理方法。
(付記13) 車両に搭載されたセンサから得られるデータに基づいて、車両に危険が迫っている状態か否かを検出し、
車両運転時に前記車両に前記危険が迫っている状態であることが検出された時点から、前記車両に搭載された複数のカメラが撮影した画像データを合成し、前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する、処理をコンピュータに実行させる画像データ処理プログラム。
(付記14) 前記複数のカメラが撮影した画像データと、該画像データを撮影したタイミングにおける前記車両の状態の情報及び前記車両の内部の状態の情報の少なくとも一方と、を関連付けて記憶部に記憶する、処理を前記コンピュータが実行させることを特徴とする付記13に記載の画像データ処理プログラム。
(付記15) 前記合成画像データを前記車両に搭載されていない装置に送信する、処理を前記コンピュータに実行させることを特徴とする付記13又は14に記載の画像データ処理プログラム。
(付記16) 前記合成画像データは、前記車両を上から俯瞰した状態を認識可能なデータであることを特徴とする付記13〜15のいずれかに記載の画像データ処理プログラム。
(付記17) 前記危険が迫っている状態は、前記車両に障害物が予め定めた距離以上接近してきた状態であることを特徴とする付記13〜16のいずれかに記載の画像データ処理プログラム。
In addition, the following additional remarks are disclosed regarding description of the above embodiment.
(Additional remark 1) Based on the data obtained from the sensor mounted in the vehicle, the detection part which detects whether the danger is approaching the vehicle,
From the time when the detection unit detects that the vehicle is in danger while the vehicle is in operation, the image data taken by a plurality of cameras mounted on the vehicle is synthesized, and the danger is approached. Generating composite image data capable of recognizing a state in a direction other than the direction in which the danger is approaching and a direction in a direction other than the direction in which the danger is approaching, or a state other than the state in the direction in which the danger is approaching and the direction in which the danger is approaching An in-vehicle device comprising: a processing unit that transmits the image data to another device that generates composite image data capable of recognizing a state of a direction.
(Additional remark 2) The memory | storage part which associates and memorize | stores the image data image | photographed by these cameras, and at least one of the information on the state of the said vehicle at the timing which image | photographed this image data, and the information on the state inside the said vehicle The in-vehicle device according to appendix 1, further comprising:
(Additional remark 3) The said process part transmits this synthetic | combination image data to the apparatus which is not mounted in the said vehicle, when the said synthetic | combination image data is produced | generated, The vehicle-mounted apparatus of Additional remark 1 or 2 characterized by the above-mentioned.
(Additional remark 4) The said composite image data is data which can recognize the state which looked down at the said vehicle from the top, The vehicle-mounted apparatus in any one of Additional remarks 1-3 characterized by the above-mentioned.
(Supplementary note 5) The in-vehicle device according to any one of supplementary notes 1 to 4, wherein the state in which the danger is approaching is a state in which an obstacle has approached the vehicle more than a predetermined distance.
(Appendix 6) a sensor mounted on the vehicle;
A plurality of cameras mounted on the vehicle;
An in-vehicle system comprising: the in-vehicle device according to any one of appendices 1 to 5.
(Additional remark 7) The vehicle-mounted system of Additional remark 6 further provided with the acquisition apparatus which acquires the information on the state of the said vehicle, and the information on the state inside the said vehicle.
(Supplementary Note 8) Based on data obtained from sensors mounted on the vehicle, it is detected whether or not the vehicle is in danger.
A state in which the danger is approaching by combining image data taken by a plurality of cameras mounted on the vehicle from the time when it is detected that the danger is approaching the vehicle during driving And an image data processing method, wherein one or a plurality of computers execute a process of generating composite image data capable of recognizing a state in a direction other than the direction in which the danger is approaching.
(Supplementary Note 9) The image data captured by the plurality of cameras and at least one of the information on the state of the vehicle and the information on the internal state of the vehicle at the timing when the image data is captured are stored in the storage unit in association with each other. The image data processing method according to appendix 8, wherein the one or more computers execute the process.
(Supplementary note 10) The image data processing method according to supplementary note 8 or 9, wherein the one or more computers execute the process of transmitting the composite image data to a device not mounted on the vehicle.
(Additional remark 11) The said synthetic image data is data which can recognize the state which looked down at the said vehicle from the top, The image data processing method in any one of Additional remark 8-10 characterized by the above-mentioned.
(Supplementary note 12) The image data processing method according to any one of supplementary notes 8 to 11, wherein the state in which the danger is approaching is a state in which an obstacle has approached the vehicle by a predetermined distance or more.
(Additional remark 13) Based on the data obtained from the sensor mounted in the vehicle, it is detected whether or not the vehicle is in danger.
A state in which the danger is approaching by combining image data taken by a plurality of cameras mounted on the vehicle from the time when it is detected that the danger is approaching the vehicle during driving And an image data processing program for generating a composite image data capable of recognizing a state in a direction other than the direction in which the danger is approaching.
(Supplementary Note 14) The image data captured by the plurality of cameras and at least one of the information on the state of the vehicle and the information on the internal state of the vehicle at the timing when the image data is captured are stored in the storage unit in association with each other. The image data processing program according to appendix 13, wherein the computer executes the process.
(Supplementary note 15) The image data processing program according to supplementary note 13 or 14, wherein the computer is caused to execute a process of transmitting the composite image data to a device not mounted on the vehicle.
(Additional remark 16) The said synthetic image data is data which can recognize the state which looked down at the said vehicle from the top, The image data processing program in any one of Additional remarks 13-15 characterized by the above-mentioned.
(Supplementary note 17) The image data processing program according to any one of supplementary notes 13 to 16, wherein the state in which the danger is approaching is a state in which an obstacle has approached the vehicle more than a predetermined distance.

20 車載システム
21 カメラ
23 センサ
24 車載計器類(取得装置)
30 車載装置
38 危険状態判定部(検出部)
40 画像合成部(処理部)
42 通信部(処理部)
20 Vehicle-mounted system 21 Camera 23 Sensor 24 Vehicle-mounted instrument (acquisition device)
30 On-vehicle device 38 Dangerous state determination unit (detection unit)
40 Image composition unit (processing unit)
42 Communication unit (processing unit)

Claims (8)

車両に搭載されたセンサから得られるデータに基づいて、車両に危険が迫っている状態か否かを検出する検出部と、
車両運転時に前記検出部により前記車両に前記危険が迫っている状態であることが検出された時点から、前記車両に搭載された複数のカメラが撮影した画像データを合成して前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成するか、又は前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する他の装置への前記画像データの送信を行う処理部と、を備える車載装置。
A detection unit that detects whether or not the vehicle is in danger based on data obtained from a sensor mounted on the vehicle;
From the time when the detection unit detects that the vehicle is in danger when the vehicle is in operation, the image is taken by combining image data taken by a plurality of cameras mounted on the vehicle. Generating composite image data capable of recognizing a state in a direction other than the direction in which the danger is approaching and a direction in a direction other than the direction in which the danger is approaching, or a direction other than the state in the direction in which the danger is approaching and the direction in which the danger is approaching And a processing unit that transmits the image data to another device that generates composite image data that can recognize the state of the vehicle.
前記複数のカメラが撮影した画像データと、該画像データを撮影したタイミングにおける前記車両の状態の情報及び前記車両の内部の状態の情報の少なくとも一方と、を関連付けて記憶する記憶部を更に備える請求項1に記載の車載装置。   The image processing apparatus further includes a storage unit that stores image data captured by the plurality of cameras and at least one of information on a state of the vehicle and information on an internal state of the vehicle at a timing when the image data is captured. The in-vehicle device according to Item 1. 前記処理部は、前記合成画像データを生成した場合に、該合成画像データを前記車両に搭載されていない装置に送信することを特徴とする請求項1又は2に記載の車載装置。   The in-vehicle device according to claim 1, wherein, when the composite image data is generated, the processing unit transmits the composite image data to a device that is not mounted on the vehicle. 前記合成画像データは、前記車両を上から俯瞰した状態を認識可能なデータであることを特徴とする請求項1〜3のいずれか一項に記載の車載装置。   The in-vehicle device according to any one of claims 1 to 3, wherein the composite image data is data capable of recognizing a state in which the vehicle is viewed from above. 前記危険が迫っている状態は、前記車両に障害物が予め定めた距離以上接近してきた状態であることを特徴とする請求項1〜4のいずれか一項に記載の車載装置。   The in-vehicle device according to any one of claims 1 to 4, wherein the danger is approaching a state where an obstacle has approached the vehicle more than a predetermined distance. 車両に搭載されたセンサと、
前記車両に搭載された複数のカメラと、
請求項1〜5のいずれか一項に記載の車載装置と、を備える車載システム。
A sensor mounted on the vehicle;
A plurality of cameras mounted on the vehicle;
An in-vehicle system provided with the in-vehicle device according to any one of claims 1 to 5.
車両に搭載されたセンサから得られるデータに基づいて、車両に危険が迫っている状態か否かを検出し、
車両運転時に前記車両に前記危険が迫っている状態であることが検出された時点から、前記車両に搭載された複数のカメラが撮影した画像データを合成し、前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する、処理を1又は複数のコンピュータが実行することを特徴とする画像データ処理方法。
Based on data obtained from sensors mounted on the vehicle, it is detected whether the vehicle is in danger or not,
A state in which the danger is approaching by combining image data taken by a plurality of cameras mounted on the vehicle from the time when it is detected that the danger is approaching the vehicle during driving And an image data processing method, wherein one or a plurality of computers execute a process of generating composite image data capable of recognizing a state in a direction other than the direction in which the danger is approaching.
車両に搭載されたセンサから得られるデータに基づいて、車両に危険が迫っている状態か否かを検出し、
車両運転時に前記車両に前記危険が迫っている状態であることが検出された時点から、前記車両に搭載された複数のカメラが撮影した画像データを合成し、前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する、処理をコンピュータに実行させる画像データ処理プログラム。
Based on data obtained from sensors mounted on the vehicle, it is detected whether the vehicle is in danger or not,
A state in which the danger is approaching by combining image data taken by a plurality of cameras mounted on the vehicle from the time when it is detected that the danger is approaching the vehicle during driving And an image data processing program for generating a composite image data capable of recognizing a state in a direction other than the direction in which the danger is approaching.
JP2015007211A 2015-01-16 2015-01-16 On-vehicle device, on-vehicle system, image data processing method, and image data processing program Pending JP2016133932A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015007211A JP2016133932A (en) 2015-01-16 2015-01-16 On-vehicle device, on-vehicle system, image data processing method, and image data processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015007211A JP2016133932A (en) 2015-01-16 2015-01-16 On-vehicle device, on-vehicle system, image data processing method, and image data processing program

Publications (1)

Publication Number Publication Date
JP2016133932A true JP2016133932A (en) 2016-07-25

Family

ID=56426241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015007211A Pending JP2016133932A (en) 2015-01-16 2015-01-16 On-vehicle device, on-vehicle system, image data processing method, and image data processing program

Country Status (1)

Country Link
JP (1) JP2016133932A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092342A (en) * 2016-12-02 2018-06-14 日野自動車株式会社 Engine Overrun Recording Method
JP2020091823A (en) * 2018-11-26 2020-06-11 パナソニックIpマネジメント株式会社 Accident image acquisition system and accident image acquisition electronic mirror camera system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063681A (en) * 2000-08-23 2002-02-28 Matsushita Electric Ind Co Ltd On-vehicle image display device
JP2011181101A (en) * 2011-05-27 2011-09-15 Fujitsu Ten Ltd Recorder for vehicle information
JP2012253609A (en) * 2011-06-03 2012-12-20 Fujitsu Ten Ltd Drive information recording device and vehicle periphery image reproduction system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002063681A (en) * 2000-08-23 2002-02-28 Matsushita Electric Ind Co Ltd On-vehicle image display device
JP2011181101A (en) * 2011-05-27 2011-09-15 Fujitsu Ten Ltd Recorder for vehicle information
JP2012253609A (en) * 2011-06-03 2012-12-20 Fujitsu Ten Ltd Drive information recording device and vehicle periphery image reproduction system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092342A (en) * 2016-12-02 2018-06-14 日野自動車株式会社 Engine Overrun Recording Method
JP2020091823A (en) * 2018-11-26 2020-06-11 パナソニックIpマネジメント株式会社 Accident image acquisition system and accident image acquisition electronic mirror camera system
JP7352890B2 (en) 2018-11-26 2023-09-29 パナソニックIpマネジメント株式会社 Accident image acquisition system and accident image acquisition electronic mirror camera system

Similar Documents

Publication Publication Date Title
JP4674187B2 (en) System, information aggregation method, and information aggregation program
US11206465B1 (en) Adaptive methods to minimize data storage and data transfer
US20120044327A1 (en) Device for acquiring stereo image
CN111262903B (en) Server device and vehicle
JP7024603B2 (en) Data recording device
KR101455847B1 (en) Digital tachograph with black-box and lane departure warning
JP2008221906A (en) Damage part informing system for vehicle
CN206209911U (en) Driving recorder with intelligence
CN112542052A (en) Method for warning unprotected traffic participants
KR102111596B1 (en) Realtime monitoring system for detecting event relating to relative speed and distance of another vehicle
JP6345572B2 (en) Traveling video recording system, drive recorder used therefor, and method for uploading recorded traveling video
JP2002342883A (en) Dangerous driving suppressing device
JP5439949B2 (en) Stereo measurement system and video playback system
KR20100057253A (en) Image recording equipment around a vehicle
JP2016133932A (en) On-vehicle device, on-vehicle system, image data processing method, and image data processing program
JP2011131728A (en) Recording system
US11769332B2 (en) Sensor fusion for collision detection
JP2012038229A (en) Drive recorder
EP3761271B1 (en) Vehicle recording device, vehicle recording method, and program
JP2018191207A (en) Recording control device, recording device, recording control method, and recording control program
WO2019220987A1 (en) Terminal device and collection method
US20190071043A1 (en) Advanced collision detection and enhanced automotive crash notification
JP7187371B2 (en) Video provision system
KR20140068312A (en) Method of managing traffic accicident information using electronic recording device of vehicle and apparatus for the same
US11455847B2 (en) Method and apparatus for obtaining event related data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190312