JP2016133932A - On-vehicle device, on-vehicle system, image data processing method, and image data processing program - Google Patents
On-vehicle device, on-vehicle system, image data processing method, and image data processing program Download PDFInfo
- Publication number
- JP2016133932A JP2016133932A JP2015007211A JP2015007211A JP2016133932A JP 2016133932 A JP2016133932 A JP 2016133932A JP 2015007211 A JP2015007211 A JP 2015007211A JP 2015007211 A JP2015007211 A JP 2015007211A JP 2016133932 A JP2016133932 A JP 2016133932A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image data
- danger
- state
- approaching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、車載装置、車載システム、画像データ処理方法及び画像データ処理プログラムに関する。 The present invention relates to an in-vehicle device, an in-vehicle system, an image data processing method, and an image data processing program.
従来、自動車などの車両に搭載されるドライブレコーダは、車両の一定方向(例えば前方)をカメラで常時録画する。また、従来のドライブレコーダは、障害物等と衝突したか否かを検出する加速度センサ等の検出結果に基づいて、衝突前後の映像を保管する(例えば、特許文献1参照)。 Conventionally, a drive recorder mounted on a vehicle such as an automobile always records a certain direction (for example, forward) of the vehicle with a camera. Further, the conventional drive recorder stores videos before and after the collision based on the detection result of an acceleration sensor or the like that detects whether or not the vehicle collides with an obstacle or the like (see, for example, Patent Document 1).
また、従来、車両に設けられた複数カメラで撮影した映像を再生する場合において、映像取得中にセンサ等でイベントが検知されていた場合に、イベントの方向に向いた映像を生成して再生する技術が知られている(例えば、特許文献2参照)。 Conventionally, in the case of playing back images shot by a plurality of cameras provided in a vehicle, if an event is detected by a sensor or the like during video acquisition, a video oriented in the direction of the event is generated and played back. A technique is known (for example, refer to Patent Document 2).
しかしながら、上記特許文献2では、例えば衝突時において衝突方向の映像を生成するが、衝突方向の映像だけでは、衝突発生時の状況証拠を的確に示すことができない場合がある。例えば、衝突方向と反対方向で発生した事象に起因して衝突が発生した場合や、複数方向で発生した事象に起因した複合事象であった場合、衝突方向の事象だけでは状況を的確に示すことができない。また、上記特許文献2は再生に関する技術を示すものにすぎない。
However, in the above-mentioned
1つの側面では、本発明は、車両に事故が発生した場合の適切な状況証拠を効率的に残すことが可能な車載装置、車載システム、画像データ処理方法及び画像データ処理プログラムを提供することを目的とする。 In one aspect, the present invention provides an in-vehicle device, an in-vehicle system, an image data processing method, and an image data processing program that can efficiently leave appropriate situation evidence when an accident occurs in a vehicle. Objective.
一つの態様では、車載装置は、車両に搭載されたセンサから得られるデータに基づいて、車両に危険が迫っている状態か否かを検出する検出部と、車両運転時に前記検出部により前記車両に前記危険が迫っている状態であることが検出された時点から、前記車両に搭載された複数のカメラが撮影した画像データを合成して、前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成するか、又は前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する他の装置への前記画像データの送信を行う処理部と、を備えている。 In one aspect, the in-vehicle device includes: a detection unit that detects whether or not the vehicle is in danger based on data obtained from a sensor mounted on the vehicle; and the vehicle by the detection unit during driving of the vehicle. From the time when it is detected that the danger is imminent, the image data taken by a plurality of cameras mounted on the vehicle is synthesized, and the state of the danger imminent and the danger Composite image data capable of recognizing a state in a direction other than the approaching direction, or a composite image capable of recognizing the state in the direction in which the danger is approaching and the state in a direction other than the direction in which the danger is approaching A processing unit that transmits the image data to another device that generates data.
車両に事故が発生した場合の適切な状況証拠を効率的に残すことができる。 Appropriate situational evidence in the event of a vehicle accident can be efficiently left.
以下、情報処理システムの一実施形態について、図1〜図9に基づいて詳細に説明する。 Hereinafter, an embodiment of an information processing system will be described in detail with reference to FIGS.
図1には、一実施形態に係る情報処理システム100の構成が概略的に示されている。情報処理システム100は、1又は複数の車載システム20と、サーバ10とを備える。車載システム20とサーバ10は、インターネットなどのネットワーク80に接続されている。
FIG. 1 schematically shows a configuration of an
図2(a)には、車載システム20のハードウェア構成が示されている。車載システム20は、自動車などの車両に設けられるシステムであり、図2(a)に示すように、カメラ群28と、センサ群26と、取得装置としての車載計器類24と、車載装置30と、を備える。
FIG. 2A shows a hardware configuration of the in-
カメラ群28は、複数のカメラ21を有する。複数のカメラ21は、例えば、図3に示すように、車両の前側、後側、左側、右側に1つずつ、計4つ設けられているものとする。ただし、カメラ21の個数や配置は、車両の形状等に合わせて適宜変更してもよい。なお、カメラ21は、例えば、運転をアシストするために予め車両に設けられているカメラであってもよいし、後付けしたカメラであってもよい。なお、各カメラは、例えば、図3において破線で示す範囲を撮影可能な広角カメラであるものとする。
The
センサ群26は、複数のセンサ23を有する。センサ23としては、クリアランスソナーやミリ波レーダ等、障害物接近を検知できるものであればよい。なお、カメラ群28の撮影画像から障害物接近を検知できる場合には、カメラ群28をセンサ群26として利用しても良い。センサ23は、例えば、図3に示すように、車両の前側、後側、左側、右側に2つずつ、計8つ設けられているものとする。なお、センサ23は、安全性向上のため、予め車両に設けられているセンサであってもよいし、後付けしたセンサであってもよい。
The
車載計器類24は、車両の状態を計測するセンサ類を含む。例えば、車載計器類24には、速度センサ、加速度センサ、ハンドルの角度(操舵角)を検出するセンサ、ブレーキのON、OFFを検出するセンサ、ウィンカー(方向指示器)の作動状態を検出するセンサ等を含む。なお、車載計器類24としては、車内を撮影可能なカメラや、GPSセンサ、ジャイロセンサなどを含んでいてもよい。
The vehicle-mounted
車載装置30は、カメラ群28、センサ群26、及び車載計器類24から情報等を取得し、処理し、各種データをサーバ10に送信する。図2(b)には、車載装置30のハードウェア構成が示されている。図2(b)に示すように、車載装置30は、CPU(Central Processing Unit)190、ROM(Read Only Memory)192、RAM(Random Access Memory)194、記憶部(ここではHDD(Hard Disk Drive))196、ネットワークインタフェース197、及び可搬型記憶媒体用ドライブ199等を備えている。これら車載装置30の各部は、バス198に接続されている。なお、カメラ群28、センサ群26、及び車載計器類24は不図示のインタフェース部を介してバス198に接続されている。CPU190が、ROM192あるいはHDD196に格納されているプログラム(画像データ処理プログラムを含む)、或いは可搬型記憶媒体用ドライブ199が可搬型記憶媒体191から読み取ったプログラム(画像データ処理プログラムを含む)を実行することにより、車載装置30を、図5に示す各部として機能させる。なお、図5の各部の詳細については後述する。
The in-
図1に戻り、サーバ10は、1又は複数の車載システム20から送信されてくるデータを収集し、管理する。図4には、サーバ10のハードウェア構成が示されている。サーバ10は、図4に示すように、CPU90、ROM92、RAM94、記憶部(HDD)96、ネットワークインタフェース97、及び可搬型記憶媒体用ドライブ99等を備えている。サーバ10の各部は、バス98に接続されている。CPU90は、ROM92あるいはHDD96に格納されているプログラム、或いは可搬型記憶媒体用ドライブ99が可搬型記憶媒体91から読み取ったプログラムを実行することで、サーバ10を図5の各部として機能させる。
Returning to FIG. 1, the
次に、図5に基づいて、車載装置30及びサーバ10の機能について説明する。
Next, functions of the in-
図5に示すように、車載装置30は、CPU190がプログラムを実行することで、画像取得部32、車両情報取得部34、検出結果取得部36、検出部としての危険状態判定部38、処理部としての画像合成部40、及び通信部42として機能する。なお、図5には、HDD196等に格納される車両DB50及び合成画像DB52も図示されている。
As illustrated in FIG. 5, the in-
画像取得部32は、カメラ群28において撮影される画像データを取得し、車両DB50に格納する。なお、画像取得部32は、カメラ群28において撮影される動画データから1フレームごとに切り出した画像データ(静止画データ)を車両DB50に格納するものとする。
The
車両情報取得部34は、車載計器類24において検出される車両情報を車両DB50に格納する。なお、画像取得部32で取得された画像データと、該画像データと同一時刻において車両情報取得部34で取得された車両情報は、関連付けられた状態で車両DB50に格納される。
The vehicle information acquisition part 34 stores the vehicle information detected in the vehicle-mounted
ここで、車両DB50のデータ構造について、図6(a)に基づいて説明する。車両DB50は、図6(a)に示すように、「時刻」、「画像」、「速度」、「加速度」、「ハンドル」、「ブレーキ」、「ウィンカー」等のフィールドを有する。「時刻」のフィールドには、画像データや車両情報が取得された時刻(日時)の情報が格納される。「画像」のフィールドには、カメラ群28(4つのカメラ21)で取得された4つの画像データ(1フレーム)が格納される。「速度」のフィールドには、車両の速度(km/h)が格納され、「加速度」のフィールドには、車両の加速度(m/s2)が格納される。「ハンドル」のフィールドには、ハンドルが中立位置からどの程度(何度)回転した状態にあるかの情報(すなわち、操舵角の情報)が格納され、「ブレーキ」のフィールドには、ブレーキを踏んでいるか否かの情報(ON/OFF)が格納される。また、「ウィンカー」のフィールドには、ウィンカーを利用した状態か否か(左/右/なし)が格納される。なお、車両DB50には、上記のほか、車両の位置情報(例えば、車両に搭載されたGPSセンサ等から取得できる)や、進行方向の情報(例えば、ジャイロセンサ等から取得できる)などが格納されていてもよい。また、車両DB50には、車両内部を撮影した画像データ(例えば、運転者の状態を確認できる画像データ等)が格納されてもよい。なお、車両DB50においては、格納できる情報(レコード)の数が予め定められている。このため、予め定められている数の情報が車両DB50に格納された後は、古い情報から順次削除される。
Here, the data structure of vehicle DB50 is demonstrated based on Fig.6 (a). As shown in FIG. 6A, the
図5に戻り、検出結果取得部36は、センサ群26による衝突可能性の検出結果を取得する。検出結果取得部36は、取得した結果を危険状態判定部38に送信する。
Returning to FIG. 5, the detection
危険状態判定部38は、検出結果取得部36から受信したセンサ群26の検出結果に基づいて、車両に危険が迫ってきているか否かを判定する。危険状態判定部38の判定結果は、画像合成部40に送信される。
The dangerous
画像合成部40は、危険状態判定部38の判定結果に基づいて、車両DB50に格納された画像データ(同一時刻に取得された画像データ)を合成して合成画像データを生成する。画像合成部40は、生成した合成画像データを通信部42に送信する。また画像合成部40は、通信部42がサーバ10と通信できない場合には、合成画像データを合成画像DB52に格納する。
The
ここで、合成画像DB52は、図6(b)に示すようなデータ構造を有する。図6(b)に示すように、合成画像DB52は、撮影された時刻と対応付けて合成画像データを格納する。
Here, the
図5に戻り、通信部42は、ネットワーク80に直接接続する、もしくは、携帯端末経由でネットワーク80に接続することで、サーバ10の通信部12との間で画像データや情報のやり取りを行う。本実施形態では、通信部42は、画像合成部40が生成した合成画像データや、車両DB50に格納されている車両情報(速度や加速度などの情報)を、ネットワーク80を介してサーバ10に送信する。
Returning to FIG. 5, the
次に、サーバ10の機能について説明する。サーバ10は、CPU90がプログラムを実行することにより、図5に示す通信部12及び情報処理部14として機能する。通信部12は、ネットワーク80を介して車載装置30の通信部42から、合成画像データやこれに関連する車両情報を取得し、情報処理部14に送信する。
Next, functions of the
情報処理部14は、通信部12から取得した合成画像データや車両情報を全車両DB16に格納する。ここで、全車両DB16は、図7に示すようなデータ構造を有する。図7に示すように、全車両DB16は、車両DB50(図6(a))と比較して、「車両」フィールドが新たに設けられているとともに、「動画」フィールドが「画像」フィールドに代えて設けられている。「車両」フィールドには、車両の識別情報が格納され、「動画」フィールドには、取得した合成画像データから得られる動画データが格納される。その他のフィールドについては、図6(a)の車両DB50と同様である。
The
次に、車載システム20(車載装置30)の処理について、図8のフローチャートに沿って、その他図面を適宜参照しつつ詳細に説明する。なお、図8の処理は、例えば、車両の運転者がイグニッションキーをONにした場合や、車載装置30の電源が運転者によってONされた場合等に実行される処理である。すなわち、図8の処理は、運転者が車両を運転している間に実行される処理である。
Next, processing of the in-vehicle system 20 (in-vehicle device 30) will be described in detail along the flowchart of FIG. 8 with reference to other drawings as appropriate. The process of FIG. 8 is a process that is executed, for example, when the driver of the vehicle turns on the ignition key or when the power source of the in-
図8の処理では、まず、ステップS10において、画像取得部32がカメラ21から画像データを取得し、検出結果取得部36がセンサ23の検出結果を取得し、車両情報取得部34が車載計器類24から車両状態を取得する。なお、ステップS10の処理は、カメラ21の1フレームごとに実行されるものとする。
In the process of FIG. 8, first, in step S10, the
次いで、ステップS12では、画像取得部32が、取得した画像データを車両DB50に記憶するとともに、車両情報取得部34が、取得した車両情報を車両DB50に記憶する。この場合、図6の各レコード(行)のように、画像データと車両情報が取得時刻と関連付けて車両DB50に格納される。
Next, in step S12, the
次いで、ステップS14では、危険状態判定部38が、検出結果取得部36から取得したセンサの検出結果に基づいて、車両に危険が迫っているか否かを判断する。例えば、車両の前方や後方から別の車両が接近している場合には、ステップS14の判断は肯定され、ステップS16に移行する。一方、ステップS14の判断が否定された場合には、ステップS10に戻る。
Next, in step S14, the dangerous
ステップS14の判断が肯定されて、ステップS16に移行すると、画像合成部40は、車両DB50に直前に格納された画像データを合成し、合成画像データを生成する。例えば、図3のように、車両に4つのカメラ21が設けられている場合には、合成画像データとして、図9に示すような車両周囲を見渡せる、車両を上から俯瞰したような合成画像データを生成する。この合成画像データは、危険が迫っている方向の状態及びその方向以外の方向の状態を認識可能な合成画像データであるといえる。例えば、他車Aによって後方から追突された場合において、前方の画像データしか残ってなければ、他車Aによって追突された事象が画像データとして残らない。これに対し、図9のような合成画像データを生成することにより、前方に障害物があることで自車が危険回避のためにハンドルを切り、そこへ他車Aが後ろから衝突した、という一連の事象を把握することができる。また、その時に反対車線の他車Bの動き等も同時に把握することができる。なお、合成画像データに関連する車両情報として、車両が急減速したという情報が含まれていれば、急減速により、後方の他車Aが自社に追突したことも把握することができる。
When the determination in step S14 is affirmed and the process proceeds to step S16, the
次いで、ステップS18では、通信部42が、ネットワーク80に接続されているか否かを判断する。ここでの判断が肯定された場合には、通信部42は、画像合成部40で生成された合成画像データと、車両DB50に記憶された車両情報とを関連付けた状態で、サーバ10の通信部12に送信する。その後は、ステップS10に移行する。
Next, in step S <b> 18, the
一方、ステップS18の判断が否定された場合、すなわち、通信部42がネットワーク80に接続されていない場合には、ステップS22に移行する。ステップS22に移行すると、画像合成部40は、生成した合成画像データを合成画像DB52に記憶する。この場合、生成した合成画像データの元になった画像データを取得した時刻と関連づけて合成画像データを合成画像DB52に記憶しておくものとする。ステップS22の処理の後は、ステップS10に戻る。なお、合成画像DB52に記憶された合成画像データは、通信部42がネットワーク80に接続された場合において、合成画像データに対応する車両情報(車両DB50に記憶されている)とともに、サーバ10に適宜送信されるものとする。
On the other hand, if the determination in step S18 is negative, that is, if the
なお、サーバ10の情報処理部14は、車載装置30において図8のステップS20の処理が繰り返し実行されることにより、合成画像データと車両情報を順次取得することになる。この場合、情報処理部14は、取得した合成画像データと車両情報とを全車両DB16に格納する。なお、情報処理部14は、車両の識別情報が同一で、時刻が連続する複数の合成画像データについては、連続的につなぎ合わせた動画データとして、全車両DB16に格納するものとする(図7の「ABCD」参照)。
Note that the
以上の処理により、車両が事故にあった場合に、その前後の車両を上から俯瞰した状態を示す合成画像データ(動画データ)がサーバ10の全車両DB50に蓄積されることになる。このため、ユーザ等は事故があった場合に、全車両DB50の動画データを確認することで、事故原因等を詳細に分析することができる。また、これに合わせて、全車両DB50に蓄積されている車両情報を確認することで、事故原因等を更に詳細に分析することができる。
Through the above processing, when the vehicle is in an accident, composite image data (moving image data) indicating a state where the vehicles before and after the vehicle are viewed from above are accumulated in the all
以上詳細に説明したように、本実施形態によると、車載装置30は、車両に搭載されたセンサ23(センサ群26)から得られるデータに基づいて、車両に危険が迫っている状態か否かを危険状態判定部38と、車両運転時に危険が迫っている状態であることが検出された時点から、車両に搭載された複数のカメラ21(カメラ群28)が撮影した画像データを合成し、危険が迫っている方向の状態と危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する画像合成部40と、を備えている。これにより、危険が迫っていたり、事故が発生したときの、危険が迫っている方向の状態と危険が迫っている方向以外の方向の状態を確認できる合成画像データ(動画データ)を状況証拠として残すことができる。この合成画像データ(動画データ)により、事故が発生した場合に、事故の状況のほか、事故の間接的な原因や事故が発生したときの周囲の様子などを確認することが可能となる。また、本実施形態では、合成画像データを常時生成しないため、合成画像データを常時生成する場合と比べ、処理量を低減することができる。すなわち、本実施形態によれば、効率的に事故の適切な状況証拠を残すことができる。
As described above in detail, according to the present embodiment, the in-
また、本実施形態では、危険が迫っている状態は、車両に障害物が予め定めた距離以上接近してきた状態としているので、車両に障害物が所定以上接近してきたという適切なタイミングから画像データを合成することができる。 Further, in the present embodiment, since the state where the danger is imminent is a state where the obstacle has approached the vehicle more than a predetermined distance, the image data is obtained from an appropriate timing that the obstacle has approached the vehicle more than a predetermined distance. Can be synthesized.
また、本実施形態では、複数のカメラが撮影した画像データと、該画像データを撮影したタイミングにおける車両情報(例えば、速度や加速度)と、を関連付けて記憶する車両DB50を備えている。これにより、事故が発生した場合における車両の状態を確認することができるので、より詳細な事故原因の分析等を行うことが可能となる。
In the present embodiment, a
また、本実施形態では、画像合成部40が合成画像データを生成した場合に、合成画像データを車両に搭載されていない装置(サーバ10)にリアルタイムで送信する(図8のステップS20参照)。これにより、事故によって火災等が発生し車載装置30が壊れるような事態が生じても、事故の状況証拠となるデータを車両外のサーバ10に退避させているので、状況証拠の消失を抑制することができる。
Further, in the present embodiment, when the
なお、上記実施形態では、図9に示すように、合成画像データが、車両の真上から俯瞰したような画像データである場合について説明した。しかしながら、これに限られるものではなく、例えば、車両の周囲を360°見渡したような合成画像データ、運転者からの視野範囲をカバーする合成画像データなど、種々の合成画像データを生成するようにしてもよい。 In the above-described embodiment, as illustrated in FIG. 9, the case has been described in which the composite image data is image data as seen from directly above the vehicle. However, the present invention is not limited to this. For example, various composite image data such as composite image data overlooking the periphery of the vehicle by 360 ° and composite image data covering the field of view from the driver are generated. May be.
なお、上記実施形態では、車載計器類24から得られる車両情報を画像データ及び合成画像データに関連付ける場合について説明したが、必ずしも車両情報を関連付けなくてもよい。
In the above embodiment, the case where the vehicle information obtained from the vehicle-mounted
また、上記実施形態では、全車両DB16に格納するデータが動画データである場合について説明したが、これに限らず、静止画のデータであってもよい。また、上記実施形態では、車両DB50に画像データを常時記憶する場合について説明したが、これに限らず、画像データは車両DB50に記憶しないようにしてもよい。この場合、車載装置30のHDD196の記憶容量を低減することができる。
Moreover, although the case where the data stored in all the vehicle DB16 was moving image data was demonstrated in the said embodiment, it is not restricted to this, You may be still image data. Moreover, although the said embodiment demonstrated the case where image data was always memorize | stored in vehicle DB50, not only this but you may make it not memorize | store image data in vehicle DB50. In this case, the storage capacity of the
なお、上記実施形態では、車載装置30において画像データを合成する場合について説明したが、これに限られるものではない。例えば、図10に示すように、車載装置30から画像合成部40や合成画像DB52を省略し、サーバ10の情報処理部14に合成処理部としての機能を持たせるようにしてもよい。この場合、危険状態判定部38が危険が迫っている状態であると判断した場合に、通信部42が画像データと車両情報とを関連付けた状態でサーバ10に送信するようにする。そして、サーバ10の情報処理部14は、受信した画像データを合成して合成画像データを生成するようにすればよい。このようにしても、上記実施形態と同様の効果を得ることができる。なお、図10の場合、通信部42を含んで、複数の画像データから、危険が迫っている方向と危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する他の装置(サーバ10)へ画像データを送信する処理部としての機能が実現されている。
In addition, although the said embodiment demonstrated the case where image data was synthesize | combined in the vehicle-mounted
なお、上記実施形態では、合成画像データをサーバ10に送信する場合について説明したが、これに限られるものではない。例えば、合成画像データ等を記憶するデータベースを、車両内に設けられた耐久性や耐火性の高い筐体内に設けられた記憶装置に格納し、当該データベースに車載装置30で生成された合成画像データ等を記憶するようにしてもよい。これにより、事故が発生し、車両が炎上等しても状況証拠が消失するのを抑制することができる。また、サーバ10やネットワーク80を設けなくてもよいことから、システム構築に必要な費用の低減が可能であるとともに、通信費等が不要となるという利点もある。
In the above embodiment, the case where the composite image data is transmitted to the
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。 The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the processing apparatus should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium (except for a carrier wave).
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When the program is distributed, for example, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
なお、以上の実施形態の説明に関して、更に以下の付記を開示する。
(付記1) 車両に搭載されたセンサから得られるデータに基づいて、車両に危険が迫っている状態か否かを検出する検出部と、
車両運転時に前記検出部により前記車両に前記危険が迫っている状態であることが検出された時点から、前記車両に搭載された複数のカメラが撮影した画像データを合成して、前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成するか、又は前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する他の装置への前記画像データの送信を行う処理部と、を備える車載装置。
(付記2) 前記複数のカメラが撮影した画像データと、該画像データを撮影したタイミングにおける前記車両の状態の情報及び前記車両の内部の状態の情報の少なくとも一方と、を関連付けて記憶する記憶部を更に備える付記1に記載の車載装置。
(付記3) 前記処理部は、前記合成画像データを生成した場合に、該合成画像データを前記車両に搭載されていない装置に送信することを特徴とする付記1又は2に記載の車載装置。
(付記4) 前記合成画像データは、前記車両を上から俯瞰した状態を認識可能なデータであることを特徴とする付記1〜3のいずれかに記載の車載装置。
(付記5) 前記危険が迫っている状態は、前記車両に障害物が予め定めた距離以上接近してきた状態であることを特徴とする付記1〜4のいずれかに記載の車載装置。
(付記6) 車両に搭載されたセンサと、
前記車両に搭載された複数のカメラと、
付記1〜5のいずれかに記載の車載装置と、を備える車載システム。
(付記7) 前記車両の状態の情報及び前記車両の内部の状態の情報の少なくとも一方を取得する取得装置を更に備える付記6に記載の車載システム。
(付記8) 車両に搭載されたセンサから得られるデータに基づいて、車両に危険が迫っている状態か否かを検出し、
車両運転時に前記車両に前記危険が迫っている状態であることが検出された時点から、前記車両に搭載された複数のカメラが撮影した画像データを合成し、前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する、処理を1又は複数のコンピュータが実行することを特徴とする画像データ処理方法。
(付記9) 前記複数のカメラが撮影した画像データと、該画像データを撮影したタイミングにおける前記車両の状態の情報及び前記車両の内部の状態の情報の少なくとも一方と、を関連付けて記憶部に記憶する、処理を前記1又は複数のコンピュータが実行することを特徴とする付記8に記載の画像データ処理方法。
(付記10) 前記合成画像データを前記車両に搭載されていない装置に送信する、処理を前記1又は複数のコンピュータが実行することを特徴とする付記8又は9に記載の画像データ処理方法。
(付記11) 前記合成画像データは、前記車両を上から俯瞰した状態を認識可能なデータであることを特徴とする付記8〜10のいずれかに記載の画像データ処理方法。
(付記12) 前記危険が迫っている状態は、前記車両に障害物が予め定めた距離以上接近してきた状態であることを特徴とする付記8〜11のいずれかに記載の画像データ処理方法。
(付記13) 車両に搭載されたセンサから得られるデータに基づいて、車両に危険が迫っている状態か否かを検出し、
車両運転時に前記車両に前記危険が迫っている状態であることが検出された時点から、前記車両に搭載された複数のカメラが撮影した画像データを合成し、前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する、処理をコンピュータに実行させる画像データ処理プログラム。
(付記14) 前記複数のカメラが撮影した画像データと、該画像データを撮影したタイミングにおける前記車両の状態の情報及び前記車両の内部の状態の情報の少なくとも一方と、を関連付けて記憶部に記憶する、処理を前記コンピュータが実行させることを特徴とする付記13に記載の画像データ処理プログラム。
(付記15) 前記合成画像データを前記車両に搭載されていない装置に送信する、処理を前記コンピュータに実行させることを特徴とする付記13又は14に記載の画像データ処理プログラム。
(付記16) 前記合成画像データは、前記車両を上から俯瞰した状態を認識可能なデータであることを特徴とする付記13〜15のいずれかに記載の画像データ処理プログラム。
(付記17) 前記危険が迫っている状態は、前記車両に障害物が予め定めた距離以上接近してきた状態であることを特徴とする付記13〜16のいずれかに記載の画像データ処理プログラム。
In addition, the following additional remarks are disclosed regarding description of the above embodiment.
(Additional remark 1) Based on the data obtained from the sensor mounted in the vehicle, the detection part which detects whether the danger is approaching the vehicle,
From the time when the detection unit detects that the vehicle is in danger while the vehicle is in operation, the image data taken by a plurality of cameras mounted on the vehicle is synthesized, and the danger is approached. Generating composite image data capable of recognizing a state in a direction other than the direction in which the danger is approaching and a direction in a direction other than the direction in which the danger is approaching, or a state other than the state in the direction in which the danger is approaching and the direction in which the danger is approaching An in-vehicle device comprising: a processing unit that transmits the image data to another device that generates composite image data capable of recognizing a state of a direction.
(Additional remark 2) The memory | storage part which associates and memorize | stores the image data image | photographed by these cameras, and at least one of the information on the state of the said vehicle at the timing which image | photographed this image data, and the information on the state inside the said vehicle The in-vehicle device according to
(Additional remark 3) The said process part transmits this synthetic | combination image data to the apparatus which is not mounted in the said vehicle, when the said synthetic | combination image data is produced | generated, The vehicle-mounted apparatus of
(Additional remark 4) The said composite image data is data which can recognize the state which looked down at the said vehicle from the top, The vehicle-mounted apparatus in any one of Additional remarks 1-3 characterized by the above-mentioned.
(Supplementary note 5) The in-vehicle device according to any one of
(Appendix 6) a sensor mounted on the vehicle;
A plurality of cameras mounted on the vehicle;
An in-vehicle system comprising: the in-vehicle device according to any one of
(Additional remark 7) The vehicle-mounted system of Additional remark 6 further provided with the acquisition apparatus which acquires the information on the state of the said vehicle, and the information on the state inside the said vehicle.
(Supplementary Note 8) Based on data obtained from sensors mounted on the vehicle, it is detected whether or not the vehicle is in danger.
A state in which the danger is approaching by combining image data taken by a plurality of cameras mounted on the vehicle from the time when it is detected that the danger is approaching the vehicle during driving And an image data processing method, wherein one or a plurality of computers execute a process of generating composite image data capable of recognizing a state in a direction other than the direction in which the danger is approaching.
(Supplementary Note 9) The image data captured by the plurality of cameras and at least one of the information on the state of the vehicle and the information on the internal state of the vehicle at the timing when the image data is captured are stored in the storage unit in association with each other. The image data processing method according to appendix 8, wherein the one or more computers execute the process.
(Supplementary note 10) The image data processing method according to supplementary note 8 or 9, wherein the one or more computers execute the process of transmitting the composite image data to a device not mounted on the vehicle.
(Additional remark 11) The said synthetic image data is data which can recognize the state which looked down at the said vehicle from the top, The image data processing method in any one of Additional remark 8-10 characterized by the above-mentioned.
(Supplementary note 12) The image data processing method according to any one of supplementary notes 8 to 11, wherein the state in which the danger is approaching is a state in which an obstacle has approached the vehicle by a predetermined distance or more.
(Additional remark 13) Based on the data obtained from the sensor mounted in the vehicle, it is detected whether or not the vehicle is in danger.
A state in which the danger is approaching by combining image data taken by a plurality of cameras mounted on the vehicle from the time when it is detected that the danger is approaching the vehicle during driving And an image data processing program for generating a composite image data capable of recognizing a state in a direction other than the direction in which the danger is approaching.
(Supplementary Note 14) The image data captured by the plurality of cameras and at least one of the information on the state of the vehicle and the information on the internal state of the vehicle at the timing when the image data is captured are stored in the storage unit in association with each other. The image data processing program according to appendix 13, wherein the computer executes the process.
(Supplementary note 15) The image data processing program according to
(Additional remark 16) The said synthetic image data is data which can recognize the state which looked down at the said vehicle from the top, The image data processing program in any one of Additional remarks 13-15 characterized by the above-mentioned.
(Supplementary note 17) The image data processing program according to any one of supplementary notes 13 to 16, wherein the state in which the danger is approaching is a state in which an obstacle has approached the vehicle more than a predetermined distance.
20 車載システム
21 カメラ
23 センサ
24 車載計器類(取得装置)
30 車載装置
38 危険状態判定部(検出部)
40 画像合成部(処理部)
42 通信部(処理部)
20 Vehicle-mounted
30 On-
40 Image composition unit (processing unit)
42 Communication unit (processing unit)
Claims (8)
車両運転時に前記検出部により前記車両に前記危険が迫っている状態であることが検出された時点から、前記車両に搭載された複数のカメラが撮影した画像データを合成して前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成するか、又は前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する他の装置への前記画像データの送信を行う処理部と、を備える車載装置。 A detection unit that detects whether or not the vehicle is in danger based on data obtained from a sensor mounted on the vehicle;
From the time when the detection unit detects that the vehicle is in danger when the vehicle is in operation, the image is taken by combining image data taken by a plurality of cameras mounted on the vehicle. Generating composite image data capable of recognizing a state in a direction other than the direction in which the danger is approaching and a direction in a direction other than the direction in which the danger is approaching, or a direction other than the state in the direction in which the danger is approaching and the direction in which the danger is approaching And a processing unit that transmits the image data to another device that generates composite image data that can recognize the state of the vehicle.
前記車両に搭載された複数のカメラと、
請求項1〜5のいずれか一項に記載の車載装置と、を備える車載システム。 A sensor mounted on the vehicle;
A plurality of cameras mounted on the vehicle;
An in-vehicle system provided with the in-vehicle device according to any one of claims 1 to 5.
車両運転時に前記車両に前記危険が迫っている状態であることが検出された時点から、前記車両に搭載された複数のカメラが撮影した画像データを合成し、前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する、処理を1又は複数のコンピュータが実行することを特徴とする画像データ処理方法。 Based on data obtained from sensors mounted on the vehicle, it is detected whether the vehicle is in danger or not,
A state in which the danger is approaching by combining image data taken by a plurality of cameras mounted on the vehicle from the time when it is detected that the danger is approaching the vehicle during driving And an image data processing method, wherein one or a plurality of computers execute a process of generating composite image data capable of recognizing a state in a direction other than the direction in which the danger is approaching.
車両運転時に前記車両に前記危険が迫っている状態であることが検出された時点から、前記車両に搭載された複数のカメラが撮影した画像データを合成し、前記危険が迫っている方向の状態と前記危険が迫っている方向以外の方向の状態を認識可能な合成画像データを生成する、処理をコンピュータに実行させる画像データ処理プログラム。 Based on data obtained from sensors mounted on the vehicle, it is detected whether the vehicle is in danger or not,
A state in which the danger is approaching by combining image data taken by a plurality of cameras mounted on the vehicle from the time when it is detected that the danger is approaching the vehicle during driving And an image data processing program for generating a composite image data capable of recognizing a state in a direction other than the direction in which the danger is approaching.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015007211A JP2016133932A (en) | 2015-01-16 | 2015-01-16 | On-vehicle device, on-vehicle system, image data processing method, and image data processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015007211A JP2016133932A (en) | 2015-01-16 | 2015-01-16 | On-vehicle device, on-vehicle system, image data processing method, and image data processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016133932A true JP2016133932A (en) | 2016-07-25 |
Family
ID=56426241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015007211A Pending JP2016133932A (en) | 2015-01-16 | 2015-01-16 | On-vehicle device, on-vehicle system, image data processing method, and image data processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016133932A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018092342A (en) * | 2016-12-02 | 2018-06-14 | 日野自動車株式会社 | Engine Overrun Recording Method |
JP2020091823A (en) * | 2018-11-26 | 2020-06-11 | パナソニックIpマネジメント株式会社 | Accident image acquisition system and accident image acquisition electronic mirror camera system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002063681A (en) * | 2000-08-23 | 2002-02-28 | Matsushita Electric Ind Co Ltd | On-vehicle image display device |
JP2011181101A (en) * | 2011-05-27 | 2011-09-15 | Fujitsu Ten Ltd | Recorder for vehicle information |
JP2012253609A (en) * | 2011-06-03 | 2012-12-20 | Fujitsu Ten Ltd | Drive information recording device and vehicle periphery image reproduction system |
-
2015
- 2015-01-16 JP JP2015007211A patent/JP2016133932A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002063681A (en) * | 2000-08-23 | 2002-02-28 | Matsushita Electric Ind Co Ltd | On-vehicle image display device |
JP2011181101A (en) * | 2011-05-27 | 2011-09-15 | Fujitsu Ten Ltd | Recorder for vehicle information |
JP2012253609A (en) * | 2011-06-03 | 2012-12-20 | Fujitsu Ten Ltd | Drive information recording device and vehicle periphery image reproduction system |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018092342A (en) * | 2016-12-02 | 2018-06-14 | 日野自動車株式会社 | Engine Overrun Recording Method |
JP2020091823A (en) * | 2018-11-26 | 2020-06-11 | パナソニックIpマネジメント株式会社 | Accident image acquisition system and accident image acquisition electronic mirror camera system |
JP7352890B2 (en) | 2018-11-26 | 2023-09-29 | パナソニックIpマネジメント株式会社 | Accident image acquisition system and accident image acquisition electronic mirror camera system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4674187B2 (en) | System, information aggregation method, and information aggregation program | |
US11206465B1 (en) | Adaptive methods to minimize data storage and data transfer | |
US20120044327A1 (en) | Device for acquiring stereo image | |
CN111262903B (en) | Server device and vehicle | |
JP7024603B2 (en) | Data recording device | |
KR101455847B1 (en) | Digital tachograph with black-box and lane departure warning | |
JP2008221906A (en) | Damage part informing system for vehicle | |
CN206209911U (en) | Driving recorder with intelligence | |
CN112542052A (en) | Method for warning unprotected traffic participants | |
KR102111596B1 (en) | Realtime monitoring system for detecting event relating to relative speed and distance of another vehicle | |
JP6345572B2 (en) | Traveling video recording system, drive recorder used therefor, and method for uploading recorded traveling video | |
JP2002342883A (en) | Dangerous driving suppressing device | |
JP5439949B2 (en) | Stereo measurement system and video playback system | |
KR20100057253A (en) | Image recording equipment around a vehicle | |
JP2016133932A (en) | On-vehicle device, on-vehicle system, image data processing method, and image data processing program | |
JP2011131728A (en) | Recording system | |
US11769332B2 (en) | Sensor fusion for collision detection | |
JP2012038229A (en) | Drive recorder | |
EP3761271B1 (en) | Vehicle recording device, vehicle recording method, and program | |
JP2018191207A (en) | Recording control device, recording device, recording control method, and recording control program | |
WO2019220987A1 (en) | Terminal device and collection method | |
US20190071043A1 (en) | Advanced collision detection and enhanced automotive crash notification | |
JP7187371B2 (en) | Video provision system | |
KR20140068312A (en) | Method of managing traffic accicident information using electronic recording device of vehicle and apparatus for the same | |
US11455847B2 (en) | Method and apparatus for obtaining event related data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171003 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180718 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180731 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190312 |