JP2019087969A - Travel field investigation support device - Google Patents

Travel field investigation support device Download PDF

Info

Publication number
JP2019087969A
JP2019087969A JP2017217094A JP2017217094A JP2019087969A JP 2019087969 A JP2019087969 A JP 2019087969A JP 2017217094 A JP2017217094 A JP 2017217094A JP 2017217094 A JP2017217094 A JP 2017217094A JP 2019087969 A JP2019087969 A JP 2019087969A
Authority
JP
Japan
Prior art keywords
data
vehicle
moving image
degree
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017217094A
Other languages
Japanese (ja)
Inventor
昌彦 宇井
Masahiko Ui
昌彦 宇井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Mapmaster Inc
Original Assignee
Toyota Mapmaster Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Mapmaster Inc filed Critical Toyota Mapmaster Inc
Priority to JP2017217094A priority Critical patent/JP2019087969A/en
Publication of JP2019087969A publication Critical patent/JP2019087969A/en
Pending legal-status Critical Current

Links

Images

Abstract

To improve efficiency of storage and transmission of moving image data acquired in a travel field investigation.SOLUTION: A device, which applies a process to data of a moving image photographed with vehicle travel to reduce the volume of the data, comprises a mapping unit for mapping vehicle travel history data to the moving image data; and a determination unit for determining a degree of reducing the volume of the moving image data by processing, on the basis of a travel history.SELECTED DRAWING: Figure 1

Description

本発明は、走行現調支援装置に関する。   The present invention relates to a driving condition adjustment support device.

カーナビゲーション装置や、パーソナルコンピュータ等の上で動作して地図を表示するアプリケーション等において使用される地図データや道路データを整備するため、カメラを搭載した車両で実際に道路を走行して現地調査(以下、「走行現調」ともいう)を行うことがある。地図データは、車両が実際に走行することで得られる位置情報や、車両に搭載したカメラにより撮影される走行時の車両の周囲の画像等(動画像を含む)に基づいて作成される。   In order to maintain map data and road data used in car navigation devices, applications that operate on personal computers, etc. and display maps, a vehicle equipped with a camera actually travels the road to perform on-site surveys Hereinafter, it may be referred to as "the current driving condition". The map data is created based on position information obtained when the vehicle actually travels, an image (including a moving image) of the surroundings of the vehicle at the time of traveling, which is photographed by a camera mounted on the vehicle, and the like.

この場合、車両の走行中に撮影した全ての動画像のデータを保管することとなると膨大なストレージが必要となり、結果としてデータ整備のための設備コストが嵩む虞がある。また、動画像のデータをデータセンターのストレージへ格納するために走行現調の現場から通信によりアップロードすると、通信コストが嵩むだけでなく、データの送信時間が長時間となり、結果として送信の失敗が生じたり、作業者の負担が過大となったりする虞がある。   In this case, if it is necessary to store data of all moving images taken while the vehicle is traveling, a huge amount of storage is required, which may result in an increase in the cost of equipment for data maintenance. In addition, when moving image data is uploaded via communication from the field of the current condition to store it in the storage of the data center, not only communication costs increase, but also the data transmission time takes a long time, resulting in transmission failure. There is a risk that the burden on the worker may be excessive.

特開2003−42796号公報JP 2003-42796 A

特許文献1(特開2003−42796号公報)には、ネットワークを介したデータの転送を効率よく行うための技術が記載されている。特許文献1に記載の技術は、ルートガイド用の動画像データにルートガイド上の重要度を設定し、その重要度に基づいて動画像データを間引きして、間引きデータを生成するものである(引用文献1の明細書の段落[0025]、[0026]、[0033]参照)。
ただし、特許文献1に記載の技術は、サーバからカーナビゲーション装置に対してデータを送信する際の効率を向上させようとするものであって、走行現調の現場からデータセンターへ動画像データを送信する際の効率向上に関するものではない。
Patent Document 1 (Japanese Patent Laid-Open No. 2003-42796) describes a technique for efficiently transferring data via a network. The technology described in Patent Document 1 sets importance on a route guide in moving image data for a route guide, and thins moving image data based on the importance to generate decimated data ( See paragraphs [0025], [0026], [0033] of the specification of cited document 1)).
However, the technique described in Patent Document 1 is intended to improve the efficiency in transmitting data from the server to the car navigation device, and moving image data from the current driving site to the data center It does not relate to the efficiency improvement in transmission.

本発明は上述の課題に鑑みてなされたものであり、走行現調時に取得される動画像データの保管や送信の効率向上を図ることをその目的の一つとする。
すなわち、本発明の第1の局面による装置は、車両走行に伴い撮影した動画像のデータに対して処理を施すことによりそのデータ量を低減する装置であって、車両の走行履歴データを動画像のデータに対応付ける対応付け部と、動画像のデータのデータ量を処理により低減する度合いを、走行履歴に基づき決定する決定部と、を含む装置である。
The present invention has been made in view of the above-described problems, and an object thereof is to improve the efficiency of storage and transmission of moving image data acquired at the time of actual driving.
That is, the device according to the first aspect of the present invention is a device that reduces the amount of data by performing processing on data of a moving image taken as the vehicle travels, and the moving history data of the vehicle is And a determination unit that determines the degree of reducing the data amount of moving image data by processing based on the travel history.

上記構成の装置によれば、走行現調により得られた動画像データを、車両の走行履歴に基づく度合いに応じて低減することができる。そのため、必要な情報を損なうことなく動画像データ用のストレージを小さくすることができ、データ整備のための設備コスト低減に寄与できる。また、動画像のデータを走行現調の現場からデータセンターのストレージへ通信によりアップロードする場合には通信コストを低減できるとともに、送信時間を短縮できる。それにより送信の失敗の可能性を低減でき、作業者の負担も軽減できる。   According to the apparatus of the above configuration, it is possible to reduce the moving image data obtained by the current driving control according to the degree based on the traveling history of the vehicle. Therefore, the storage for moving image data can be made smaller without losing necessary information, which can contribute to the reduction of equipment cost for data maintenance. In addition, when uploading moving image data from the current driving site to the storage of the data center by communication, the communication cost can be reduced and the transmission time can be shortened. As a result, the possibility of transmission failure can be reduced, and the burden on the operator can also be reduced.

また、本発明の第2の局面によれば、上記装置において、対応付け部は、車両の走行履歴データを、動画像を撮影した時刻に基づき動画像のデータに対応付け、決定部は、所定の時間内の動画像のデータのデータ量を処理により低減する度合いを、所定の時間内の所定の時刻の走行履歴に基づき決定する。
これによれば、所定の時間毎の動画像に適した低減の度合いによりその動画像のデータを低減することができる。
Further, according to the second aspect of the present invention, in the above device, the associating unit associates the traveling history data of the vehicle with the data of the moving image based on the time when the moving image was captured, and the determining unit The degree to which the amount of data of moving image data in the time period is reduced by the process is determined based on the traveling history at a predetermined time in a predetermined time.
According to this, it is possible to reduce the data of the moving image by the degree of reduction suitable for the moving image every predetermined time.

また、本発明の第3の局面によれば、上記装置は、走行履歴から車両の座標を抽出する座標抽出部と、座標抽出部が抽出した車両の座標に基づき、車両が走行した道路の道路特性を地図データから抽出する道路特性抽出部と、を更に含み、決定部は、道路特性抽出部が抽出した道路特性に基づき度合いを決定する。
これによれば、車両が実際に走行した道路の道路特性に基づき動画像のデータのデータ量を低減する度合いを決定できるため、道路特性に応じたより適切な動画像データのデータ量の低減を行うことができる。
Further, according to the third aspect of the present invention, a road on the road on which the vehicle has traveled based on the coordinate extracting unit for extracting the coordinates of the vehicle from the traveling history and the coordinates of the vehicle extracted by the coordinate extracting unit. The determination unit further includes a road characteristic extraction unit that extracts characteristics from the map data, and the determination unit determines the degree based on the road characteristics extracted by the road characteristic extraction unit.
According to this, since it is possible to determine the degree to which the data amount of moving image data is reduced based on the road characteristics of the road on which the vehicle actually travels, the data amount of moving image data is more appropriately reduced according to the road characteristics. be able to.

また、本発明の第4の局面によれば、上記装置は、車両の速度を走行履歴から抽出または算出する速度判断部を更に含み、決定部は、速度判断部が抽出または算出した車両の速度に基づき度合いを決定する。
これによれば、車両の速度に応じたより適切な動画像データのデータ量の低減を行うことができる。
Further, according to the fourth aspect of the present invention, the apparatus further includes a speed determination unit that extracts or calculates the speed of the vehicle from the travel history, and the determination unit determines the speed of the vehicle extracted or calculated by the speed determination unit. Determine the degree based on
According to this, it is possible to reduce the data amount of moving image data more appropriately according to the speed of the vehicle.

また、本発明の第5の局面によれば、上記装置において、走行履歴は車両の運転状態を含み、決定部は、車両の運転状態に基づき度合いを決定する。
これによれば、車両の運転状態に応じたより適切な動画像データのデータ量の低減を行うことができる。
Further, according to the fifth aspect of the present invention, in the above-mentioned device, the travel history includes the driving state of the vehicle, and the determining unit determines the degree based on the driving state of the vehicle.
According to this, it is possible to reduce the data amount of moving image data more appropriately according to the driving state of the vehicle.

また、本発明の第6の局面による方法は、車両走行に伴い撮影した動画像のデータに対して処理を施すことによりそのデータ量を低減する方法であって、車両の走行履歴データを動画像のデータに対応付ける対応付けステップと、動画像のデータのデータ量を処理により低減する度合いを、走行履歴に基づき決定する決定ステップと、を含む。
これによれば、第1の局面と同様の効果を奏することができる。
The method according to the sixth aspect of the present invention is a method of reducing the amount of data by processing the data of moving images taken as the vehicle travels. And a determination step of determining the degree of reducing the data amount of the moving image data by processing based on the traveling history.
According to this, the same effect as that of the first aspect can be achieved.

また、本発明の第7の局面によれば、上記方法において、対応付けステップは、車両の走行履歴データを、動画像を撮影した時刻に基づき動画像のデータに対応付け、決定ステップは、所定の時間内の動画像のデータのデータ量を処理により低減する度合いを、所定の時間内の所定の時刻の走行履歴に基づき決定する。
これによれば、第2の局面と同様の効果を奏することができる。
Further, according to the seventh aspect of the present invention, in the above method, the associating step associates the traveling history data of the vehicle with the data of the moving image based on the time when the moving image was taken, The degree to which the amount of data of moving image data in the time period is reduced by the process is determined based on the traveling history at a predetermined time in a predetermined time.
According to this, the same effect as that of the second aspect can be achieved.

また、本発明の第8の局面によれば、上記方法において、走行履歴から車両の座標を抽出する座標抽出ステップと、座標抽出ステップが抽出した車両の座標に基づき、車両が走行した道路の道路特性を地図データから抽出する道路特性抽出ステップと、を更に含み、決定ステップは、道路特性抽出ステップが抽出した道路特性に基づき度合いを決定する。
これによれば、第3の局面と同様の効果を奏することができる。
Further, according to an eighth aspect of the present invention, in the above method, a road of a road on which the vehicle has traveled based on the coordinate extraction step of extracting the coordinates of the vehicle from the traveling history and the coordinates of the vehicle extracted by the coordinate extraction step. The method further includes a road characteristic extraction step of extracting the characteristic from the map data, and the determination step determines the degree based on the road characteristic extracted by the road characteristic extraction step.
According to this, the same effect as that of the third aspect can be achieved.

また、本発明の第9の局面によれば、上記方法において、車両の速度を走行履歴から抽出または算出する速度判断ステップを更に含み、決定ステップは、速度判断ステップが抽出または算出した車両の速度に基づき度合いを決定する。
これによれば、第4の局面と同様の効果を奏することができる。
Further, according to a ninth aspect of the present invention, in the above method, the method further includes a speed determination step of extracting or calculating the speed of the vehicle from the traveling history, and the determining step includes the speed of the vehicle extracted or calculated by the speed determination step. Determine the degree based on
According to this, the same effect as that of the fourth aspect can be achieved.

また、本発明の第10の局面によれば、上記方法において、走行履歴は車両の運転状態を含み、決定ステップは、車両の運転状態に基づき度合いを決定する。
これによれば、第5の局面と同様の効果を奏することができる。
Further, according to the tenth aspect of the present invention, in the above method, the travel history includes the driving state of the vehicle, and the determining step determines the degree based on the driving state of the vehicle.
According to this, the same effect as that of the fifth aspect can be achieved.

また、本発明の第11の局面によるコンピュータプログラムは、車両走行に伴い撮影した動画像のデータに対して処理を施すことによりそのデータ量を低減するためのコンピュータプログラムであって、コンピュータを、車両の走行履歴データを動画像のデータに対応付ける対応付け手段と、動画像のデータのデータ量を処理により低減する度合いを、走行履歴に基づき決定する決定手段として機能させる。
これによれば、第1の局面と同様の効果を奏することができる。
A computer program according to an eleventh aspect of the present invention is a computer program for reducing the amount of data by performing processing on data of moving images taken as the vehicle travels. It functions as an associating means for associating the traveling history data with the moving image data, and a determining means for determining the degree of reducing the data amount of the moving image data based on the traveling history.
According to this, the same effect as that of the first aspect can be achieved.

また、本発明の第12の局面によれば、上記コンピュータプログラムにおいて、対応付け手段は、車両の走行履歴データを、動画像を撮影した時刻に基づき動画像のデータに対応付け、決定手段は、所定の時間内の動画像のデータのデータ量を処理により低減する度合いを、所定の時間内の所定の時刻の走行履歴に基づき決定する。
これによれば、第2の局面と同様の効果を奏することができる。
According to a twelfth aspect of the present invention, in the computer program, the associating means associates the traveling history data of the vehicle with the data of the moving image based on the time when the moving image was taken, and the determining means The degree to which the amount of data of moving image data within a predetermined time is reduced by the process is determined based on the travel history of the predetermined time within the predetermined time.
According to this, the same effect as that of the second aspect can be achieved.

また、本発明の第13の局面によれば、上記コンピュータプログラムは、コンピュータを更に、走行履歴から車両の座標を抽出する座標抽出手段と、座標抽出手段が抽出した車両の座標に基づき、車両が走行した道路の道路特性を地図データから抽出する道路特性抽出手段として機能させ、決定手段は、道路特性抽出手段が抽出した道路特性に基づき度合いを決定する。
これによれば、第3の局面と同様の効果を奏することができる。
Further, according to a thirteenth aspect of the present invention, the computer program further includes a computer based on coordinate extraction means for extracting coordinates of the vehicle from the traveling history, and the vehicle based on the coordinates of the vehicle extracted by the coordinate extraction means. The road characteristic extraction means functions as road characteristic extraction means for extracting from the map data the road characteristics of the traveled road, and the determination means determines the degree based on the road characteristics extracted by the road characteristic extraction means.
According to this, the same effect as that of the third aspect can be achieved.

また、本発明の第14の局面によれば、上記コンピュータプログラムは、コンピュータを更に、車両の速度を走行履歴から抽出または算出する速度判断手段として機能させ、決定手段は、速度判断手段が抽出または算出した車両の速度に基づき度合いを決定する。
これによれば、第4の局面と同様の効果を奏することができる。
Further, according to a fourteenth aspect of the present invention, the computer program causes the computer to further function as speed determining means for extracting or calculating the speed of the vehicle from the traveling history, and the determining means is The degree is determined based on the calculated speed of the vehicle.
According to this, the same effect as that of the fourth aspect can be achieved.

また、本発明の第15の局面によれば、上記コンピュータプログラムにおいて、走行履歴は車両の運転状態を含み、決定手段は、車両の運転状態に基づき度合いを決定する。
これによれば、第5の局面と同様の効果を奏することができる。
Further, according to a fifteenth aspect of the present invention, in the computer program, the travel history includes the driving state of the vehicle, and the determination means determines the degree based on the driving state of the vehicle.
According to this, the same effect as that of the fifth aspect can be achieved.

また、本発明の第16の局面によれば、上記コンピュータプログラムを記録する記録媒体が規定される。   Further, according to a sixteenth aspect of the present invention, a recording medium for recording the computer program is defined.

図1は、本発明の一実施形態に係る走行現調支援装置の構成を示す構成図である。FIG. 1 is a block diagram showing the configuration of a running condition adjustment support device according to an embodiment of the present invention. 図2は、一実施形態に係る走行現調支援装置の動画像データ低減ユニットの構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of a moving image data reduction unit of the traveling reality adjustment support device according to the embodiment. 図3は、一実施形態に係る動画像データ低減ユニットによる動画像データの低減方法の流れを説明するためのフローチャートである。FIG. 3 is a flowchart for explaining the flow of a moving image data reduction method by the moving image data reduction unit according to an embodiment. 図4(A)は、一実施形態に係る走行現調支援装置を搭載した車両を示し、図4(B)は図4(A)の車両を走行させて行う走行現調の例を示す図である。FIG. 4 (A) shows a vehicle equipped with the traveling condition adjustment support device according to one embodiment, and FIG. 4 (B) shows an example of a traveling condition performed by causing the vehicle of FIG. 4 (A) to travel. It is. 図5は、一実施形態に係る動画像データ低減ユニットによる動画像データの低減方法を説明するための説明図である。FIG. 5 is an explanatory diagram for explaining a moving image data reduction method by the moving image data reduction unit according to one embodiment. 図6は、一実施形態に係る動画像データ低減ユニットによる動画像データの低減方法を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining a moving image data reduction method by the moving image data reduction unit according to an embodiment.

以下、本発明の一実施形態に係る走行現調支援装置1およびそれを用いた走行現調の例を添付の図を参照しながら説明する。走行現調支援装置1は車両に搭載され、車両にて道路を走行しながら地図データの作成に必要な情報を得る現地調査(すなわち走行現調)を行うために用いられる。
(走行現調支援装置)
図1に、本発明の一実施形態に係る走行現調支援装置1のハードウェア構成を示す。図1に示すように、本実施形態の走行現調支援装置1は、GPS受信装置10、自律測位装置20、車両操作センサ30、制御装置40、地図データベース50(地図DB)、表示装置60、入力装置70、前方撮影装置80、後方撮影装置90、記憶装置100、通信装置110、システムバス120を備える。
Hereinafter, an example of a running present adjustment support device 1 according to an embodiment of the present invention and a running present adjustment using the same will be described with reference to the attached drawings. The traveling current adjustment support device 1 is mounted on a vehicle, and is used to perform on-site surveys (that is, traveling current adjustment) for acquiring information necessary for generating map data while traveling on a road with the vehicle.
(Driving condition adjustment support device)
FIG. 1 shows a hardware configuration of a running condition adjustment assisting device 1 according to an embodiment of the present invention. As shown in FIG. 1, the traveling reality control assisting device 1 of the present embodiment includes a GPS receiving device 10, an autonomous positioning device 20, a vehicle operation sensor 30, a control device 40, a map database 50 (map DB), a display device 60, An input device 70, a front imaging device 80, a rear imaging device 90, a storage device 100, a communication device 110, and a system bus 120 are provided.

GPS受信装置10は、複数のGPS(Global Positioning System)衛星から測位用データを含む電波を受信する。測位用データは、各時刻における車両の絶対的な位置情報(緯度および経度)を得るために用いられる。   The GPS receiver 10 receives radio waves including positioning data from a plurality of GPS (Global Positioning System) satellites. The positioning data is used to obtain absolute position information (latitude and longitude) of the vehicle at each time.

自律測位装置20は、加速度センサ21、角速度センサ22、距離センサ23を含む。加速度センサ21は圧電素子等を含み、走行現調支援装置1が搭載された車両の加速度を検出し、加速度データを出力する。角速度センサ22は振動ジャイロ等を含み、車両の方向転換時における車両の角速度を検出し、角速度データおよび相対方位データを出力する。距離センサ23は、車両の車輪の回転に伴って発生されるパルス信号からなる車速パルスを計測し、出力する。これらの加速度データ、角速度データ、相対方位データ、車速パルスは、自車両の相対的な位置情報を得るために用いられる。   The autonomous positioning device 20 includes an acceleration sensor 21, an angular velocity sensor 22, and a distance sensor 23. The acceleration sensor 21 includes a piezoelectric element or the like, detects the acceleration of the vehicle on which the traveling condition adjustment support device 1 is mounted, and outputs acceleration data. The angular velocity sensor 22 includes a vibrating gyroscope or the like, detects an angular velocity of the vehicle at the time of turning of the vehicle, and outputs angular velocity data and relative azimuth data. The distance sensor 23 measures and outputs a vehicle speed pulse composed of a pulse signal generated as the wheels of the vehicle rotate. These acceleration data, angular velocity data, relative azimuth data, and vehicle speed pulses are used to obtain relative position information of the vehicle.

車両操作センサ30は車両の各種の操作状態を検出するセンサであり、例えば、車両のハンドル、ワイパー、方向指示器、アクセル、ブレーキ等の操作状態を検出し、検出した操作状態を示す信号またはデータ(以下、これらをまとめて「車両操作データ」と称する)を出力する。   The vehicle operation sensor 30 is a sensor that detects various operation states of the vehicle. For example, the vehicle operation sensor 30 detects an operation state of a steering wheel, a wiper, a direction indicator, an accelerator, a brake, etc. (Hereafter, these are collectively called "vehicle operation data").

制御装置40は、インタフェース41、CPU42(Central Processing Unit)、ROM43(Read Only Memory)、RAM44(Random Access Memory)を含み、走行現調支援装置1全体の制御を行う。インタフェース41は、GPS受信装置10、加速度センサ21、角速度センサ22、距離センサ23、車両操作センサ30とのインタフェース動作を行う。そしてこれらから、測位用データ、加速度データ、角速度データ、相対方位データ、車速パルス、車両操作データを制御装置40内へ受け入れる。CPU42は制御装置40全体を制御する。ROM43は、制御装置40を制御する制御プログラム等が格納された図示しない不揮発性メモリを含む。RAM44は、入力装置70を介して利用者により予め設定された各種設定値を読み出し可能に格納したり、CPU42に対してワーキングエリアを提供したりする。制御装置40を制御する制御プログラムはROM43に限らずRAM44や記憶装置100に格納されていてもよい。   The control device 40 includes an interface 41, a CPU 42 (Central Processing Unit), a ROM 43 (Read Only Memory), and a RAM 44 (Random Access Memory), and performs control of the entire running condition support device 1. The interface 41 performs an interface operation with the GPS receiver 10, the acceleration sensor 21, the angular velocity sensor 22, the distance sensor 23, and the vehicle operation sensor 30. From these, positioning data, acceleration data, angular velocity data, relative heading data, vehicle speed pulses, and vehicle operation data are received into the control device 40. The CPU 42 controls the entire control device 40. The ROM 43 includes a non-volatile memory (not shown) in which a control program for controlling the control device 40 and the like is stored. The RAM 44 readably stores various setting values preset by the user via the input device 70, and provides a working area to the CPU 42. The control program for controlling the control device 40 is not limited to the ROM 43, and may be stored in the RAM 44 or the storage device 100.

地図データベース50には地図データが格納されている。地図データにはリンクやノードなど地図情報を規定するための道路要素に関する情報と地図に描画される情報等が緯度情報および経度情報に対応付けられて含まれる。   The map database 50 stores map data. The map data includes information related to road elements for defining map information such as links and nodes and information drawn on the map in association with latitude information and longitude information.

表示装置60は、制御装置40の制御により各種の表示データを表示する表示画面を含む装置である。例えば、前方撮影装置80および後方撮影装置90により撮影される動画像を表示してもよく、GPS受信装置10や自律測位装置20から送信されるデータに基づく自車両位置の情報(緯度情報、経度情報)を表示してもよい。制御装置40が地図データベース50から地図データを読み出すことで、自車両の走行する領域を含む地図を表示装置60により表示してもよく、自車両の位置を地図上に表示してもよい。その場合、別途のナビゲーション装置により提供されるナビゲーション画像を表示装置60により表示してもよい。また、車両操作センサ30からの出力に基づく車両操作状態を示す情報を表示装置60により表示してもよい。また、表示装置60は、入力装置70を用いる入力のためのヒューマンインターフェースとして機能してもよい。   The display device 60 is a device including a display screen for displaying various display data under the control of the control device 40. For example, a moving image captured by the front imaging device 80 and the rear imaging device 90 may be displayed, and information of the vehicle position based on data transmitted from the GPS receiving device 10 or the autonomous positioning device 20 (latitude information, longitude Information) may be displayed. By reading map data from the map database 50, the control device 40 may display a map including the area where the host vehicle travels on the display device 60, or may display the position of the host vehicle on the map. In that case, a navigation image provided by a separate navigation device may be displayed by the display device 60. Further, information indicating the vehicle operation state based on the output from the vehicle operation sensor 30 may be displayed by the display device 60. The display device 60 may also function as a human interface for input using the input device 70.

入力装置70は、各種コマンドやデータを入力するための、キー、スイッチ、ボタン、リモコン、音声入力装置等から構成されていてもよい。入力装置70は、車内に搭載された当該車載用電子システムの本体のフロントパネルや表示装置60の周囲に配置されるものとしてもよい。また、表示装置60がタッチパネル方式である場合には、表示装置60の表示画面上に設けられたタッチパネルも入力装置70として機能する。
さらに、入力装置70は、音声ユニットも含める。音声ユニットは、音声認識部およびマイクを備える。利用者が発生した音声は、マイクにより集音され、音声認識部へ入力される。音声認識部は、利用者による音声指示を認識処理し、認識結果を制御装置40に提供する。これにより、利用者は、リモコンやタッチパネルの代わりに、音声により指示等を入力することができる。利用者による音声をそのまま音声のデータとして取り込んでもよい。
The input device 70 may be configured of keys, switches, buttons, a remote control, an audio input device, and the like for inputting various commands and data. The input device 70 may be disposed around the front panel of the main body of the on-vehicle electronic system mounted in the vehicle or around the display device 60. When the display device 60 is a touch panel system, the touch panel provided on the display screen of the display device 60 also functions as the input device 70.
Furthermore, the input device 70 also includes an audio unit. The voice unit comprises a voice recognition unit and a microphone. The voice generated by the user is collected by the microphone and input to the voice recognition unit. The voice recognition unit recognizes the voice instruction from the user and provides the control device 40 with the recognition result. Thus, the user can input an instruction or the like by voice instead of the remote control or the touch panel. The voice by the user may be taken as it is as voice data.

前方撮影装置80および後方撮影装置90はそれぞれ車両の前方および後方に取り付けられるカメラを含み、制御装置40の制御に応じて、車両の前方および後方の動画像を取得する。前方撮影装置80および後方撮影装置90を車両400へ取り付ける際の配置例を図4(A)に示す。ただし前方撮影装置80および後方撮影装置90の配置方法は、図4(A)に示す例に限られず、前方撮影装置80は車両400の前方を含む前方を撮影可能な箇所であれば良く、後方撮影装置90は、車両400の後方を含む後方を撮影可能な箇所であれば良い。また、車両400の周囲の動画像を撮影するための撮影装置の数や配置位置はこれらに限られない。   The front imaging device 80 and the rear imaging device 90 respectively include cameras attached to the front and the rear of the vehicle, and acquire moving images of the front and the rear of the vehicle according to the control of the control device 40. An exemplary arrangement for attaching the front imaging device 80 and the rear imaging device 90 to the vehicle 400 is shown in FIG. 4 (A). However, the arrangement method of the front imaging device 80 and the rear imaging device 90 is not limited to the example shown in FIG. 4A, and the front imaging device 80 may be any portion capable of imaging the front including the front of the vehicle 400 The imaging device 90 may be any portion capable of imaging the rear including the rear of the vehicle 400. Further, the number and arrangement positions of the imaging devices for capturing moving images around the vehicle 400 are not limited to these.

記憶装置100は、例えば、HDD等により構成される。制御装置40は、前方撮影装置80および後方撮影装置90により取得した動画像データや走行履歴データを、各データの取得時刻と対応付けて記憶する。ここで走行履歴データとは、GPS受信装置10および自律測位装置20により提供されるデータに基づき得られる車両400の位置情報のデータおよび車両操作センサ30により提供される車両操作データを含む。これにより、動画像データと走行履歴データとは、それらの取得時刻により互いに対応付けられて記憶装置100に保管されることとなる。   The storage device 100 is configured of, for example, an HDD or the like. The control device 40 stores moving image data and travel history data acquired by the front imaging device 80 and the rear imaging device 90 in association with the acquisition time of each data. Here, the travel history data includes data of position information of the vehicle 400 obtained based on data provided by the GPS receiving device 10 and the autonomous positioning device 20, and vehicle operation data provided by the vehicle operation sensor 30. As a result, the moving image data and the traveling history data are stored in the storage device 100 in association with each other according to their acquisition times.

通信装置110はいわゆるモデム等から構成されており、制御装置40の制御の下、電話回線網や無線通信網により構成されるネットワークを介して、データセンター200に動画像データを含む種々の情報を送信する。
制御装置40、地図データベース50、表示装置60、入力装置70、前方撮影装置80、後方撮影装置90、記憶装置100、通信装置110は、システムバス120を介して相互に接続されている。
The communication device 110 is constituted by a so-called modem or the like, and under the control of the control device 40, the data center 200 transmits various information including moving image data to the data center 200 via a network constituted by a telephone network and a wireless communication network. Send.
The control device 40, the map database 50, the display device 60, the input device 70, the front imaging device 80, the rear imaging device 90, the storage device 100, and the communication device 110 are mutually connected via the system bus 120.

(動画像データ低減ユニット)
制御装置40は図2に示す動画像データ低減ユニット300を含む。動画像データ低減ユニット300は、地図データ取得部301、走行履歴取得部302、動画像データ取得部303、道路特性判断部304、運転状態判断部305、交通標識判断部306、障害物判断部307、間引き度算出部308、間引き実行部309、間引き後動画像データ出力部310を含む。すなわち、制御装置40は、所定のプログラムを実行することにより、地図データ取得部301、走行履歴取得部302、動画像データ取得部303、道路特性判断部304、運転状態判断部305、交通標識判断部306、障害物判断部307、間引き度算出部308、間引き実行部309、間引き後動画像データ出力部310を含む動画像低減ユニット300を実現する。
(Moving image data reduction unit)
The control device 40 includes a moving image data reduction unit 300 shown in FIG. The moving image data reduction unit 300 includes a map data acquisition unit 301, a travel history acquisition unit 302, a moving image data acquisition unit 303, a road characteristic determination unit 304, a driving condition determination unit 305, a traffic sign determination unit 306, and an obstacle determination unit 307. A thinning degree calculation unit 308, a thinning execution unit 309, and a post-thinning moving image data output unit 310 are included. That is, the control device 40 executes a predetermined program to obtain the map data acquisition unit 301, the travel history acquisition unit 302, the moving image data acquisition unit 303, the road characteristic judgment unit 304, the driving condition judgment unit 305, and the traffic sign judgment. A moving image reduction unit 300 including a unit 306, an obstacle judging unit 307, a thinning degree calculating unit 308, a thinning execution unit 309, and a thinned after moving image data output unit 310 is realized.

次に、動画像データ低減ユニット300の動作について説明する。走行履歴取得部302は、記憶装置100に保管されている走行履歴データを取得する。動画像データ取得部303は、記憶装置100に保管されている動画像データを取得する。
地図データ取得部301は、走行履歴取得部302が取得した走行履歴データに基づき、地図データベース50に保管された地図データから、車両が走行した道路を含む所定領域の地図の地図データを取得する。その際、各時刻における車両の位置情報を、取得した地図データに対応付ける。
Next, the operation of the moving image data reduction unit 300 will be described. The traveling history acquisition unit 302 acquires traveling history data stored in the storage device 100. The moving image data acquisition unit 303 acquires moving image data stored in the storage device 100.
The map data acquisition unit 301 acquires map data of a map of a predetermined area including the road on which the vehicle has traveled from the map data stored in the map database 50 based on the travel history data acquired by the travel history acquisition unit 302. At this time, positional information of the vehicle at each time is associated with the acquired map data.

道路特性判断部304は、地図データ取得部301が取得した地図データに基づき、車両が走行した道路の道路特性を判断する。例えば、車両が走行した道路の指定速度や道路の近傍に存在する交通標識の有無や特徴的な道路形状の有無(例えば、交差点、道路の分岐点、合流点、車線数の変化点、高速道路の出入り口等)その他を判断する。
運転状態判断部305は、走行履歴取得部302が取得した走行履歴データに基づき、各時刻における車両の運転状態(車速や、車両のハンドル、ワイパー、方向指示器、アクセル、ブレーキ等の操作状態等)を判断する。
The road characteristic judgment unit 304 judges the road characteristic of the road on which the vehicle has traveled based on the map data acquired by the map data acquisition unit 301. For example, the designated speed of the road on which the vehicle traveled, the presence or absence of a traffic sign present in the vicinity of the road, and the presence or absence of a characteristic road shape (for example, intersection, junction of roads, junction point, number of lanes change, expressway Judging entrance etc.) and others.
The driving state determination unit 305 is based on the traveling history data acquired by the traveling history acquisition unit 302, the driving state of the vehicle at each time (the vehicle speed, the steering wheel of the vehicle, the wiper, the direction indicator, the accelerator, the brake operation state, etc.) To determine.

交通標識判断部306は、動画像データ取得部303が取得した動画像データに基づき、各時刻に前方撮影装置80および後方撮影装置90により撮影した動画像に交通標識の映像が含まれているか否かを画像認識手法により行う。交通標識の映像が動画像に含まれているか否かの判断においては、地図データ取得部301が取得した地図データを併用してもよい。
障害物判断部307は、動画像データ取得部303が取得した動画像データの動画像に大型車両などの障害物の映像が含まれているか否かを判断する。「動画像に障害物の映像が含まれている」とは、例えば、動画像の全領域のうち所定の割合以上の範囲を占める障害物が所定時間以上にわたって撮影されている状態とすることができる。
The traffic sign determination unit 306 determines whether or not the video of the traffic sign is included in the moving image captured by the front imaging device 80 and the rear imaging device 90 at each time based on the moving image data acquired by the moving image data acquisition unit 303 Do the image recognition method. The map data acquired by the map data acquisition unit 301 may be used in combination to determine whether the image of the traffic sign is included in the moving image.
The obstacle judging unit 307 judges whether the moving image of the moving image data acquired by the moving image data acquiring unit 303 includes an image of an obstacle such as a large vehicle. “A moving image includes a video of an obstacle” means, for example, that an obstacle occupying a range of a predetermined ratio or more in the whole area of the moving image is photographed for a predetermined time or more. it can.

間引き度算出部308は、道路特性判断部304、運転状態判断部305、交通標識判断部306、障害物判断部307による各判断を受け取り、それらの判断に基づき、動画像データの間引き度を算出する。例えば、間引き度算出部308は、動画像データ取得部303が取得した動画像データの動画像が撮影された所定の時間帯ごとに間引き度を算出するものとしてもよく、その場合、所定の時間帯に含まれる所定の時刻に取得された走行履歴データ、動画像データ、および、当該走行履歴データに対応する地図データに基づく道路特性判断部304、運転状態判断部305、交通標識判断部306、障害物判断部307による各判断に基づき、間引き度を算出するものとしてもよい。   The thinning degree calculating unit 308 receives each determination by the road characteristic judging unit 304, the driving state judging unit 305, the traffic sign judging unit 306, and the obstacle judging unit 307, and calculates the thinning degree of moving image data based on those judgments. Do. For example, the thinning-out degree calculating unit 308 may calculate the thinning-out degree for each predetermined time zone in which the moving image of the moving image data acquired by the moving image data acquiring unit 303 was captured. In that case, the predetermined time Road characteristic judgment unit 304, driving condition judgment unit 305, traffic sign judgment unit 306, based on travel history data and moving image data acquired at predetermined time included in the band, and map data corresponding to the travel history data The thinning degree may be calculated based on each determination by the obstacle determining unit 307.

間引き実行部309は、間引き度算出部308が算出した間引き度に基づき、動画像データの間引きを行うことで、動画像データの低減を行う。例えば、間引き実行部309は、上記した所定の時間帯ごとの間引き度に基づき、当該所定の時間帯ごとに動画像データの低減を行ってもよい。動画像データの低減処理は、例えば、間引き度が大である程大きな値を取る間引き率に従って上記所定の時間帯に含まれる動画像のフレームを均等に所定の周期で間引いて符号化することにより行うことができる。
符号化方法は、MPEGや、Motion Jpegなどの動画像データを圧縮できる符号化方式であれば、いずれの方法であってもよい。ただし、MPEGの場合、前後のフレームを参照し、予測処理を行って動画像を再生する必要があるため、フレームを単純に均等に間引くような処理を施すと復号画像が乱れてしまう恐れがある。そこで、MPEGのような場合、特願2000−178999に記載されているように、リピートピクチャと呼ばれているスプライシング用ビデオデータを挿入するなどして、前後のフレームの関係を破綻させないフレームを生成したのち、間引き処理を行う必要がある。
The thinning execution unit 309 reduces moving image data by thinning moving image data based on the thinning degree calculated by the thinning degree calculation unit 308. For example, the thinning execution unit 309 may reduce moving image data for each predetermined time zone based on the thinning degree for each predetermined time zone described above. The moving image data reduction processing is performed, for example, by uniformly thinning out and encoding frames of a moving image included in the predetermined time zone at a predetermined cycle according to a thinning rate that increases as the degree of thinning increases. It can be carried out.
The encoding method may be any method as long as it can compress moving image data such as MPEG and Motion Jpeg. However, in the case of MPEG, since it is necessary to perform prediction processing to reproduce moving images by referring to the previous and subsequent frames, there is a risk that the decoded image may be disturbed if processing is simply performed to evenly thin the frames. . Therefore, in the case of MPEG, as described in Japanese Patent Application No. 2000-178999, video data for splicing called a repeat picture is inserted to generate a frame that does not break the relationship between the preceding and succeeding frames. After that, it is necessary to perform thinning processing.

間引き後動画像データ出力部310は、間引き実行部309により間引きが行われた動画像データを出力する。出力された間引き後動画像データは記憶装置100に格納される。記憶装置100に保管されていた間引き前の動画像データと間引き後の動画像データとを置き換えることにより、記憶装置100に要求される記憶容量を低減するものとしてもよい。あるいは、間引き前の動画像データをそのまま記憶装置100に保持しておいて、間引き後の動画像データも併せて記憶装置100に保管するものとしてもよい。   The post-thinning motion image data output unit 310 outputs moving image data on which the thinning-out has been performed by the thinning-out execution unit 309. The output decimated moving image data is stored in the storage device 100. The storage capacity required for the storage device 100 may be reduced by replacing moving image data before thinning-out stored in the storage device 100 with moving image data after thinning-out. Alternatively, moving image data before thinning may be held as it is in the storage device 100, and moving image data after thinning may also be stored in the storage device 100.

図3に、本実施形態に係る動画像データ低減ユニット300による動画像データ低減方法の流れを概略的に示す。
まずステップS1において記憶装置100に保管されている走行履歴データと動画像データ、および、地図データベース50に保管されている地図データを取得する。取得される走行履歴データと地図データは、車両が各時刻に走行した地点の位置情報により対応付けられる。
FIG. 3 schematically shows the flow of a moving image data reduction method by the moving image data reduction unit 300 according to the present embodiment.
First, in step S1, travel history data and moving image data stored in the storage device 100 and map data stored in the map database 50 are acquired. The travel history data and map data to be acquired are associated with each other by the position information of the point where the vehicle travels at each time.

続くステップS2においては、ステップS1で取得した走行履歴データ、動画像データ、地図データに基づき、車両の運転状態、車両が走行した道路の道路特性、当該道路周辺の交通標識の有無、車両周辺の障害物の有無を判断する。
続くステップS3においては、ステップS2における判断結果に基づき動画像データの間引き度を算出する。間引き度は、上述のとおり、動画像が撮影された所定の時間帯ごとに算出されるものとしてもよい。
In the following step S2, based on the traveling history data, moving image data, and map data acquired in step S1, the driving state of the vehicle, the road characteristics of the road on which the vehicle has traveled, the presence or absence of a traffic sign around the road, and the surroundings of the vehicle Determine if there is an obstacle.
In the following step S3, the thinning degree of moving image data is calculated based on the determination result in step S2. As described above, the thinning degree may be calculated for each predetermined time zone in which a moving image is captured.

続くステップS4においては、ステップS3で算出した間引き度を用いて、動画像フレームの間引きを行うことで、動画像データのデータ量の低減を行う。例えば、上記した時間帯ごとの間引き度に基づき、当該時間帯ごとに動画像データのデータ量の低減が行われるものとしてもよい。
続くステップS5においては、ステップS4において間引きが行われた動画像データを出力する。出力された間引き後動画像データは記憶装置100に格納される。
In the following step S4, the data amount of moving image data is reduced by performing thinning of the moving image frame using the thinning degree calculated in step S3. For example, the data amount of moving image data may be reduced for each time slot based on the above-described thinning degree for each time slot.
In the following step S5, the moving image data subjected to the thinning in step S4 is output. The output decimated moving image data is stored in the storage device 100.

(走行現調の例)
次に、本実施形態に係る走行現調支援装置1を用いた走行現調の例を、図4〜6を参照して説明する。図4(A)に示すように、走行現調支援装置1を搭載した車両400には、前方撮影装置80および後方撮影装置90がその前方および後方に取り付けられている。図4(B)は本実施形態に係る走行現調支援装置1を搭載した車両400を、道路上を矢印aの方向に走行させ、前方撮影装置80および後方撮影装置90により車両の周囲を撮影した動画像のデータを得ながら、車両400の走行履歴データを取得することで走行現調を行う様子を模式的に表している。図4(B)の例においては、車両400は道路区間A、交差点I、道路区間B、交差点I、道路区間Cの順に走行するものとする。また、道路区間A沿いに交通標識501が、道路区間B沿いに交通標識503、504が、道路区間C沿いに交通標識505がそれぞれ設置されており、交差点Iの一角に交通信号灯502が設置されていることを表している。本明細書においては、交通標識501、503、504、505と交通信号灯502の両方を「交通標識」という語で代表させて説明する。道路区間Cにおいては大型車両600が障害物として、前方撮影装置80が撮影した動画像に映り込んでいるものとする。
(Example of running current control)
Next, an example of the current driving control using the current driving support system 1 according to the present embodiment will be described with reference to FIGS. As shown in FIG. 4A, a front imaging device 80 and a rear imaging device 90 are attached to the front and the rear of the vehicle 400 equipped with the traveling condition adjustment assisting device 1. In FIG. 4B, the vehicle 400 equipped with the traveling current adjustment support device 1 according to the present embodiment travels on the road in the direction of arrow a, and the surroundings of the vehicle are photographed by the front imaging device 80 and the rear imaging device 90 A situation in which the current driving control is performed is schematically shown by acquiring the traveling history data of the vehicle 400 while acquiring the data of the moving image. In the example of FIG. 4B, the vehicle 400 travels in the order of the road segment A, the intersection I 1 , the road segment B, the intersection I 2 , and the road segment C. Furthermore, the traffic sign 501 along road segment A is, traffic signs 503, 504 along the road segment B is, traffic signs 505 along the road section C are respectively provided, in the corner of the intersection I 1 is a traffic light 502 placed It shows that it is done. In the present specification, both of the traffic signs 501, 503, 504, 505 and the traffic light 502 are represented by the term "traffic signs". In the road section C, the large vehicle 600 is assumed to be reflected in the moving image captured by the front imaging device 80 as an obstacle.

図4に示す走行現調により得られた各種パラメータx〜xの時間変化の例と、それに基づき算出される前方撮影装置80による動画像のデータ用の間引き度Pの変化の例を図5に示す。両矢印A、B、C、I、Iは、車両400が道路区間A、B、C、交差点I、Iのそれぞれを走行した時間帯を表す。
は運転状態判断部305が車両400の位置情報の時間変化から判断した車両400の車速の推移を表す。車速xの判断は、距離センサ23による検出結果に基づいて行ってもよい。
FIG. 5 shows an example of the time change of various parameters x 1 to x 5 obtained by the current running tone shown in FIG. 4 and an example of the change of thinning degree P for moving image data by the front photographing device 80 calculated based thereon. Shown in 5. Double arrows A, B, C, I 1 and I 2 indicate time zones in which the vehicle 400 travels on the road sections A, B and C, and the intersections I 1 and I 2 , respectively.
x 1 represents the transition of the vehicle speed of the vehicle 400 determined by the driving state determination unit 305 from the time change of the position information of the vehicle 400. Determination vehicle speed x 1 may be performed based on the result of detection by the distance sensor 23.

は走行路の指定速度を表す。指定速度xの判断は、道路特性判断部304による道路特性の判断に含まれる。その場合、前方撮影装置80や後方撮影装置90による動画像の画像認識を行って交通標識判断部306が交通標識に記載された指定速度を判断する手法を併用してもよい。
は通常時には0で、走行路周辺の交通標識を検出した際に0以外の所定の値を取るパラメータ(以下、「交通標識検出値」とする)であり、前方撮影装置80や後方撮影装置90で撮影した動画像を用いた画像認識により交通標識を認識することで判断してもよく、その場合、道路特性判断部304による道路特性の判断を加味してもよい。
x 2 represents the designated speed of the traveling path. Determination specified rate x 2 is included in the determination of the road characteristics by the road characteristic determination unit 304. In that case, a method may be used in which the traffic sign determination unit 306 determines the designated speed described on the traffic sign by performing image recognition of a moving image by the front imaging device 80 or the rear imaging device 90.
x 3 is a parameter that takes a predetermined value other than 0 when detecting traffic signs in the vicinity of the traveling path, which is 0 at normal times (hereinafter referred to as “traffic sign detection value”) You may judge by recognizing a traffic sign by the image recognition using the moving image image | photographed with the apparatus 90, and in that case, judgment of the road characteristic by the road characteristic judgment part 304 may be taken into consideration.

は通常時には0で、交差点およびその前後の所定範囲を車両400が走行している時間帯に0以外の値を取るパラメータ(以下、「交差点検出値」とする)であり、道路特性判断部304が判断した道路特性に基づきその値が決定される。
は通常時には0で、前方撮影装置80や後方撮影装置90で撮影した動画像に障害物が含まれていることを障害物判断部307が判断した場合に0以外の値を取るパラメータ(以下、「障害物検出値」とする)である。「動画像に障害物が含まれている」とは、例えば、動画像の所定割合以上の範囲を占める障害物が所定時間以上にわたって撮像されている状態とすることができる。
x 4 is a parameter that takes a value other than 0 during a time zone in which the vehicle 400 is traveling, which is normally 0 at the intersection and a predetermined range before and after the intersection (hereinafter referred to as “intersection detection value”). The value is determined based on the road characteristic determined by the unit 304.
x 5 is normally 0 when the obstacle determination unit 307 determines that the moving image captured by the front imaging device 80 or the rear imaging device 90 includes an obstacle (a parameter other than 0) ((5) Hereinafter, “obstacle detection value” will be referred to). “The moving image includes an obstacle” can be, for example, a state in which an obstacle occupying a range of a predetermined ratio or more of the moving image is captured for a predetermined time or more.

車速x、指定速度x、交通標識検出値x、交差点検出値x、障害物検出値xに基づき、所定の計算方法により間引き度算出部308が間引き度Pを算出する。例えば、図4にT1〜T6にて示す所定の時間帯ごとに間引き度Pを算出してもよい。本例においては、間引き度Pは、その値が大きくなるほど、対応する動画像データの間引き率が大きくなるというように定義する。間引き度Pの計算方法の例として、車速xや指定速度xが高いほど、間引き度Pが小さな値を取り易くなるように設定してもよい。これは、車速が高くなるほど、撮影される動画像の冗長性が低下する傾向があるためである。また、交通標識検出値xや交差点検出値xが0である場合と比べて0でない場合に間引き度Pが小さな値を取り易くなるように設定してもよい。これは、交通標識や交差点などを含む動画像部分は重要な情報を含むと考えるためである。また、障害物検出値xが0である場合と比べて0でない場合に間引き度Pが大きな値を取り易くなるように設定してもよい。これは、障害物を含む動画像は相対的価値が低いと考えるためである。
パラメータx〜xの値として、時間帯T1〜T6のそれぞれに含まれる所定の時刻に得られた値を用いてもよい。図5の例では、各時間帯T1〜T6の開始時点におけるパラメータx〜xの値を用いてそれぞれの時間帯T1〜T6の間引き度Pを算出するものとしている。
Based on the vehicle speed x 1 , the designated speed x 2 , the traffic sign detection value x 3 , the intersection detection value x 4 , and the obstacle detection value x 5 , the thinning degree calculation unit 308 calculates the thinning degree P by a predetermined calculation method. For example, the degree of thinning P may be calculated for each predetermined time zone indicated by T1 to T6 in FIG. In this example, the degree of decimation P is defined such that the decimation rate of the corresponding moving image data increases as the value thereof increases. Examples of the calculation method of thinning of P, as the vehicle speed x 1 and designated speed x 2 is high, the thinning of P may be set so as to easily take a small value. This is because as the vehicle speed increases, the redundancy of the captured moving image tends to decrease. Moreover, traffic sign detection value x 3 and intersections detected value x 4 is the degree of thinning if not 0 in comparison with the case where 0 P may be set so as to easily take a small value. This is because moving image parts including traffic signs and intersections are considered to contain important information. It is also possible to set such thinning of P when the obstacle detection value x 5 non-zero in comparison with the case where 0 is likely to take a large value. This is because moving images including obstacles are considered to have a low relative value.
As values of the parameters x 1 to x 5 , values obtained at predetermined times included in each of the time zones T 1 to T 6 may be used. In the example of FIG. 5, it is assumed to calculate the thinning-out degree P of the respective time zones T1 to T6 by using the value of the parameter x 1 ~x 5 at the start of each time period T1 to T6.

間引き実行部309は、間引き度算出部308が算出した間引き度Pに基づき、動画像データの間引きを行う。具体的には、所定の時間帯における動画像を構成するフレーム群につき間引き度Pに応じた割合でフレームを間引いて符号化することで動画像データの低減を行う。本例においては上述のとおり、間引き度Pは、その値が大きくなるほど、対応する動画像データの間引き率が大きくなるというように定義される。例えば、間引き度が3のときには間引き率を75%とし、間引き度が2のときには間引き率を50%とし、間引き度が1のときには間引き率を25%とし、間引き度が0のときには間引き率を0%とするというように、間引き度に応じて間引き率を0〜100%の範囲で任意に設定することができる。   The thinning execution unit 309 thins moving image data based on the thinning degree P calculated by the thinning degree calculation unit 308. Specifically, moving image data is reduced by thinning out and encoding frames at a rate according to the degree of thinning P for a group of frames constituting a moving image in a predetermined time zone. In the present example, as described above, the degree of thinning P is defined such that the larger the value, the larger the thinning rate of the corresponding moving image data. For example, when the degree of thinning is 3, the rate of thinning is 75%, when the degree of thinning is 2, the rate of thinning is 50%, when the degree of thinning is 1, the rate of thinning is 25%, and when the degree of thinning is 0, the rate of thinning The thinning rate can be arbitrarily set in the range of 0 to 100% according to the thinning degree, such as 0%.

図6の(a)〜(d)にそれぞれ図5の時間帯T3、T2、T4、T6における動画像のフレームの間引き方の例を示す。図6の四角形fはそれぞれ動画像のフレームを示す。図6(a)に示す時間帯T3においては間引き度が0で間引き率は0%であるため、時間帯T3に含まれる動画像フレームの間引きは行われない。図6(b)に示す時間帯T2においては間引き度が1で間引き率が25%であるため、時間帯T2に含まれる動画像フレームは4フレームごとに1フレームが均等に間引かれることとなる。間引かれるフレームは斜線ハッチングを付している。図6(c)に示す時間帯T4においては間引き度が2で間引き率が50%であるため、時間帯T4に含まれる動画像フレームは2フレームごとに1フレームが均等に間引かれることとなる。図6(d)に示す時間帯T6においては間引き度が3で間引き率が75%であるため、時間帯T6に含まれる動画像フレームは4フレームごとに3フレームが均等に間引かれることとなる。
ただし、以上の間引き度と間引き率の設定方法および動画像フレームの間引き方法は一例に過ぎない。
(A) to (d) of FIG. 6 show examples of how to skip frames of moving images in the time zones T3, T2, T4 and T6 of FIG. 5, respectively. Each square f in FIG. 6 indicates a frame of a moving image. In the time zone T3 shown in FIG. 6A, since the thinning degree is 0 and the thinning rate is 0%, thinning of moving image frames included in the time zone T3 is not performed. In the time zone T2 shown in FIG. 6B, since the thinning rate is 1 and the thinning rate is 25%, one frame is equally thinned every four frames in the moving image frame included in the time zone T2, and Become. Frames to be thinned out are hatched. In the time zone T4 shown in FIG. 6C, since the thinning rate is 2 and the thinning rate is 50%, one frame is equally dropped every two frames in the moving image frame included in the time zone T4. Become. In the time zone T6 shown in FIG. 6 (d), since the thinning rate is 3 and the thinning rate is 75%, 3 frames are equally dropped every 4 frames in the moving image frame included in the time zone T6. Become.
However, the method of setting the degree of thinning and the rate of thinning and the method of thinning a moving image frame are merely examples.

間引き後動画像データ出力部310は、上述したフレームの間引きによってデータ量の低減された動画像データを記憶装置100に出力し、記憶装置100はそれを保管する。
間引き度算出部308は、所定の時間帯ごとに間引き度を算出することに代えて、逐次変化するパラメータ値に基づき間引き度を逐次算出してもよい。その場合の間引き度の例を図5においてP’により示す。そして、都度の間引き度P’に応じて動画像データの間引き処理を逐次行ってもよい。これにより、情報が損なわれることをより適切に防ぎながら、動画像データを低減させることができる。
上述のような間引き度P、P’の算出に加えて、入力装置70を介して利用者が特定の信号や音声を入力する場合には、間引き度算出部308は常に間引き度を所定の値に設定して間引き率を所定の値(例えば100%または0%)に設定することとしてもよい。
The post-thinning motion image data output unit 310 outputs, to the storage device 100, the motion image data whose data amount has been reduced by the above-described frame thinning, and the storage device 100 stores the data.
Instead of calculating the degree of thinning for each predetermined time zone, the degree of thinning calculation unit 308 may sequentially calculate the degree of thinning based on the parameter value that changes sequentially. An example of the degree of thinning in that case is shown by P 'in FIG. Then, the thinning process of moving image data may be sequentially performed according to the thinning degree P 'of each time. This makes it possible to reduce moving image data while appropriately preventing information from being lost.
When the user inputs a specific signal or voice via the input device 70 in addition to the calculation of the thinning degree P, P ′ as described above, the thinning degree calculation unit 308 always calculates the thinning degree to a predetermined value. The thinning rate may be set to a predetermined value (for example, 100% or 0%).

図2の動画像データ低減ユニット300は走行現調支援装置1内で実現されるものに限らず、データセンターにおいて動画像データを低減するために実現されるものとしてもよい。
上記の本実施形態に係る動画像データ低減手法に加えて、一般的な動画像データ圧縮手法を併用してもよい。例えば、特開2008−252333号公報に記載されているように、対象フレームと直前のフレームが同一もしくはほぼ同一であると検出された場合に所定の周期で対象フレームを間引きする手法を併用してもよい。
上記の本実施形態に係る動画像データ低減手法に加えて、過去に撮影された動画像と新たに撮影された動画像とを比較して、両者間の変化が顕著である走行区間以外の走行区間については新たに取得された動画像データを削除することで動画像データを低減する手法を併用してもよい。
The moving image data reduction unit 300 of FIG. 2 is not limited to the one realized in the traveling condition adjustment support device 1, and may be realized to reduce moving image data in a data center.
In addition to the moving image data reduction method according to the present embodiment described above, a general moving image data compression method may be used in combination. For example, as described in Japanese Patent Application Laid-Open No. 2008-252333, in combination with a method of thinning out a target frame at a predetermined cycle when it is detected that the target frame and the immediately preceding frame are identical or nearly identical. It is also good.
In addition to the moving image data reduction method according to the present embodiment described above, a moving image taken in the past and a moving image taken anew are compared, and travel in areas other than the traveling section where the change between the two is noticeable For the section, a method of reducing moving image data by deleting newly acquired moving image data may be used in combination.

(変形例)
図2に示す動画像データ低減ユニット300は間引き度算出部308および間引き実行部309を含むものとして説明したが、本発明はこれに限られない。例えば、動画像データ低減ユニット300は、間引き度算出部308および間引き実行部309に代えて、道路特性判断部304、運転状態判断部305、交通標識判断部306、障害物判断部307の判断に基づき、動画像データの低減処理を行うか行わないかの判断を行い、低減処理を行うと判断した場合にのみ、判断対象区間の動画像データの低減処理を行う部分を有してもよい。その場合の動画像データの低減処理としては従来知られている方法を含む任意の方法を用いることができる。
(Modification)
Although the moving image data reduction unit 300 illustrated in FIG. 2 has been described as including the thinning degree calculating unit 308 and the thinning execution unit 309, the present invention is not limited thereto. For example, in the moving image data reduction unit 300, instead of the thinning degree calculating unit 308 and the thinning execution unit 309, the road characteristic judging unit 304, the driving state judging unit 305, the traffic sign judging unit 306, and the obstacle judging unit 307 On the basis of this, it may be determined whether or not moving image data reduction processing is to be performed, and only when it is determined that the reduction processing is to be performed, a portion may be provided to perform moving image data reduction processing of the judgment target section. As the moving image data reduction processing in that case, any method including a conventionally known method can be used.

あるいは、動画像データ低減ユニット300は、間引き度算出部308および間引き実行部309に代えて、道路特性判断部304、運転状態判断部305、交通標識判断部306、障害物判断部307の判断に基づき、判断対象区間の動画像のフレーム群の全削除を行う部分を有してもよい。
あるいは、動画像データ低減ユニット300は、間引き度算出部308および間引き実行部309に代えて、道路特性判断部304、運転状態判断部305、交通標識判断部306、障害物判断部307の判断に基づき、判断対象区間の動画像の映像の所定の部分以外の部分を削除したり、判断対象区間の動画像の画質を低下させたりすることで動画像データのデータ量の低減を行う部分を有してもよい。
Alternatively, the moving image data reduction unit 300 may use the judgment of the road characteristic judgment unit 304, the driving condition judgment unit 305, the traffic sign judgment unit 306, and the obstacle judgment unit 307 instead of the thinning degree calculation unit 308 and the thinning execution unit 309. On the basis of this, it may have a part that deletes all of the frame groups of the moving image of the judgment target section.
Alternatively, the moving image data reduction unit 300 may use the judgment of the road characteristic judgment unit 304, the driving condition judgment unit 305, the traffic sign judgment unit 306, and the obstacle judgment unit 307 instead of the thinning degree calculation unit 308 and the thinning execution unit 309. On the basis of this, there is a portion for reducing the data amount of moving image data by deleting the portion other than the predetermined portion of the video of the moving image of the determination target section or reducing the image quality of the moving image of the determination target section. You may

以上の説明においては、前方撮影装置80、後方撮影装置90に代表される撮影装置は車両に搭載されるものとして説明したが、本発明はこれに限られず、車両走行に伴って車両の周囲が撮影できる撮影装置を用いて実現することができる。例えば、撮影装置としてのカメラを車両に搭載するのではなく車両の搭乗者が保持して撮影を行ってもよい。
また、以上の説明においては、走行履歴データと動画像データはそれぞれの取得時刻により対応付けられるとしたが、本発明はこれに限られず、走行履歴データと動画像データは任意の方法により対応付けられていてもよい。例えば、GPS機能付きカメラにより動画像を撮影することで、動画像データに対して撮影場所の情報が走行履歴データとして直接対応付けられるものであってもよい。
In the above description, although the imaging device represented by the front imaging device 80 and the rear imaging device 90 has been described as being mounted on a vehicle, the present invention is not limited to this, the periphery of the vehicle is It can be realized using an imaging device capable of imaging. For example, instead of mounting a camera as a photographing device on a vehicle, a passenger of the vehicle may hold and photograph.
Further, in the above description, although the traveling history data and the moving image data are associated by each acquisition time, the present invention is not limited to this, and the traveling history data and the moving image data are associated by any method It may be done. For example, by capturing a moving image with a camera with a GPS function, information on a shooting location may be directly associated with traveling image data as travel history data.

本発明は、上記実施形態、実施例、変形例の説明に何ら限定されるものではない。特許請求の範囲の記載を逸脱せず、当業者が容易に想到できる範囲で種々の変形態様もこの発明に含まれる。   The present invention is not limited to the description of the above-described embodiment, examples, and modifications. Various modifications are also included in the present invention as long as those skilled in the art can easily conceive of the claims without departing from the scope of the claims.

1 走行現調支援装置
10 GPS受信装置
20 自律測位装置
21 加速度センサ
22 角速度センサ
23 距離センサ
30 車両操作センサ
40 制御装置
41 インタフェース
42 CPU
43 ROM
44 RAM
50 地図データベース
60 表示装置
70 入力装置
80 前方撮影装置
90 後方撮影装置
100 記憶装置
110 通信装置
120 システムバス
200 データセンター
300 動画像データ低減ユニット
301 地図データ取得部
302 走行履歴取得部
303 動画像データ取得部
304 道路特性判断部
305 運転状態判断部
306 交通標識判断部
307 障害物判断部
308 間引き度算出部
309 間引き実行部
310 間引き後動画像データ出力部
400 車両
501、503、504、505 道路交通標識
502 交通信号灯
600 障害物(大型車両)
DESCRIPTION OF SYMBOLS 1 traveling present control assisting device 10 GPS receiver 20 autonomous positioning device 21 acceleration sensor 22 angular velocity sensor 23 distance sensor 30 vehicle operation sensor 40 control device 41 interface 42 CPU
43 ROM
44 RAM
50 map database 60 display device 70 input device 80 front imaging device 90 rear imaging device 100 storage device 110 communication device 120 system bus 200 data center 300 moving image data reduction unit 301 map data acquisition unit 302 travel history acquisition unit 303 moving image data acquisition Unit 304 Road characteristic judgment unit 305 Driving condition judgment unit 306 Traffic sign judgment unit 307 Obstacle judgment unit 308 Thinning degree calculation unit 309 Thinning execution unit 310 Thinning after motion image data output unit 400 Vehicles 501, 503, 504, 505 Road traffic sign 502 traffic light 600 obstacle (large vehicle)

Claims (16)

車両走行に伴い撮影した動画像のデータに対して処理を施すことによりそのデータ量を低減する装置であって、
前記車両の走行履歴データを前記動画像のデータに対応付ける対応付け部と、
前記動画像のデータのデータ量を前記処理により低減する度合いを、前記走行履歴に基づき決定する決定部と、を含む装置。
A device that reduces the amount of data by processing the data of moving images taken as the vehicle travels,
An associating unit that associates travel history data of the vehicle with data of the moving image;
The determination part which determines the data amount of the data of the said moving image by the said process based on the said driving | running | working history.
前記対応付け部は、前記車両の走行履歴データを、前記動画像を撮影した時刻に基づき前記動画像のデータに対応付け、
前記決定部は、所定の時間内の前記動画像のデータのデータ量を前記処理により低減する度合いを、前記所定の時間内の所定の時刻の前記走行履歴に基づき決定する、請求項1に記載の装置。
The associating unit associates the traveling history data of the vehicle with the data of the moving image based on the time when the moving image was captured.
The determination unit according to claim 1, wherein the degree of reducing the data amount of the moving image data within a predetermined time by the processing is determined based on the travel history at a predetermined time within the predetermined time. Device.
前記走行履歴から前記車両の座標を抽出する座標抽出部と、
前記座標抽出部が抽出した前記車両の座標に基づき、前記車両が走行した道路の道路特性を地図データから抽出する道路特性抽出部と、を更に含み、
前記決定部は、前記道路特性抽出部が抽出した前記道路特性に基づき前記度合いを決定する、請求項1または請求項2に記載の装置。
A coordinate extraction unit that extracts coordinates of the vehicle from the travel history;
And a road characteristic extraction unit that extracts, from map data, road characteristics of a road on which the vehicle has traveled based on the coordinates of the vehicle extracted by the coordinate extraction unit.
The apparatus according to claim 1, wherein the determination unit determines the degree based on the road characteristic extracted by the road characteristic extraction unit.
前記車両の速度を前記走行履歴から抽出または算出する速度判断部を更に含み、
前記決定部は、前記速度判断部が抽出または算出した前記車両の速度に基づき前記度合いを決定する、請求項1〜3のいずれか一項に記載の装置。
The system further includes a speed determination unit that extracts or calculates the speed of the vehicle from the travel history,
The device according to any one of claims 1 to 3, wherein the determination unit determines the degree based on the speed of the vehicle extracted or calculated by the speed determination unit.
前記走行履歴は前記車両の運転状態を含み、
前記決定部は、前記車両の運転状態に基づき前記度合いを決定する、請求項1〜4のいずれか一項に記載の装置。
The travel history includes the driving state of the vehicle,
The device according to any one of claims 1 to 4, wherein the determination unit determines the degree based on a driving state of the vehicle.
車両走行に伴い撮影した動画像のデータに対して処理を施すことによりそのデータ量を低減する方法であって、
前記車両の走行履歴データを前記動画像のデータに対応付ける対応付けステップと、
前記動画像のデータのデータ量を前記処理により低減する度合いを、前記走行履歴に基づき決定する決定ステップと、を含む方法。
A method of reducing the amount of data by processing the data of moving images taken as the vehicle travels,
Associating the travel history data of the vehicle with the data of the moving image;
Determining the degree to which the data amount of the moving image data is reduced by the processing based on the traveling history.
前記対応付けステップは、前記車両の走行履歴データを、前記動画像を撮影した時刻に基づき前記動画像のデータに対応付け、
前記決定ステップは、所定の時間内の前記動画像のデータのデータ量を前記処理により低減する度合いを、前記所定の時間内の所定の時刻の前記走行履歴に基づき決定する、請求項6に記載の方法。
The associating step associates the traveling history data of the vehicle with the data of the moving image based on the time when the moving image was taken,
The determination step according to claim 6, wherein the degree of reducing the data amount of the moving image data within a predetermined time by the processing is determined based on the travel history at a predetermined time within the predetermined time. the method of.
前記走行履歴から前記車両の座標を抽出する座標抽出ステップと、
前記座標抽出ステップが抽出した前記車両の座標に基づき、前記車両が走行した道路の道路特性を地図データから抽出する道路特性抽出ステップと、を更に含み、
前記決定ステップは、前記道路特性抽出ステップが抽出した前記道路特性に基づき前記度合いを決定する、請求項6または請求項7に記載の方法。
A coordinate extracting step of extracting coordinates of the vehicle from the traveling history;
A road characteristic extraction step of extracting from the map data the road characteristic of the road on which the vehicle has traveled based on the coordinate of the vehicle extracted by the coordinate extraction step;
The method according to claim 6 or 7, wherein the determination step determines the degree based on the road characteristic extracted by the road characteristic extraction step.
前記車両の速度を前記走行履歴から抽出または算出する速度判断ステップを更に含み、
前記決定ステップは、前記速度判断ステップが抽出または算出した前記車両の速度に基づき前記度合いを決定する、請求項6〜8のいずれか一項に記載の方法。
The method further includes a speed determination step of extracting or calculating the speed of the vehicle from the travel history,
The method according to any one of claims 6 to 8, wherein the determination step determines the degree based on the speed of the vehicle extracted or calculated by the speed determination step.
前記走行履歴は前記車両の運転状態を含み、
前記決定ステップは、前記車両の運転状態に基づき前記度合いを決定する、請求項6〜9のいずれか一項に記載の方法。
The travel history includes the driving state of the vehicle,
The method according to any one of claims 6 to 9, wherein the determining step determines the degree based on a driving state of the vehicle.
車両走行に伴い撮影した動画像のデータに対して処理を施すことによりそのデータ量を低減するためのコンピュータプログラムであって、コンピュータを、
前記車両の走行履歴データを、前記動画像を撮影した時刻に基づき前記動画像のデータに対応付ける対応付け手段と、
前記動画像のデータのデータ量を前記処理により低減する度合いを、前記走行履歴に基づき決定する決定手段として機能させる、コンピュータプログラム。
A computer program for reducing the amount of data by processing the data of moving images taken as the vehicle travels.
Associating means for associating the traveling history data of the vehicle with the data of the moving image based on the time when the moving image was taken;
A computer program which functions as determination means for determining the degree of reducing the data amount of data of the moving image by the processing based on the traveling history.
前記対応付け手段は、前記車両の走行履歴データを、前記動画像を撮影した時刻に基づき前記動画像のデータに対応付け、
前記決定手段は、所定の時間内の前記動画像のデータのデータ量を前記処理により低減する度合いを、前記所定の時間内の所定の時刻の前記走行履歴に基づき決定する、請求項11に記載のコンピュータプログラム。
The associating means associates the traveling history data of the vehicle with the data of the moving image based on the time when the moving image was taken,
12. The apparatus according to claim 11, wherein the determination means determines the degree of reduction of the data amount of data of the moving image within a predetermined time by the processing based on the travel history at a predetermined time within the predetermined time. Computer program.
前記コンピュータを更に、前記走行履歴から前記車両の座標を抽出する座標抽出手段と、
前記座標抽出手段が抽出した前記車両の座標に基づき、前記車両が走行した道路の道路特性を地図データから抽出する道路特性抽出手段として機能させ、
前記決定手段は、前記道路特性抽出手段が抽出した前記道路特性に基づき前記度合いを決定する、請求項11または請求項12に記載のコンピュータプログラム。
Coordinate extraction means for further extracting the coordinates of the vehicle from the travel history;
Based on the coordinates of the vehicle extracted by the coordinate extraction unit, the control unit functions as a road characteristic extraction unit that extracts from the map data the road characteristics of the road on which the vehicle has traveled.
13. The computer program according to claim 11, wherein said determination means determines said degree based on said road characteristic extracted by said road characteristic extraction means.
前記コンピュータを更に、前記車両の速度を前記走行履歴から抽出または算出する速度判断手段として機能させ、
前記決定手段は、前記速度判断手段が抽出または算出した前記車両の速度に基づき前記度合いを決定する、請求項11〜13のいずれか一項に記載のコンピュータプログラム。
Further causing the computer to function as a speed determination unit that extracts or calculates the speed of the vehicle from the travel history;
The computer program according to any one of claims 11 to 13, wherein the determination means determines the degree based on the speed of the vehicle extracted or calculated by the speed determination means.
前記走行履歴は前記車両の運転状態を含み、
前記決定手段は、前記車両の運転状態に基づき前記度合いを決定する、請求項11〜14のいずれか一項に記載のコンピュータプログラム。
The travel history includes the driving state of the vehicle,
The computer program according to any one of claims 11 to 14, wherein the determination means determines the degree based on a driving state of the vehicle.
請求項11〜15のいずれか一項に記載のコンピュータプログラムを記録する記録媒体。   The recording medium which records the computer program as described in any one of Claims 11-15.
JP2017217094A 2017-11-10 2017-11-10 Travel field investigation support device Pending JP2019087969A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017217094A JP2019087969A (en) 2017-11-10 2017-11-10 Travel field investigation support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017217094A JP2019087969A (en) 2017-11-10 2017-11-10 Travel field investigation support device

Publications (1)

Publication Number Publication Date
JP2019087969A true JP2019087969A (en) 2019-06-06

Family

ID=66763528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017217094A Pending JP2019087969A (en) 2017-11-10 2017-11-10 Travel field investigation support device

Country Status (1)

Country Link
JP (1) JP2019087969A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020250519A1 (en) * 2019-06-14 2020-12-17 マツダ株式会社 Outside environment recognition device
WO2021161614A1 (en) * 2020-02-13 2021-08-19 アイシン・エィ・ダブリュ株式会社 Image transmission system
JPWO2022208808A1 (en) * 2021-03-31 2022-10-06

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003042796A (en) * 2001-07-30 2003-02-13 Sony Corp Information processor and processing method, recording medium and program
JP2006270175A (en) * 2005-03-22 2006-10-05 Megachips System Solutions Inc System for recording vehicle mounted image
JP2007013497A (en) * 2005-06-29 2007-01-18 Honda Motor Co Ltd Image transmitter
JP2008236007A (en) * 2007-03-16 2008-10-02 Honda Motor Co Ltd Mobile imaging apparatus
JP2009032143A (en) * 2007-07-30 2009-02-12 Seiko Epson Corp Drive recorder, drive recorder system, method for controlling drive recorder, and program
JP2009217526A (en) * 2008-03-11 2009-09-24 Fujitsu Ltd Drive recorder and computer program
JP2010035159A (en) * 2008-07-02 2010-02-12 Panasonic Corp Vehicle-mounted image recording apparatus and image recording method
JP2012019450A (en) * 2010-07-09 2012-01-26 Yazaki Corp Drive recorder and video recording method for drive recorder
US20120268601A1 (en) * 2011-04-25 2012-10-25 Mitac International Corp. Method of recording traffic images and a drive recorder system
JP2013211623A (en) * 2012-03-30 2013-10-10 Panasonic Corp Drive recorder
JP2014078071A (en) * 2012-10-09 2014-05-01 Denso Corp Image storage device for mobile object
WO2015019415A1 (en) * 2013-08-06 2015-02-12 三菱電機株式会社 Train interior monitoring method, and train interior monitoring system
JP2016119602A (en) * 2014-12-22 2016-06-30 康郎 桑原 Drive recorder and drive recorder system
JP2016134816A (en) * 2015-01-21 2016-07-25 株式会社日立製作所 Image adjustment method, server, and moving image capturing system

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003042796A (en) * 2001-07-30 2003-02-13 Sony Corp Information processor and processing method, recording medium and program
JP2006270175A (en) * 2005-03-22 2006-10-05 Megachips System Solutions Inc System for recording vehicle mounted image
JP2007013497A (en) * 2005-06-29 2007-01-18 Honda Motor Co Ltd Image transmitter
JP2008236007A (en) * 2007-03-16 2008-10-02 Honda Motor Co Ltd Mobile imaging apparatus
JP2009032143A (en) * 2007-07-30 2009-02-12 Seiko Epson Corp Drive recorder, drive recorder system, method for controlling drive recorder, and program
JP2009217526A (en) * 2008-03-11 2009-09-24 Fujitsu Ltd Drive recorder and computer program
JP2010035159A (en) * 2008-07-02 2010-02-12 Panasonic Corp Vehicle-mounted image recording apparatus and image recording method
JP2012019450A (en) * 2010-07-09 2012-01-26 Yazaki Corp Drive recorder and video recording method for drive recorder
US20120268601A1 (en) * 2011-04-25 2012-10-25 Mitac International Corp. Method of recording traffic images and a drive recorder system
JP2013211623A (en) * 2012-03-30 2013-10-10 Panasonic Corp Drive recorder
JP2014078071A (en) * 2012-10-09 2014-05-01 Denso Corp Image storage device for mobile object
WO2015019415A1 (en) * 2013-08-06 2015-02-12 三菱電機株式会社 Train interior monitoring method, and train interior monitoring system
JP2016119602A (en) * 2014-12-22 2016-06-30 康郎 桑原 Drive recorder and drive recorder system
JP2016134816A (en) * 2015-01-21 2016-07-25 株式会社日立製作所 Image adjustment method, server, and moving image capturing system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020250519A1 (en) * 2019-06-14 2020-12-17 マツダ株式会社 Outside environment recognition device
JP2020204839A (en) * 2019-06-14 2020-12-24 マツダ株式会社 Outside environment recognition device
CN113853639A (en) * 2019-06-14 2021-12-28 马自达汽车株式会社 External environment recognition device
WO2021161614A1 (en) * 2020-02-13 2021-08-19 アイシン・エィ・ダブリュ株式会社 Image transmission system
JP2021128532A (en) * 2020-02-13 2021-09-02 株式会社アイシン Image transmission system, image processing system, and image transmission program
JP7392506B2 (en) 2020-02-13 2023-12-06 株式会社アイシン Image transmission system, image processing system and image transmission program
JPWO2022208808A1 (en) * 2021-03-31 2022-10-06
WO2022208808A1 (en) * 2021-03-31 2022-10-06 パイオニア株式会社 Video transmission apparatus, video transmission method, program, and storage medium

Similar Documents

Publication Publication Date Title
CN108413975B (en) Map acquisition method and system, cloud processor and vehicle
US10969237B1 (en) Distributed collection and verification of map information
US11720992B2 (en) Method, apparatus, and computer program product for generating an overhead view of an environment from a perspective image
JPWO2015129045A1 (en) Image acquisition system, terminal, image acquisition method, and image acquisition program
JP2011215975A (en) Image processing system and vehicle control system
US11593593B2 (en) Low power consumption deep neural network for simultaneous object detection and semantic segmentation in images on a mobile computing device
JP2015076077A (en) Traffic volume estimation system,terminal device, traffic volume estimation method and traffic volume estimation program
JP2015076078A (en) Congestion prediction system, terminal device, congestion prediction method, and congestion prediction program
JP2022538097A (en) Collection of user-provided data about navigable networks
JP2019087969A (en) Travel field investigation support device
JP2018189457A (en) Information processing device
JP6224344B2 (en) Information processing apparatus, information processing method, information processing system, and information processing program
WO2013098980A1 (en) Information processing system, information processing device, information processing program, information recording medium and method for processing information
US11373409B2 (en) Photography system
CN111319560B (en) Information processing system, program, and information processing method
JP6799523B2 (en) Driving condition support device
CN111340880B (en) Method and apparatus for generating predictive model
JP2009068890A (en) Device, method and program for recording environmental sound pressure
JP2017188164A (en) Image acquisition device, terminal, and image acquisition system
JP2009168614A (en) On-vehicle navigation device
JP2016173764A (en) Photographing device, photographing system, photographing method, and photographing program
JP2018106762A (en) Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
JP2018010320A (en) Server device, terminal device, information processing method, information processing system, and information processing program
CN112885087A (en) Method, apparatus, device and medium for determining road condition information and program product
CN115917255A (en) Vision-based location and turn sign prediction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200805

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210216