JP7430113B2 - 車載装置、車両動作解析システム - Google Patents

車載装置、車両動作解析システム Download PDF

Info

Publication number
JP7430113B2
JP7430113B2 JP2020097354A JP2020097354A JP7430113B2 JP 7430113 B2 JP7430113 B2 JP 7430113B2 JP 2020097354 A JP2020097354 A JP 2020097354A JP 2020097354 A JP2020097354 A JP 2020097354A JP 7430113 B2 JP7430113 B2 JP 7430113B2
Authority
JP
Japan
Prior art keywords
vehicle
data
motion
peripheral object
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020097354A
Other languages
English (en)
Other versions
JP2021189981A (ja
Inventor
響子 石田
剛志 佐々木
聡 笹谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2020097354A priority Critical patent/JP7430113B2/ja
Priority to US17/925,586 priority patent/US20230196847A1/en
Priority to PCT/JP2021/006824 priority patent/WO2021245999A1/ja
Publication of JP2021189981A publication Critical patent/JP2021189981A/ja
Application granted granted Critical
Publication of JP7430113B2 publication Critical patent/JP7430113B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/16Pitch
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/804Relative longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Traffic Control Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Description

本発明は、車載装置におけるデータ収集方法に関する。
車両の事故状況の分析などを目的として、事故発生や緊急ブレーキ作動の前後の車両の状況に関するデータを収集し、それらのデータを車両内に記録し、ネットワークを介して送信する装置やサービスが提案されている。しかし、多くのデータを記録または送信すると、記録装置の容量を超過してしまう場合があり、また通信量および処理量の負荷が増加してしまう。
特許文献1は、「判定部22は、車両Aの運転者が急ハンドルや急ブレーキ等の操作を行うことで、車両Aが平常走行時とは異なり、ある基準を超える挙動をした場合に、車両情報をサービス提供装置10へ送信すべきと判定する。」(段落0041)「判定部22は、車両情報を送信すべきと判定した時点における車両Aの周辺が撮像された一枚の静止画、車両の位置、および時刻を一部の車両情報として送信部24へ出力し、サービス提供装置10へ送信させる。」(段落0043)と記載している。
特許文献2は、「前記カメラによる撮影映像を解析し、その映像変化に基づき、前記生成ユニットにより生成される前記映像データの映像品質を制御することにより、前記映像記録ユニットが前記記憶ユニットに格納する前記映像データの量を制御するように構成される制御ユニットと、を備える映像記録装置。」(請求項1)と記載している。
特開2019-160199号公報 特開2019-161350号公報
特許文献1において車両状況に関するデータを収集するのは、自車両の運転者によるハンドルやブレーキなどの操作のみに基づいたデータ収集に限定されており、運転支援システムによるブレーキ制御や、周辺車両や人などの動作は考慮されていない。さらに、特許文献1では、車両の位置情報などデータ項目の選択によりデータ容量を抑制するという効果に留まっている。そのため、事故状況の分析に必要な高サンプリング周期のデータを送信すると、データ容量が増大することが想定されていない。例えば、昨今の運転支援システムではカメラやLIDAR(Light Detection And Ranging)センサにより収集したデータが活用されており、これらのセンサで収集した画素データや点群データは大容量であるので、さらなるデータ容量の増大が見込まれる。
特許文献2では、収集対象のデータが映像に限定されている。車両の安全性規格においては、事故状況の分析のために速度や加速度などのデータを収集することが指針として定められている場合がある。このような規格に準拠するためには、映像以外のデータを収集する必要がある。
本発明は、上記のような課題に鑑みてなされたものであり、事故状況などを分析するために収集する必要があるデータ項目を適切に選択することにより、データ容量を抑制する技術を提供することを目的とする。
本発明に係る車載装置は、車両状態と前記車両の周辺状況を記述したデータを取得し、前記データが記述しているレコードのうち、車両の動作または周辺物体の動作の少なくともいずれかが閾値を超えているものを選択して出力する。
本発明に係る車載装置によれば、事故状況などを分析するために収集する必要があるデータ項目を適切に選択することにより、データ容量を抑制することができる。本発明のその他特徴、構成、利点などは、後述の実施形態の説明によって明らかとなる。
実施形態1に係る車載装置100を車両に適用した場合の構成例を示すブロック図である。 車載装置100の機能ブロックを実現するハードウェア構成の1例を示した図である。 時刻10時0分5秒の時点において蓄積部102が蓄積したセンサデータの例を示すセンサデータテーブルである。 動作判定部104が、図3に示すセンサデータに基づいて自車動作および周辺物体動作を判定した結果の例を示す動作判定結果テーブルである。 データ選択部105が、図4に示す自車および周辺物体の動作判定結果に基づいてデータを選択した結果の例を示すデータ選択結果テーブルである。 データ選択部105のデータ選択処理の例を示すフローチャートである。 データ圧縮部106が、図5に示すデータ選択結果に基づいて、図3に示すセンサデータを圧縮した結果の例を示す圧縮後センサデータテーブルである。 実施形態2に係る車両動作解析システムの構成図である。
<実施の形態1>
本発明の実施形態1では、先行車と衝突したタイミングから5秒前までの期間に関して車両の状況に関するデータを収集し送信する車載装置について説明する。
図1は、本実施形態1に係る車載装置100を車両に適用した場合の構成例を示すブロック図である。車載装置100は、測定部101、蓄積部102、受信部103、動作判定部104、データ選択部105、データ圧縮部106、送信部107(出力部)、を有する。動作判定部104は、車両動作認識部108、周辺物体動作認識部109、を有する。各機能ブロックのハードウェア構成やそのハードウェアによって実現される機能の詳細は後述する。
図2は、車載装置100の機能ブロックを実現するハードウェア構成の1例を示した図である。図1で説明した車載装置100における機能ブロックは、プログラムにしたがって動作する情報処理装置200によって実現することができる。情報処理装置200は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、通信インタフェース204、を備える。
CPU201は、ROM202やRAM203に格納されたプログラムを読み出し、読みだしたプログラムに基づいて動作することにより、図1で説明した各機能ブロックの動作を実施する。ROM202は、情報処理装置200の起動時にCPU201が実現するブートプログラムや、情報処理装置200のハードウェアに依存するプログラムなどを格納する。RAM203は、CPU201が実行するプログラムおよびCPU201が使用するデータなどを格納している。各機能ブロックは、CPU201が読み込んだ所定のプログラムを実行することにより構築される。通信インタフェース204は、車両内の他の装置や車両外のサーバなどからケーブルやネットワークなどを介してデータを受信してCPU201に送信するとともに、CPU201が生成したデータを、ケーブルやネットワークなどを介して車両内の他の装置や車両外のサーバなどに送信する。
測定部101は、車両に設置された舵角センサ、衛星信号受信機、カメラ、ジャイロセンサなどのセンサ機器により検出された情報を電気信号として検出し、必要に応じてAD変換によってデジタル電気信号へ変換し、デジタル電気信号のセンサデータを得る機能部である。蓄積部102は、測定部101が得た直近一定時間のセンサデータを蓄積する機能部である。受信部103は、車両内の他の装置や車両外のサーバなどからデータ収集指示を電気信号として検出する機能部である。
動作判定部104は、受信部103が車載装置100外からデータ収集を指示する信号を受信すると、蓄積部102が蓄積したセンサデータに基づいて自車動作および周辺物体の動作を識別し、その結果データをデータ選択部105に供する機能部である。動作判定部104の詳細については後述する。
データ選択部105は、動作判定部104による自車動作および周辺物体動作の判定結果に基づいて、データ収集要否またはデータ収集のサンプリング周期を決定し、決定した収集要否またはサンプリング周期をデータ圧縮部106に供する機能部である。データ圧縮部106は、データ選択部105が決定したデータ項目およびサンプリング周期にしたがって、蓄積部102が蓄積しているセンサデータを圧縮する機能部である。送信部107は、データ圧縮部106が圧縮したセンサデータを、ケーブルやネットワークなどを介して車両内の他の装置や車両外のサーバなどに送信する機能部である。
動作判定部104が備える各機能部について説明する。車両動作認識部108は、蓄積部102に蓄積されたセンサデータに基づいて自車の動作を識別する機能部である。周辺物体動作認識部109は、蓄積部102に蓄積されたセンサデータに基づいて周辺物体の動作を識別する機能部である。
以上、図1における車載装置100の機能ブロックについて説明した。次に、図1における車載装置100で実行される処理について説明する。車載装置100において実行される処理は、スタンバイ処理とデータ収集処理に大別される。
車載装置100において実行されるスタンバイ処理について説明する。スタンバイ処置は、図2の情報処理装置200に電力が供給される間、常に実行され続ける処理である。例えば、車両のイグニッションスイッチがオンになっている間、情報処理装置200に電源が供給され、常に実行される。スタンバイ処理が開始されると、測定部101は、車両に設置された舵角センサ、衛星信号受信機、カメラ、ジャイロセンサなどのセンサ機器により検出された情報を電気信号として検出し、必要に応じて変換処理などを実施し、デジタル電気信号のセンサデータを得る。センサデータが測定されると、図1の蓄積部102は、測定部101が得た直近一定時間のセンサデータを蓄積する。例えば、測定部101が測定した直近5秒間のセンサデータを蓄積する場合、測定部101が新たにセンサデータを得ると5秒前に蓄積したデータを消去して新たなデータを記憶し、常に直近5秒間のセンサデータを蓄積する。
図3は、時刻10時0分5秒の時点において蓄積部102が蓄積したセンサデータの例を示すセンサデータテーブルである。図3のセンサデータテーブルは、タイムスタンプフィールド301、舵角フィールド302、緯度フィールド303、経度フィールド304、画像フィールド305、沈み込み角フィールド306、を有するテーブルである。
タイムスタンプフィールド301は、測定部101においてセンサデータを測定した時刻情報を記載したフィールドである。図3におけるレコード307のタイムスタンプフィールド301は、レコード307を時刻10時0分0秒0マイクロ秒に測定したことを示している。舵角フィールド302は、車両に設置された舵角センサによって測定部101が測定した車両の舵角を記載したフィールドである。緯度フィールド303は、車両に設置された衛星信号受信機によって測定部101が測定した車両位置の緯度を記載したフィールドである。経度フィールド304は、車両に設置された衛星信号受信機によって測定部101が測定した車両位置の経度を記載したフィールドである。画像フィールド305は、車両に設置されたカメラによって測定部101が撮影した車両の前方方向の画像データを格納したフィールドである。図3における画像フィールド305は、便宜上「画像A」などと表記しているが、実際は画像データのバイナリデータを格納する。本実施形態1においては50fpsで画像撮影するので、画像フィールド305は、タイムスタンプの時刻において撮影を実施せず画像データが存在しない場合は「撮影なし」がセットされる。沈み込み角フィールド306は、車両に設置されたジャイロセンサにより測定部101が測定した車両のピッチ角を記載したフィールドである。レコード307の沈み込み角フィールド306は、車両に-0.002ラジアンの沈み込みを測定したことを示している。
車載装置100において実行されるデータ収集処理について説明する。データ収集処理は、データ収集を実行するように指示する指示信号を受信部103が車両内の他装置(例:運転支援システム)から受け付けることにより開始される。例えば、運転支援システムが緊急ブレーキを作動させると、運転支援システムから車載装置100へデータ収集指示が電気信号として送信され、この電気信号を受信部103が検知し、データ収集処理を開始する。または、車両外のサーバからネットワークを介してデータ収集指示を受信し、データ収集処理が実行されるようにしてもよい。
図4は、動作判定部104が、図3に示すセンサデータに基づいて自車動作および周辺物体動作を判定した結果の例を示す動作判定結果テーブルである。データ収集処理が開始されると、動作判定部104は、蓄積部102が蓄積したセンサデータに基づいて、自車動作および周辺物体の動作を識別する。動作判定部104の動作判定の詳細な処理を、図4を用いて説明する。
図4の動作判定結果テーブルは、タイムスタンプフィールド401、先行車前後加減速フィールド402、先行車横加減速フィールド403、自車振動フィールド404、を有するテーブルである。
タイムスタンプフィールド401は、動作判定部104がいずれの時刻の動作を判定したのかを記載したフィールドである。図4のレコード405のタイムスタンプフィールド401は、レコード405が時刻10時0分0秒00マイクロ秒のものであることを示している。先行車前後加減速フィールド402は、先行車が先行車前後方向において加減速しているか否かを動作判定部104が判定した結果を記載したフィールドである。レコード405の先行車前後加減速フィールド402は、先行車において先行車前後方向の加減速が発生していなかったことを示している。先行車横加減速フィールド403は、先行車が先行車横方向において加減速しているか否かを動作判定部104が判定した結果を記載したフィールドである。レコード405の先行車横加減速フィールド403は、先行車に先行車横方向の加減速が発生していなかったことを示している。自車振動フィールド404は、動作判定部104が自車の振動の有無を判定した結果を記載したフィールドである。レコード405の自車振動フィールド404は、車両に振動が発生していなかったことを示している。
動作判定部104における車両動作認識部108の処理について説明する。車両動作認識部108は始めに、蓄積部102が蓄積したセンサデータを1件読み込む。例えば、図3に示すセンサデータテーブルのレコード307を読み込む。次に、読み込んだセンサデータにおける沈み込み角フィールド306を参照し、沈み込み角が0.005ラジアン以上であった場合に、自車振動を「あり」と判定する。沈み込み角が0.005ラジアン未満であった場合は、自車振動を「なし」と判定する。例えば、レコード307の沈み込み角フィールド306は「-0.002ラジアン」であるので、自車振動を「なし」と判定し、図4の動作判定結果テーブルにおけるレコード405の自車振動フィールド404に「なし」と記載する。蓄積部102が蓄積したセンサデータがまだ残っていれば同様の処理を実施し、残っていなければ本処理を終了する。
動作判定部104における周辺物体動作認識部109の処理について説明する。周辺物体動作認識部109は始めに、蓄積部102が蓄積したセンサデータを1件読み込む。例えば、図3に示すセンサデータテーブルのレコード307を読み込む。次に、読み込んだセンサデータにおける画像フィールド305を参照し、先行車との前後方向および横方向の相対距離を算出する。例えば、既存の画像認識技術を用いて画像A上の先行車両の特徴点座標を検知し、あらかじめ計測したカメラパラメータに基づいて、先行車との相対距離を算出する。続いて、算出した先行車との前後方向および横方向の相対距離と、図3に示すセンサデータテーブルの自車位置および姿勢の情報(舵角フィールド302、緯度フィールド303、経度フィールド304)とを合成して、先行車の緯度および経度を求める。蓄積部102が蓄積したセンサデータがまだ残っていれば同様の処理を実施し、図3のセンサデータ全件を活用して先行車の緯度・経度を算出する。
周辺物体動作認識部109は続いて、算出した先行車の緯度および経度の時系列データに基づいて、先行車の前後方向および横方向の加速度を算出する。例えば、図3のレコード307により算出した先行車の緯度・経度と、レコード308により算出した先行車の緯度・経度から、先行車の前後方向および横方向の移動距離を求め、これを時間差0.1秒で除算することにより、先行車の前後方向および横方向の速度を算出する。同様にして算出した速度の差分を時間差で除算し、先行車の前後方向および横方向の加速度を求める。この処理を繰り返し、加速度に関しても図3のセンサデータ全件に対して算出する。
周辺物体動作認識部109は続いて、算出した加速度のデータを1件読込み、先行車の前後および横方向の加減速の有無を判定する。例えば、10時0分0秒における先行車の前後加速度(m/秒^2)を参照し、その絶対値が閾値2.00以上の場合は先行車前後方向の加減速を「あり」、閾値2.00未満は「なし」と判定し、図4の動作判定結果テーブルのレコード405の先行車前後加減速フィールド402に判定結果を記載する。同様に、10時0分0秒における先行車の横加速度(m/秒^2)を参照し、その絶対値が閾値2.00以上の場合は先行車横方向の加減速を「あり」、閾値2.00未満は「なし」と判定し、図4の動作判定結果テーブルのレコード405の先行車横加減速フィールド403に判定結果を記載する。算出した加速度がまだ残っていれば同様の処理を実施し、残っていなければ本処理を終了する。
データ収集処理に戻って、データ選択部105は、動作判定部104が出力した動作判定結果に基づいて、データ項目ごとのデータ収集要否または収集周期を判定し、その結果をデータ選択結果として出力する。データ選択部105のデータ選択の詳細な処理を、図5および図6を用いて説明する。
図5は、データ選択部105が、図4に示す自車および周辺物体の動作判定結果に基づいてデータを選択した結果の例を示すデータ選択結果テーブルである。図5のデータ選択テーブルは、タイムスタンプフィールド501、舵角フィールド502、緯度フィールド503、経度フィールド504、画像フィールド505、沈み込み角フィールド506、を有するテーブルである。
タイムスタンプフィールド501は、データ選択部105がいずれの時刻のデータを選択したのかを記載したフィールドである。図5のレコード507のタイムスタンプフィールド501は、レコード507が時刻10時0分0秒0マイクロ秒のセンサデータに関するデータ選択結果であることを示している。舵角フィールド502は、データ選択部105が舵角の収集要否またはサンプリング周期を判定した結果を記載したフィールドである。レコード507の舵角フィールド502は、舵角のサンプリング周期が1.00秒であることを示している。緯度フィールド503は、データ選択部105が緯度の収集要否またはサンプリング周期を判定した結果を記載したフィールドである。レコード507の緯度フィールド503は、緯度のサンプリング周期が1.00秒であることを示している。経度フィールド504は、データ選択部105が経度の収集要否またはサンプリング周期を判定した結果を記載したフィールドである。レコード507の経度フィールド504は、経度のサンプリング周期が1.00秒であることを示している。画像フィールド505は、データ選択部105が画像の収集要否またはサンプリング周期を判定した結果を記載したフィールドである。レコード507の画像フィールド505は、画像のサンプリング周期が1.00秒であることを示している。自車沈み込み角フィールド506は、データ選択部105が自車沈み込み角の収集要否またはサンプリング周期を判定した結果を記載したフィールドである。レコード507の自車沈み込み角フィールド506は、自車沈み込み角のデータを収集しないことを示している。
図6は、データ選択部105のデータ選択処理の例を示すフローチャートである。データ選択部105におけるデータ選択処理の詳細を、図6のフローチャートを用いて説明する。
(図6:ステップS601)
データ選択部105は、動作判定部104が出力した動作判定結果データを1件読み込む。例えば、図4に示す動作判定結果テーブルのレコード405を読み込む。
(図6:ステップS602)
データ選択部105は、S601で読み込んだ動作判定結果において前方物体前後加減速が発生したかどうかを判定する(S602)。前方物体前後加減速が発生していればステップS605へ進み、前方物体前後加速度が発生していなければステップS603へ進む。
(図6:ステップS603)
データ選択部105は、S601で読み込んだ動作判定結果において前方物体横加減速が発生したかどうかを判定する。前方物体横加減速が発生していればステップS605へ進み、前方物体横加速度が発生していなければステップS604へ進む。
(図6:ステップS604)
データ選択部105は、S601で読み込んだ動作判定結果のタイムスタンプの時刻において、舵角・緯度・経度・画像のサンプリング周期を1.0秒に設定し、ステップS606へ進む。例えば、図5のデータ選択結果テーブルのレコード507の舵角フィールド502~画像フィールド505に「1.00秒」と記載する。
(図6:ステップS605)
データ選択部105は、S601で読み込んだ動作判定結果のタイムスタンプの時刻において、舵角・緯度・経度・画像のサンプリング周期を0.10秒に設定し、ステップS606へ進む。
(図6:ステップS606)
データ選択部105は、S601で読み込んだ動作判定結果において自車振動が発生したかどうかを判定する。自車振動が発生していればステップS608へ進み、自車振動が発生していなければステップS607へ進む。
(図6:ステップS607)
データ選択部105は、S601で読み込んだ動作判定結果のタイムスタンプの時刻において、自車沈み込み角のデータを収集しないこととし、ステップS609へ進む。例えば、図5のデータ選択結果テーブルのレコード507の自車沈み込み角フィールド506に「収集なし」と記載する。
(図6:ステップS608)
データ選択部105は、S601で読み込んだ動作判定結果のタイムスタンプの時刻において、自車沈み込み角のサンプリング周期をS604またはS605で決定した画像のサンプリング周期と同期するように設定し、ステップS609へ進む。
(図6:ステップS609)
データ選択部105は、動作判定部104が出力した動作判定結果データがまだ残っていればS601へ戻り、残っていなければデータ選択処理を終了する。
データ収集処理に戻って、データ圧縮部106は、データ選択部105が出力したデータ選択結果に基づいて、蓄積部102が蓄積したセンサデータを圧縮して出力する。圧縮例について図7を用いて説明する。
図7は、データ圧縮部106が、図5に示すデータ選択結果に基づいて、図3に示すセンサデータを圧縮した結果の例を示す圧縮後センサデータテーブルである。圧縮後センサデータテーブルは、タイムスタンプフィールド701、舵角フィールド702、緯度フィールド703、経度フィールド704、画像フィールド705、沈み込み角フィールド706、を有するテーブルである。
タイムスタンプフィールド701は、測定部101においてセンサデータを測定した時刻情報を記載したフィールドである。舵角フィールド702は、車両に設置された舵角センサにより測定部101が測定した車両の舵角を記載したフィールドである。緯度フィールド703は、車両に設置された衛星信号受信機により測定部101が測定した車両位置の緯度を記載したフィールドである。経度フィールド704は、車両に設置された衛星信号受信機により測定部101が測定した車両位置の経度を記載したフィールドである。画像フィールド705は、車両に設置されたカメラにより測定部101が撮影した車両の前方方向の画像のデータを格納したフィールドである。沈み込み角フィールド706は、車両に設置されたジャイロセンサにより測定部101が測定した車両のピッチ角を記載したフィールドである。
データ圧縮部106におけるデータ圧縮処理の詳細を説明する。図5に示すデータ選択結果テーブルでは、レコード507~511において、舵角フィールド502に「1.00秒」と記載されている。これに基づいて、データ圧縮部106は、時刻10時0分0秒0マイクロ秒~10時0分0秒400マイクロ秒において、図5のデータ選択結果テーブルにおける舵角フィールド502のデータをサンプリング周期1.00秒でリサンプリングし、図7の圧縮後センサデータテーブルにおけるレコード707~711の舵角フィールド702に、その結果を記載する。
図5に示すデータ選択結果テーブルのレコード512~516では、舵角フィールド502に「1.00秒」と記載されている。これに基づいて、データ圧縮部106は、時刻10時0分1秒600マイクロ秒~10時0分2秒0マイクロ秒において、図5のデータ選択結果テーブルにおける舵角フィールド502のデータをサンプリング周期1.00秒でリサンプリングし、図7の圧縮後センサデータテーブルにおけるセンサデータ712~716の舵角フィールド702に、その結果を記載する。同様に、データ圧縮部106は、図5の緯度フィールド503~画像フィールドに対しても同様の処理を実施し、図7に示す圧縮後センサデータを出力する。
図5に示すデータ選択結果テーブルでは、レコード507において、沈み込み角フィールド506に「収集なし」と記載されている。これに基づいて、データ圧縮部106は、時刻10時0分0秒0マイクロ秒において、図5のデータ選択結果テーブルにおける沈み込み角フィールド506のデータを収集せず、図7の圧縮後センサデータテーブルにおけるレコード707の沈み込み角フィールド506を空欄にする。
図5に示すデータ選択結果テーブルでは、レコード517において、沈み込み角フィールド506に「画像と同期」と記載されている。これに基づいて、データ圧縮部106は、時刻10時0分4秒600マイクロ秒において、画像フィールド505のデータが収集されているので、図5のデータ選択結果テーブルにおける沈み込み角フィールド506のデータを、図7の圧縮後センサデータテーブルにおけるセンサデータ717の沈み込み角フィールド706に記載する。
これらの処理により、データ圧縮部106は、図7に示す圧縮後センサデータを出力する。本実施形態1においては、図3のセンサデータの舵角フィールド302~経度フィールド304および沈み込み角306のデータ60件中22件に関して、図7に示す通りデータ収集の対象外となった。また、画像フィールド305のデータ15件中4件に関して、図7に示す通りデータ収集の対象外となった。よって、例えば舵角フィールド302~経度フィールド304および沈み込み角306のデータが4バイトの単精度浮動小数点数型とすると、240バイトから152バイトへのデータ容量削減を実現した。さらに、例えば画像データが1件あたり200キロバイトとすると、3メガバイトから2.2メガバイトへの容量削減を実現した。
データ収集処理に戻って、送信部107では、データ圧縮部106が出力した圧縮後センサデータを、ケーブルやネットワークなどを介して車両内の他の装置や車両外のサーバなどに送信する。
<実施の形態1:まとめ>
本実施形態1における車載装置100は、車両状態および車両周辺状況を示すセンサデータなどを取得し、センサデータ内のレコードから車両動作または周辺物体動作を識別した上で、動作が閾値以上であるレコードを選択して出力する。これにより、自車動作や周辺物体動作に応じてデータを選択的に収集することができる。したがって、事故状況の分析などに必要なデータ項目およびサンプリング周期を担保しながら、データ容量を抑制することができる。
<実施の形態2>
図8は、本発明の実施形態2に係る車両動作解析システムの構成図である。送信部107が送信したセンサデータに関しては、例えば、状態推定理論を用いることにより、送信先の車両外のサーバ300において高サンプリング周期のデータに復元することができる。例えばサーバ300は、線形な動的モデルと観測データを用いて非観測データを推定する線形カルマンフィルタを用いることができる。サーバ300は、ネットワークを介して車載装置100と接続されたコンピュータによって構成することができる。
図7のレコード707~711に該当する時刻10時0分0秒0マイクロ秒~10時0分0秒400マイクロ秒の時間帯においては、図5のレコード507~511のとおり、1.00秒のサンプリング周期となっている。さらに、図4のレコード405~409によると、当該時間帯においては、先行車の前後および横方向の加減速が「なし」であるので、先行車に関して線形な動的モデルを構築することができる。したがってサーバ300は、当該時間帯においては、線形カルマンフィルタなどの技術を用いて、例えばサンプリング周期0.01秒のセンサデータに補間することが可能である。同様にセンサデータの全時間帯に対して補間することにより、先行車の位置に関して0.10秒のサンプリング周期のデータが得られる。
サーバ300がセンサデータを補間する手順はこれに限られるものではなく、その他適当な手順を用いてもよい。またセンサデータに限らず画像データを補間によって生成してもよい。
例えば事故原因を解析する際などにおいて、サーバ300は上記手順によって補間後のセンサデータを取得し、その補間したセンサデータを用いて解析作業を実施することができる。これにより、車載装置100が取得するデータ量を抑制しつつ、解析精度を維持することができる。またサーバ300は、解析作業を実施する際など必要に応じてセンサデータを補間すれば足りるので、サーバ300上に補間後センサデータを常に保持しておく必要はない。したがってサーバ300上においてもデータ量を抑制できる。
<本発明の変形例について>
本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
以上の実施形態において、自車振動がない場合は沈み込み角を収集しないことを説明したが(S607)、これに代えて、自車振動がある場合よりも長いサンプリング周期で沈み込み角を収集することとしてもよい。この場合であってもセンサデータ量を抑制することができる。
以上の実施形態においては、車両に設置された単眼カメラにより収集した画像データを用いて周辺物体の動作を判定することを説明したが、例えばステレオカメラやミリ波レーダー、LIDARセンサなどにより収集したデータを用いて周辺物体の動作を識別してもよい。
上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
100:車載装置、101:測定部、102:蓄積部、103:受信部、104:動作判定部、105:データ選択部、106:データ圧縮部、107:送信部、108:車両動作認識部、109:周辺物体動作認識部、300:サーバ

Claims (9)

  1. 車両に搭載する車載装置であって、
    前記車両の状態および前記車両の周辺状況を示すデータを取得するデータ取得部、
    前記データ取得部が取得した前記データを用いて前記車両の動作を認識する車両動作認識部、
    前記データ取得部が取得した前記データを用いて前記車両の周辺物体の動作を認識する周辺物体動作認識部、
    前記データが記述しているレコードのうち、前記車両動作認識部が認識した前記車両の動作を表す数値が第1閾値以上であるもの、または、前記データが記述しているレコードのうち、前記周辺物体動作認識部が認識した前記周辺物体の動作を表す数値が第2閾値以上であるもの、の少なくともいずれかを選択する、データ選択部、
    前記データが記述しているレコードのうち前記データ選択部が選択したものを出力する出力部、
    を備え
    前記車両動作認識部は、前記データが記述しているレコードごとに前記車両の動作を識別し、
    前記周辺物体動作認識部は、前記データが記述しているレコードごとに前記周辺物体の動作を識別し、
    前記データ選択部は、前記データが記述しているレコードのうち前記データからサンプリングするもののサンプリング周期を前記レコードごとにセットすることにより、前記データが記述しているレコードを選択し、
    前記データ選択部は、前記周辺物体動作認識部が識別した前記周辺物体の動作を表す数値が前記第2閾値以上である前記レコードについては、前記サンプリング周期を第3周期にセットし、
    前記データ選択部は、前記周辺物体動作認識部が識別した前記周辺物体の動作を表す数値が前記第2閾値未満である前記レコードについては、前記サンプリング周期を前記第3周期よりも長い第4周期にセットし、
    前記出力部は、前記データ選択部がセットしたサンプリング周期にしたがって前記データが記述しているレコードをサンプリングすることにより、前記データのデータサイズを圧縮した圧縮データを出力する
    ことを特徴とする車載装置。
  2. 前記データ選択部は、前記車両動作認識部が識別した前記車両の動作を表す数値が前記第1閾値以上である前記レコードについては、前記サンプリング周期を第1周期にセットし、
    前記データ選択部は、前記車両動作認識部が識別した前記車両の動作を表す数値が前記第1閾値未満である前記レコードについては、前記サンプリング周期を前記第1周期よりも長い第2周期にセットするかまたはサンプリングしないこととし、
    前記出力部は、前記データ選択部がセットしたサンプリング周期にしたがって前記データが記述しているレコードをサンプリングすることにより、前記データのデータサイズを圧縮した圧縮データを出力する
    ことを特徴とする請求項記載の車載装置。
  3. 前記データ取得部は、前記車両の状態を示す前記データとして、前記車両のピッチ角を取得し、
    前記車両動作認識部は、前記車両のピッチ角が閾値以上である場合は、前記車両が沈み込み動作をしていると認識する
    ことを特徴とする請求項1記載の車載装置。
  4. 前記データ取得部は、前記車両の周辺状況を示す前記データとして、前記車両の周辺を撮影した画像データを取得し、
    前記データ取得部は、前記車両の状態を示す前記データとして、前記車両の舵角と前記車両の位置座標を取得し、
    前記周辺物体動作認識部は、前記画像データを用いて、前記車両と前記周辺物体との間の相対距離を算出し、
    前記周辺物体動作認識部は、前記車両の舵角と前記車両の位置座標と前記相対距離を用いて、前記周辺物体の位置座標を算出し、
    前記周辺物体動作認識部は、前記周辺物体の位置座標を時間微分することにより、前記周辺物体の動作を算出する
    ことを特徴とする請求項1記載の車載装置。
  5. 前記周辺物体動作認識部は、前記周辺物体の動作として、前記周辺物体の前後方向加減速度と前記周辺物体の横方向加減速度を算出する
    ことを特徴とする請求項記載の車載装置。
  6. 前記データ取得部は、前記車両の周辺状況を示す前記データとして、前記車両の周辺を撮影した画像データを取得し、
    前記データ取得部は、前記車両の状態を示す前記データとして、前記車両のピッチ角を取得し、
    前記車両動作認識部は、前記車両の動作を表す数値として前記車両のピッチ角を用い、 前記データ選択部は、前記ピッチ角が前記第1閾値以上である前記レコードについては、前記サンプリング周期を前記画像データと同期させ、
    前記データ選択部は、前記ピッチ角が前記第1閾値未満である前記レコードについては、前記データからサンプリングしないこととする
    ことを特徴とする請求項記載の車載装置。
  7. 前記データ取得部は、前記車両の周辺状況を示す前記データとして、前記車両の周辺を撮影した画像データを取得し、
    前記データ取得部は、前記車両の状態を示す前記データとして、前記車両の舵角と前記車両の位置座標を取得し、
    前記周辺物体動作認識部は、前記周辺物体の動作を表す数値として、前記周辺物体の前後方向加減速度と前記周辺物体の横方向加減速度を用い、
    前記データ選択部は、前記周辺物体の動作を表す数値が前記第2閾値以上である前記レコードについては、前記車両の舵角と前記車両の位置座標と前記画像データのサンプリング周期を前記第3周期にセットし、
    前記データ選択部は、前記周辺物体の動作を表す数値が前記第2閾値未満である前記レコードについては、前記車両の舵角と前記車両の位置座標と前記画像データのサンプリング周期を前記第4周期にセットする
    ことを特徴とする請求項記載の車載装置。
  8. 車両に搭載する車載装置、
    前記車両外に設置されたサーバ、
    を有し、
    前記車載装置は、
    前記車両の状態および前記車両の周辺状況を示すデータを取得するデータ取得部、
    前記データ取得部が取得した前記データを用いて前記車両の動作を認識する車両動作認識部、
    前記データ取得部が取得した前記データを用いて前記車両の周辺物体の動作を認識する周辺物体動作認識部、
    前記データが記述しているレコードのうち、前記車両動作認識部が認識した前記車両の動作を表す数値が第1閾値以上であるもの、または、前記データが記述しているレコードのうち、前記周辺物体動作認識部が認識した前記周辺物体の動作を表す数値が第2閾値以上であるもの、の少なくともいずれかを選択する、データ選択部、
    前記データが記述しているレコードのうち前記データ選択部が選択したものを出力する出力部、
    を備え、
    前記サーバは、前記出力部が出力した前記データが記述しているレコードを補間することにより、前記出力部が出力した前記データよりもサンプリングレートが高いデータを生成する
    ことを特徴とする車両動作解析システム。
  9. 前記データ取得部は、前記車両の周辺状況を示す前記データとして、前記車両の周辺を撮影した画像データを取得し、
    前記周辺物体動作認識部は、前記画像データを用いて、前記車両と前記周辺物体との間の相対距離を算出することにより、前記周辺物体の位置座標を算出し、
    前記周辺物体動作認識部は、前記周辺物体の位置座標を時間微分することにより、前記周辺物体の動作として、前記周辺物体の加減速度を算出し、
    前記サーバは、前記データが記述しているレコードのうち、前記周辺物体の加減速度がないものの間を線形補間することにより、前記出力部が出力した前記データを補間する
    ことを特徴とする請求項記載の車両動作解析システム。
JP2020097354A 2020-06-04 2020-06-04 車載装置、車両動作解析システム Active JP7430113B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020097354A JP7430113B2 (ja) 2020-06-04 2020-06-04 車載装置、車両動作解析システム
US17/925,586 US20230196847A1 (en) 2020-06-04 2021-02-24 In-vehicle device, vehicle movement analysis system
PCT/JP2021/006824 WO2021245999A1 (ja) 2020-06-04 2021-02-24 車載装置、車両動作解析システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020097354A JP7430113B2 (ja) 2020-06-04 2020-06-04 車載装置、車両動作解析システム

Publications (2)

Publication Number Publication Date
JP2021189981A JP2021189981A (ja) 2021-12-13
JP7430113B2 true JP7430113B2 (ja) 2024-02-09

Family

ID=78830797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020097354A Active JP7430113B2 (ja) 2020-06-04 2020-06-04 車載装置、車両動作解析システム

Country Status (3)

Country Link
US (1) US20230196847A1 (ja)
JP (1) JP7430113B2 (ja)
WO (1) WO2021245999A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010035159A (ja) 2008-07-02 2010-02-12 Panasonic Corp 車両搭載型画像記録装置および画像記録方法
JP2010146477A (ja) 2008-12-22 2010-07-01 Fujitsu Ten Ltd ドライブレコーダ
WO2012043388A1 (ja) 2010-09-27 2012-04-05 学校法人神奈川大学 車両挙動解析装置、車両挙動解析プログラム及びドライブレコーダ
JP2016103142A (ja) 2014-11-28 2016-06-02 富士通テン株式会社 データ処理装置、画像処理方法、及び、プログラム
US20170072850A1 (en) 2015-09-14 2017-03-16 Pearl Automation Inc. Dynamic vehicle notification system and method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9535878B1 (en) * 2012-12-19 2017-01-03 Allstate Insurance Company Driving event data analysis

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010035159A (ja) 2008-07-02 2010-02-12 Panasonic Corp 車両搭載型画像記録装置および画像記録方法
JP2010146477A (ja) 2008-12-22 2010-07-01 Fujitsu Ten Ltd ドライブレコーダ
WO2012043388A1 (ja) 2010-09-27 2012-04-05 学校法人神奈川大学 車両挙動解析装置、車両挙動解析プログラム及びドライブレコーダ
JP2016103142A (ja) 2014-11-28 2016-06-02 富士通テン株式会社 データ処理装置、画像処理方法、及び、プログラム
US20170072850A1 (en) 2015-09-14 2017-03-16 Pearl Automation Inc. Dynamic vehicle notification system and method

Also Published As

Publication number Publication date
US20230196847A1 (en) 2023-06-22
WO2021245999A1 (ja) 2021-12-09
JP2021189981A (ja) 2021-12-13

Similar Documents

Publication Publication Date Title
JP7085525B2 (ja) 車両データで使用する動的データ圧縮システムおよび方法
JP6786920B2 (ja) 監視システム、車載器、センタ装置、および監視方法
JP5652391B2 (ja) ステレオ画像取得装置
US9747524B2 (en) Disparity value deriving device, equipment control system, movable apparatus, and robot
JP7024603B2 (ja) データ記録装置
US20210004612A1 (en) Road environment monitoring device, road environment monitoring system, and road environment monitoring program
EP3660807A1 (en) Server device and vehicle
KR20210087495A (ko) 센서 데이터 처리 방법, 장치, 전자 기기 및 시스템
CN108924461B (zh) 视频图像处理方法及装置
JP6048223B2 (ja) 車外画像保存システム、車外画像保存装置、及び車車間通信装置
JP7430113B2 (ja) 車載装置、車両動作解析システム
US10949681B2 (en) Method and device for ascertaining an optical flow based on an image sequence recorded by a camera of a vehicle
KR102578580B1 (ko) 3차원 데이터 생성 장치 및 방법
WO2019049548A1 (ja) 画像処理装置
CN110770806B (zh) 终端装置及收集方法
EP3217357B1 (en) Estimation of movement of a target object
JP2019207541A (ja) 画像処理装置及びその方法
KR101687656B1 (ko) 단말을 이용한 차량용 블랙 박스 시스템 및 그 운영 방법
JP7429246B2 (ja) 対象を識別する方法とシステム
CN114906135A (zh) 不可预见的车辆驾驶场景
US8786671B2 (en) Driving recorder system and method thereof
JP7371357B2 (ja) 移動体外部環境認識装置
US10825191B2 (en) Non-transitory computer readable recording medium, assessment method, and assessment device
JP2021076938A (ja) 情報処理装置
EP3958223A1 (en) External environment recognition apparatus for mobile body

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240130

R150 Certificate of patent or registration of utility model

Ref document number: 7430113

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150