JP6771696B2 - データ同期装置、データ同期方法およびデータ同期プログラム - Google Patents

データ同期装置、データ同期方法およびデータ同期プログラム Download PDF

Info

Publication number
JP6771696B2
JP6771696B2 JP2020517744A JP2020517744A JP6771696B2 JP 6771696 B2 JP6771696 B2 JP 6771696B2 JP 2020517744 A JP2020517744 A JP 2020517744A JP 2020517744 A JP2020517744 A JP 2020517744A JP 6771696 B2 JP6771696 B2 JP 6771696B2
Authority
JP
Japan
Prior art keywords
data
range
time
vehicle
estimation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020517744A
Other languages
English (en)
Other versions
JPWO2019215923A1 (ja
Inventor
要介 石渡
要介 石渡
昌彦 谷本
昌彦 谷本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019215923A1 publication Critical patent/JPWO2019215923A1/ja
Application granted granted Critical
Publication of JP6771696B2 publication Critical patent/JP6771696B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/107Longitudinal acceleration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本発明は、データ同期装置、データ同期方法およびデータ同期プログラムに関するものである。
近年、自動運転のように、多数のセンサを搭載し、そこから得られるデータの分析等を行う研究が盛んになっている。自動運転では、車両は、搭載した各種センサを用いて車両周囲の障害物を認識し、障害物を避けながら移動する。
車両周囲の障害物を認識するに当たり、各センサから得られるデータについて、時刻同期が行われていることが重要である。時刻同期が行われていない場合、得られた結果と実際の周囲の障害物との関係が一致せず、データ分析に支障がある。
センサデータをリアルタイムに使用するのではなく、センサデータを記録しておき、後にオフラインで使用する場合、時刻同期が行われていないデータの利用には問題がある。これは、周囲の障害物がどのように配置されていたか等、実際に起きたこととデータとの整合性が取れないからである。
一般的には、同一のシステムにセンサを取り付け、同一の時刻を付与することにより、同期がなされる。複数のシステムで別々に取得したデータを使用する場合、システム間での同期が必要になる。
一度システム間での同期を行ったとしても、システム運用の間にズレが生じることもあり、定期的な同期処理が必要である。
複数のシステムによるデータ取得の例としては、事前に車両に取り付けられたセンサのデータをCAN経由で取得しながら、車両に別に取り付けた、CANに繋がっていないドライブレコーダでカメラ画像を取得する、という状況がある。「CAN」は、Car Area Networkの略語である。近年の車両には、CANから一部のセンサデータを取り出せるようなコネクタも取り付けられており、ドライバがデータを取れるようになっている。
特許文献1および特許文献2には、センサデータ記録時に同期を行う手法が記載されている。
特許文献3には、車両の相対速度と他車両の相対速度とを比較した結果に基づいて、他車両から受信した相対速度のデータの時間遅れ量を算出し、この時間遅れ量によって、抽出した他車両の状態量のデータを補正する手法が記載されている。
特開2011−159093号公報 特開2014−011633号公報 特開2007−264884号公報
特許文献1および特許文献2に記載の手法は、センサデータを記録しておき、後にオフラインで使用する場合には適用できない。
複数のシステムにより得られた、同期されていないセンサデータを同期させるためには、何らかの形で同期点を検知する必要がある。特許文献3に記載の手法では、相対速度等、同じ意味を持つデータを複数のシステムで取得し、そのデータを一致させることで同期を行っている。
同じデータを取得していない複数のシステム間の同期のためには、単純にデータを一致させるのとは別の形で同期点を検知する必要がある。
本発明は、異なる種類のデータ間で時刻同期を行うことを目的とする。
本発明の一態様に係るデータ同期装置は、
車両に設置されたカメラによって前記車両の外を撮影して得られた画像の時系列データのうち、前記車両がある動きをしていたときのデータ範囲を第1データ範囲として推定する第1推定部と、
前記車両に設置された加速度センサによって得られた加速度の時系列データのうち、前記車両が前記動きをしていたときのデータ範囲を第2データ範囲として推定する第2推定部と、
前記第1推定部により推定された第1データ範囲に対応する時間範囲と、前記第2推定部により推定された第2データ範囲に対応する時間範囲とに基づいて、前記画像の時系列データと前記加速度の時系列データとの間の時刻同期を行う同期部と
を備える。
本発明では、カメラによって得られた画像の時系列データのうち、車両がある「動き」をしていたときのデータ範囲に対応する時間範囲と、加速度センサによって得られた加速度の時系列データのうち、車両がその「動き」をしていたときのデータ範囲に対応する時間範囲とが参照される。そのため、本発明によれば、画像の時系列データと加速度の時系列データという、異なる種類のデータ間で時刻同期を行うことができる。
実施の形態1に係るデータ同期システムの構成を示す図。 実施の形態1に係るデータ同期装置の構成を示すブロック図。 実施の形態1に係るデータ同期装置の動作を示すフローチャート。 実施の形態1における、特徴点群のフレーム間での移動方向の分類例を示す図。 実施の形態1における、特徴点群のフレーム間での移動方向の変化例を示す図。 実施の形態1の変形例に係るデータ同期装置の構成を示すブロック図。 実施の形態3に係るデータ同期装置の構成を示すブロック図。
以下、本発明の実施の形態について、図を用いて説明する。各図中、同一または相当する部分には、同一符号を付している。実施の形態の説明において、同一または相当する部分については、説明を適宜省略または簡略化する。なお、本発明は、以下に説明する実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。例えば、以下に説明する実施の形態のうち、2つ以上の実施の形態が組み合わせられて実施されても構わない。あるいは、以下に説明する実施の形態のうち、1つの実施の形態または2つ以上の実施の形態の組み合わせが部分的に実施されても構わない。
実施の形態1.
本実施の形態について、図1から図5を用いて説明する。
***構成の説明***
図1を参照して、本実施の形態に係るデータ同期システム10の構成を説明する。
データ同期システム10は、データ同期装置20と、車両30に搭載されたカメラ31と、車両30に搭載された加速度センサ32と、カメラ31で撮影された動画を記録する動画記録用システム41と、加速度センサ32で取得された加速度の値を記録する加速度記録用システム42とを備える。
動画記録用システム41および加速度記録用システム42は、コンピュータである。動画記録用システム41および加速度記録用システム42は、例えば、PCである。「PC」は、Personal Computerの略語である。
前述したように、同じデータを取得していない複数のシステム間の同期のためには、単純にデータを一致させるのとは別の形で同期点を検知する必要がある。車両30が右左折といった何らかのアクションを起こしていることがセンサデータで判断できれば、そのアクションに基づいて、同じアクションを起こしているセンサデータの範囲が同じ時間を示すとみなし、同期を行うことが可能である。
あるセンサデータからまったく異なるセンサデータの値を推測し、その結果をもとに同期を行うことも可能である。本実施の形態では、カメラ31の画像から車両30の加速度が推定され、加速度センサ32で得た加速度値と比較される。このようにすることで、センサデータを記録しておき、後にオフラインで使用する場合でも、センサデータにより同期点が得られるため、記録時の同期が不要になる。その結果、手違いにより記録時の同期をし損なったデータに対しても事後に同期が行えることになり、データの有用性が上がる。
図2を参照して、本実施の形態に係るデータ同期装置20の構成を説明する。
データ同期装置20は、コンピュータである。データ同期装置20は、プロセッサ21を備えるとともに、メモリ22等の他のハードウェアを備える。プロセッサ21は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
データ同期装置20は、機能要素として、第1推定部51と、第2推定部52と、同期部53とを備える。第1推定部51は、移動ベクトル算出部61と、支配方向決定部62と、動作フレーム決定部63とを備える。同期部53は、ズレ量算出部64と、ズレ調整部65とを備える。
第1推定部51、第2推定部52および同期部53の機能は、ソフトウェアにより実現される。具体的には、第1推定部51、第2推定部52および同期部53の機能は、データ同期プログラムにより実現される。データ同期プログラムは、第1推定部51、第2推定部52および同期部53により行われる処理をそれぞれ第1推定処理、第2推定処理および同期処理としてコンピュータに実行させるプログラムである。データ同期プログラムは、コンピュータ読取可能な媒体に記録されて提供されてもよいし、記録媒体に格納されて提供されてもよいし、プログラムプロダクトとして提供されてもよい。
プロセッサ21は、データ同期プログラムを実行する装置である。プロセッサ21は、例えば、CPUである。「CPU」は、Central Processing Unitの略語である。
メモリ22は、データ同期プログラムをあらかじめまたは一時的に記憶する装置である。メモリ22は、例えば、RAM、フラッシュメモリまたはこれらの組み合わせである。「RAM」は、Random Access Memoryの略語である。
メモリ22には、動画データ33と、加速度データ34とが記憶される。動画データ33は、車両30に設置されたカメラ31によって車両30の外を撮影して得られた画像の時系列データである。加速度データ34は、車両30に設置された加速度センサ32によって得られた加速度の時系列データである。動画データ33および加速度データ34は、それぞれ動画記録用システム41および加速度記録用システム42から送信され、図示していない通信デバイスで受信される。
通信デバイスは、データ同期プログラムに入力されるデータを受信するレシーバと、データ同期プログラムから出力されるデータを送信するトランスミッタとを備える。通信デバイスは、例えば、通信チップまたはNICである。「NIC」は、Network Interface Cardの略語である。
データ同期プログラムは、メモリ22からプロセッサ21に読み込まれ、プロセッサ21によって実行される。メモリ22には、データ同期プログラムだけでなく、OSも記憶されている。「OS」は、Operating Systemの略語である。プロセッサ21は、OSを実行しながら、データ同期プログラムを実行する。なお、データ同期プログラムの一部または全部がOSに組み込まれていてもよい。
データ同期プログラムおよびOSは、補助記憶装置に記憶されていてもよい。補助記憶装置は、例えば、HDD、フラッシュメモリまたはこれらの組み合わせである。「HDD」は、Hard Disk Driveの略語である。データ同期プログラムおよびOSは、補助記憶装置に記憶されている場合、メモリ22にロードされ、プロセッサ21によって実行される。
データ同期装置20は、プロセッサ21を代替する複数のプロセッサを備えていてもよい。これら複数のプロセッサは、データ同期プログラムの実行を分担する。それぞれのプロセッサは、例えば、CPUである。
データ同期プログラムにより利用、処理または出力されるデータ、情報、信号値および変数値は、メモリ22、補助記憶装置、または、プロセッサ21内のレジスタまたはキャッシュメモリに記憶される。
動画データ33および加速度データ34は、補助記憶装置に記憶されてもよいし、外部のストレージに記憶されてもよい。
データ同期装置20は、1台のコンピュータで構成されていてもよいし、複数台のコンピュータで構成されていてもよい。データ同期装置20が複数台のコンピュータで構成されている場合は、第1推定部51、第2推定部52および同期部53の機能が、各コンピュータに分散されて実現されてもよい。
***動作の説明***
図3を参照して、本実施の形態に係るデータ同期装置20の動作を説明する。データ同期装置20の動作は、本実施の形態に係るデータ同期方法に相当する。
ステップS1からステップS3において、第1推定部51は、走行中の車両30の前方を撮影して得られた動画データ33から車両30の挙動として車両30が右左折動作をしているフレーム範囲を抽出する。
具体的には、ステップS1において、第1推定部51の移動ベクトル算出部61は、動画の各フレームの特徴点を抽出し、フレーム間での特徴点の移動量としてオプティカルフローを求める。すなわち、移動ベクトル算出部61は、入力された動画データ33の各フレームに対し、フレーム上の特徴点が次以降のフレームでどの方向に動いているかを算出する。移動ベクトル算出部61は、各フレームに対し、特徴点およびその方向を示すベクトルを求める。
ステップS2において、第1推定部51の支配方向決定部62は、ステップS1で得られた移動量の支配的な方向として各フレームで最も多くの特徴点の移動ベクトルが向いている方向を算出する。すなわち、支配方向決定部62は、移動ベクトル算出部61で得られたベクトルに対し、フレーム内で最も多い方向となるベクトルを各フレームにおける支配的方向として抽出し、出力する。
ステップS3において、第1推定部51の動作フレーム決定部63は、各フレームの支配的な方向をもとに車両30が右左折をしていると推定されるフレーム範囲を第1データ範囲として求める。すなわち、動作フレーム決定部63は、支配方向決定部62で得られた各フレームの支配的な方向をもとに、動画フレームのうち車両30が右左折動作をしていると推定されるフレーム群を抽出する。
ステップS4において、第2推定部52は、車両30の左右方向の加速度データ34から車両30が右左折動作をしているデータ範囲を第2データ範囲として抽出する。すなわち、第2推定部52は、入力された加速度データ34をもとに、車両30が右左折をしていると推定される範囲を抽出する。
ステップS5において、同期部53のズレ量算出部64は、第1推定部51と第2推定部52とで得られた結果から動画データ33と加速度データ34との時間ズレ量を推測する。すなわち、ズレ量算出部64は、第1推定部51および第2推定部52によって得られた、動画データ33および加速度データ34における車両30の右左折のデータ範囲をもとに、両データのマッチングを行うことで両データの時間的ズレ量を求める。右左折動作は一度の走行で複数回起こり得るため、このマッチング処理およびそれにより得られる時間的ズレ量は複数個求められる。
ステップS6において、同期部53のズレ量算出部64は、ステップS5で推測されたズレ量によって動画データ33および加速度データ34の同期を取る。すなわち、ズレ調整部65は、ズレ量算出部64から得られた時間的ズレ量をもとに、加速度データ34を動画データ33に同期させる。
以上説明したように、第1推定部51は、動画データ33のうち、車両30がある「動き」をしていたときのデータ範囲を第1データ範囲として推定する。具体的には、第1推定部51は、動画データ33に含まれている画像のフレームそれぞれの特徴点群を抽出し、抽出した特徴点群のフレーム間での移動方向の偏りから、第1データ範囲を求める。
第2推定部52は、加速度データ34のうち、車両30が上記「動き」をしていたときのデータ範囲を第2データ範囲として推定する。具体的には、第2推定部52は、加速度データ34に示されている加速度の変動から、第2データ範囲を求める。
同期部53は、第1推定部51により推定された第1データ範囲に対応する時間範囲と、第2推定部52により推定された第2データ範囲に対応する時間範囲とに基づいて、動画データ33と加速度データ34との間の時刻同期を行う。具体的には、同期部53は、第1データ範囲に対応する時間範囲と、第2データ範囲に対応する時間範囲とのズレ量を算出し、算出したズレ量から、時刻同期を行う。
上記「動き」は、本実施の形態では右左折であるが、右左折のいずれか一方でもよいし、後退、停止またはUターンといった、右左折以外の動きでもよい。
図3のほかに、図4および図5を参照して、データ同期装置20の動作の詳細を説明する。
ステップS1において、移動ベクトル算出部61は、動画データ33の各フレームを走査し、動画フレーム上の特徴点を抽出する。移動ベクトル算出部61は、当該特徴点の次のフレームにおける位置を算出し、各位置から特徴点の移動方向を示すベクトルを算出する。特徴点は1フレームごとに複数抽出され、特徴点ごとに移動量が算出される。この処理には、任意の手法を用いてよいが、本実施の形態では既存技術であるオプティカルフロー算出手法が用いられる。処理の際、特徴点の移動方向算出に用いるフレームは各フレームの次のフレームではなく一定数後のフレームでも構わない。
ステップS2において、支配方向決定部62は、移動ベクトル算出部61で得られたベクトルの中から、フレーム内で最も多い方向となるベクトルを抽出する。実際には、ベクトルには微小なズレがあり、同一の方向のベクトルが出るとは限らない。そのため、本実施の形態では、図4に示すように、動画の2次元フレームの平面が中心軸周りに16分割されて各ベクトルの方向がどの領域に含まれるかが求められる。最も多くのベクトルが含まれる領域の中心方向が支配的方向とされる。つまり、フレームiに対し、支配的な方向D(i)として図4に実線矢印で示した16本のベクトルdv(j)のうちどれかが得られることになる。jは1以上16以下の整数である。なお、方向の分類数は、車両30の直進動作と右左折動作とを判別できるような数であれば、16個でなくてもよい。
ステップS3において、動作フレーム決定部63は、支配方向決定部62で得られたD(i)をもとに、動画フレームのうち車両30が右左折動作をしていると推定されるフレーム群を抽出する。図5に示すように、右左折時には、車両30の正面から撮った動画から得られた特徴点の移動方向は左方向または右方向に偏る。すなわち、D(i)としてdv(1)もしくはdv(16)またはdv(8)もしくはdv(9)が連続して現れる。この連続性をチェックすることにより、右左折フレーム範囲Flr(D(i))={{x1,x2},{x3,x4},・・・}を得ることができる。すなわち、動画のx1フレーム目からx2フレーム目、x3フレーム目からx4フレーム目、・・・が、車両30が右左折をしている範囲として得られる。動画が車両30の正面以外から撮影されている場合、右左折時にベクトルの方向は左右となるとは限らないが、カメラ31の撮影方向が分かれば変換可能であるため問題ない。
なお、特徴点が車両30と異なる動きをしている移動体上にある場合、車両30が右左折していても必ずしもそれに応じたベクトルが得られるとは限らないが、車両30の周囲に移動体が多数あるのでない限り、静止物上の特徴点が多く取られる。その結果として支配方向決定部62で静止物上の特徴点の移動方向が支配的な方向として算出されるため、動作フレーム決定部63での動作に影響はない。
ステップS4において、第2推定部52は、加速度データ34をもとに車両30が右左折動作をしていると推定されるデータ範囲を抽出する。右左折開始直前までは、車両30の左右方向の加速度は状況によって様々であるが、ドライバが右左折しようとする際、ドライバはハンドルを右または左に切る動作を必ず行う。この動作は、加速度をかけようとする動作である。つまり、右左折の直前と右左折の瞬間とで、加速度が変動することになる。また、右左折時には、車両30が、曲がった後に、曲がった方向とは逆の方向に加速度をかけて車両30の向きを戻すため、右方向および左方向の両方の加速度がかかる。このことを利用し、加速度データ34から車両30が右左折を行っている範囲のデータAlr(Acc)={{y1,y2},{y3,y4},・・・}を抽出することができる。すなわち、加速度データ34の先頭y1サンプル目からy2サンプル目、y3サンプル目からy4サンプル目、・・・が、車両30が右左折をしている範囲として得られる。
ステップS5において、ズレ量算出部64は、第1推定部51および第2推定部52で得られた結果のマッチングを行い、両者のズレを求める。すなわち、ズレ量算出部64は、第1推定部51で得られたフレーム範囲Flr(D(i))に対し、第2推定部52で得られたデータ範囲Alr(Acc)を重ねあわせ、両データ間のズレ量を求める。
具体的には、ズレ量算出部64は、Flr(D(i))における右左折フレーム範囲{xi,xi+1}と対応するAlr(Acc)の右左折データ範囲{yi,yi+1}を求める。このとき、加速度データ34と動画データ33との時刻ズレが大きくないとの仮定を置き、{xi,xi+1}の時刻に最も近い時刻となる{yi,yi+1}を選ぶとしても構わない。動画データ33のフレームレートをfとしたとき、先頭からxiフレーム目=xi/f秒目とする。
ズレ量算出部64は、得られた{yi,yi+1}に対し、Δti1=(yi−xi/f)およびΔti2=(yi+1−xi+1/f)を算出する。これは、{yi,yi+1}で与えられる時間幅と{xi,xi+1}で与えられる時間幅とが同一とは限らないためである。ズレ量算出部64は、先頭および終了時のそれぞれのズレ量Δti1,Δti2を求め、ここから{xi,xi+1}および{yi,yi+1}間のズレ量Δtiを算出する。本実施の形態では、Δti=(Δti1+Δti2)/2とする。
ステップS6において、ズレ調整部65は、ズレ量算出部64から得られた時間的ズレ量をもとに、加速度データ34を動画データ33に同期させる。xi<=x<=xi+1とすると、得られたズレ量Δtiから、フレームxに対応する加速度の値はx/f+Δti時の値になる。このことを利用し、右左折時のフレームに対応する加速度が算出される。加速度のサンプリングレートと動画のフレームレートとの違いにより対応するデータが存在しない場合は、該当する時刻前後のデータで補間することにより加速度を算出できる。
右左折期間{xi,xi+1}および{xi+2,xi+3}に対し、xi+1<=x’<=xi+2とすると、右左折期間外のフレームx’については、前後の右左折期間でのズレ量を鑑み、対応する加速度の値をx’/f+(Δti+Δti+2)/2時の値とすればよい。最初の右左折期間より前のフレームと、最後の右左折期間より後のフレームとについては、外挿により対応する加速度を算出できる。
このようにして得られた加速度は、動画の各フレームに対応したデータとなり、動画と同期していることになる。すなわち、本実施の形態によれば、データ取得時に同期が行われていなくても、データだけを見ることで同期を行うことができる。
動画または加速度のどちらかと同期しているデータも、このシステム経由で同期できる。例えば、加速度データ34を取得したシステムと同じシステムまたは同じ時刻で取ったミリ波センサのデータがあるならば、本実施の形態により動画とミリ波センサの検知結果とを同期させることができる。
***実施の形態の効果の説明***
本実施の形態では、カメラ31によって得られた動画データ33のうち、車両30がある「動き」をしていたときのデータ範囲に対応する時間範囲と、加速度センサ32によって得られた加速度データ34のうち、車両30がその「動き」をしていたときのデータ範囲に対応する時間範囲とが参照される。そのため、本実施の形態によれば、動画データ33と加速度データ34という、異なる種類のデータ間で時刻同期を行うことができる。
***他の構成***
本実施の形態では、第1推定部51、第2推定部52および同期部53の機能がソフトウェアにより実現されるが、変形例として、第1推定部51、第2推定部52および同期部53の機能がハードウェアにより実現されてもよい。この変形例について、主に本実施の形態との差異を説明する。
図6を参照して、本実施の形態の変形例に係るデータ同期装置20の構成を説明する。
データ同期装置20は、電子回路23等のハードウェアを備える。
電子回路23は、第1推定部51、第2推定部52および同期部53の機能を実現する専用のハードウェアである。電子回路23は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、FPGA、ASIC、または、これらのうちいくつか、もしくは、すべての組み合わせである。「IC」は、Integrated Circuitの略語である。「GA」は、Gate Arrayの略語である。「FPGA」は、Field−Programmable Gate Arrayの略語である。「ASIC」は、Application Specific Integrated Circuitの略語である。
データ同期装置20は、電子回路23を代替する複数の電子回路を備えていてもよい。これら複数の電子回路は、全体として第1推定部51、第2推定部52および同期部53の機能を実現する。それぞれの電子回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、FPGA、ASIC、または、これらのうちいくつか、もしくは、すべての組み合わせである。
別の変形例として、第1推定部51、第2推定部52および同期部53の機能がソフトウェアとハードウェアとの組み合わせにより実現されてもよい。すなわち、第1推定部51、第2推定部52および同期部53の機能の一部が専用のハードウェアにより実現され、残りがソフトウェアにより実現されてもよい。
プロセッサ21および電子回路23は、いずれも処理回路である。すなわち、データ同期装置20の構成が図2および図6のいずれに示した構成であっても、第1推定部51、第2推定部52および同期部53の動作は、処理回路により行われる。
実施の形態2.
本実施の形態について、主に実施の形態1との差異を説明する。
本実施の形態では、第1推定部51は、動画データ33に対して機械学習を行うことで、第1データ範囲を求める。第2推定部52は、加速度データ34に対して機械学習を行うことで、第2データ範囲を求める。
実施の形態1では、動画データ33および加速度データ34から車両30の右左折の状態をセンサの値の変動そのものを見て判断しているが、本実施の形態では、これを機械学習で検出している。機械学習以外の既存の技術が用いられても構わない。
実施の形態3.
本実施の形態について、主に実施の形態1との差異を、図7を用いて説明する。
本実施の形態では、図7に示すように、第1推定部51は、移動ベクトル算出部61と、支配方向決定部62と、動作フレーム決定部63とのほかに、移動体除去部66を備える。
移動体除去部66は、移動ベクトル算出部61により抽出された、動画データ33に含まれている画像のフレームそれぞれの特徴点群のうち、画像に写っている移動体の特徴点を除去する。支配方向決定部62は、移動体除去部66により移動体の特徴点が除去されてから、移動ベクトル算出部61により抽出された特徴点群のフレーム間での移動方向を算出する。
実施の形態1では、特徴点の移動ベクトルを算出後、その結果をそのまま支配方向決定部62で使用しているが、本実施の形態では、事前にフレーム内の移動体を、前後フレームを使った画像処理により検知して除去し、移動体の上にない特徴点の移動ベクトルのみを抽出している。
本実施の形態では、移動ベクトル算出部61の結果に対し、移動体除去部66でフィルタリングを行うことで静止物上の特徴点の移動ベクトルのみを得ることができる。これにより車両30の動きを反映したベクトルのみを抽出することができる。つまり、支配方向決定部62で得られる支配的な方向と車両30の動きとがより正確に関連付けられる。
実施の形態4.
本実施の形態について、主に実施の形態1との差異を説明する。
本実施の形態では、第1推定部51の支配方向決定部62は、第1推定部51の移動ベクトル算出部61により抽出された特徴点群のフレーム間での移動量に応じて、当該特徴点群のフィルタリングを行ってから、当該特徴点群のフレーム間での移動方向を算出する。
実施の形態1では、特徴点の移動ベクトルを算出する際の条件付けはないが、本実施の形態では、長さが一定値α以上のベクトルだけを選んでいる。短いベクトルは誤差の影響が大きくなるため、そのようなベクトルを除外することで支配的方向の算出をより正確にできる。
実施の形態5.
本実施の形態について、主に実施の形態1との差異を説明する。
本実施の形態では、同期部53は、第1推定部51により推定された第1データ範囲における、動画データ33に含まれている画像のフレームそれぞれの特徴点群のフレーム間での移動量と、第2推定部52により推定された第2データ範囲における、加速度データ34に示されている加速度の変動量との関係を分析する。同期部53は、分析結果を時刻同期に利用する。
実施の形態1では、{xi,xi+1}および{yi,yi+1}のマッチングに先頭および終了フレームの時刻のみを使用しているが、本実施の形態では、先頭および終了フレームのベクトルの長さの変化と加速度の変化との関係からマッチングを行っている。これは、加速度の変化から与えられる車両30の速度の変化が、移動ベクトルの長さに関係があるためである。速度が速ければ単位時間当たりの変動が大きくなり、移動ベクトルが長くなる。
実施の形態6.
本実施の形態について、主に実施の形態1との差異を説明する。
本実施の形態では、第1推定部51は、動画データ33に含まれている画像のフレームそれぞれを複数の部分画像に分割し、部分画像ごとの移動方向の偏りから、第1データ範囲を求める。
実施の形態1では、特徴点の移動ベクトルの支配的方向をフレーム全体の結果から算出しているが、本実施の形態では、動画フレームを複数の部分画像に分割し、各部分画像に含まれる特徴点の移動ベクトルの支配的方向を算出し、その結果を利用している。そのため、本実施の形態によれば、フレーム全体では求められないような車両30の挙動も求められる。例えば、直進時は画像内の消失点方向に移動ベクトルが集中するため、このような状態も得られる。
これにより、直進等、右左折以外の車両30の動作も算出でき、動作フレーム決定部63で求められるフレーム範囲が多くなる。加速度データ34に車両30の進行方向の加速度のデータを追加し、第2推定部52に入力することで直進時のデータ範囲を求めることにより、より多くのデータでズレ量算出部64によるズレ量推定を行うことができ、結果としてより正確な同期ができることになる。
10 データ同期システム、20 データ同期装置、21 プロセッサ、22 メモリ、23 電子回路、30 車両、31 カメラ、32 加速度センサ、33 動画データ、34 加速度データ、41 動画記録用システム、42 加速度記録用システム、51 第1推定部、52 第2推定部、53 同期部、61 移動ベクトル算出部、62 支配方向決定部、63 動作フレーム決定部、64 ズレ量算出部、65 ズレ調整部、66 移動体除去部。

Claims (13)

  1. 車両に設置されたカメラによって前記車両の外を撮影して得られた画像の時系列データのうち、前記車両がある動きをしていたときのデータ範囲を第1データ範囲として推定する第1推定部と、
    前記車両に設置された加速度センサによって得られた加速度の時系列データのうち、前記車両が前記動きをしていたときのデータ範囲を第2データ範囲として推定する第2推定部と、
    前記第1推定部により推定された第1データ範囲に対応する時間範囲と、前記第2推定部により推定された第2データ範囲に対応する時間範囲とに基づいて、前記画像の時系列データと前記加速度の時系列データとの間の時刻同期を行う同期部と
    を備えるデータ同期装置。
  2. 前記動きは、右左折の少なくともいずれかである請求項1に記載のデータ同期装置。
  3. 前記同期部は、前記第1データ範囲に対応する時間範囲と、前記第2データ範囲に対応する時間範囲とのズレ量を算出し、算出したズレ量から、前記時刻同期を行う請求項1または2に記載のデータ同期装置。
  4. 前記第1推定部は、前記画像の時系列データに含まれている前記画像のフレームそれぞれの特徴点群を抽出し、抽出した特徴点群のフレーム間での移動方向の偏りから、前記第1データ範囲を求める請求項1から3のいずれか1項に記載のデータ同期装置。
  5. 前記第1推定部は、前記特徴点群のうち、前記画像に写っている移動体の特徴点を除去してから、前記移動方向を算出する請求項4に記載のデータ同期装置。
  6. 前記第1推定部は、前記特徴点群のフレーム間での移動量に応じて、前記特徴点群のフィルタリングを行ってから、前記移動方向を算出する請求項4または5に記載のデータ同期装置。
  7. 前記第1推定部は、前記画像のフレームそれぞれを複数の部分画像に分割し、部分画像ごとの前記移動方向の偏りから、前記第1データ範囲を求める請求項4から6のいずれか1項に記載のデータ同期装置。
  8. 前記第2推定部は、前記加速度の時系列データに示されている前記加速度の変動から、前記第2データ範囲を求める請求項4から7のいずれか1項に記載のデータ同期装置。
  9. 前記同期部は、前記第1データ範囲における、前記特徴点群のフレーム間での移動量と、前記第2データ範囲における、前記加速度の変動量との関係を分析し、分析結果を前記時刻同期に利用する請求項8に記載のデータ同期装置。
  10. 前記第1推定部は、前記画像の時系列データに対して機械学習を行うことで、前記第1データ範囲を求める請求項1から9のいずれか1項に記載のデータ同期装置。
  11. 前記第2推定部は、前記加速度の時系列データに対して機械学習を行うことで、前記第2データ範囲を求める請求項1から10のいずれか1項に記載のデータ同期装置。
  12. 第1推定部が、車両に設置されたカメラによって前記車両の外を撮影して得られた画像の時系列データのうち、前記車両がある動きをしていたときのデータ範囲を第1データ範囲として推定し、
    第2推定部が、前記車両に設置された加速度センサによって得られた加速度の時系列データのうち、前記車両が前記動きをしていたときのデータ範囲を第2データ範囲として推定し、
    同期部が、前記第1推定部により推定された第1データ範囲に対応する時間範囲と、前記第2推定部により推定された第2データ範囲に対応する時間範囲とに基づいて、前記画像の時系列データと前記加速度の時系列データとの間の時刻同期を行うデータ同期方法。
  13. コンピュータに、
    車両に設置されたカメラによって前記車両の外を撮影して得られた画像の時系列データのうち、前記車両がある動きをしていたときのデータ範囲を第1データ範囲として推定する第1推定処理と、
    前記車両に設置された加速度センサによって得られた加速度の時系列データのうち、前記車両が前記動きをしていたときのデータ範囲を第2データ範囲として推定する第2推定処理と、
    前記第1推定処理により推定された第1データ範囲に対応する時間範囲と、前記第2推定処理により推定された第2データ範囲に対応する時間範囲とに基づいて、前記画像の時系列データと前記加速度の時系列データとの間の時刻同期を行う同期処理と
    を実行させるデータ同期プログラム。
JP2020517744A 2018-05-11 2018-05-11 データ同期装置、データ同期方法およびデータ同期プログラム Active JP6771696B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/018376 WO2019215923A1 (ja) 2018-05-11 2018-05-11 データ同期装置、データ同期方法およびデータ同期プログラム

Publications (2)

Publication Number Publication Date
JPWO2019215923A1 JPWO2019215923A1 (ja) 2020-09-17
JP6771696B2 true JP6771696B2 (ja) 2020-10-21

Family

ID=68467899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020517744A Active JP6771696B2 (ja) 2018-05-11 2018-05-11 データ同期装置、データ同期方法およびデータ同期プログラム

Country Status (4)

Country Link
US (1) US11842502B2 (ja)
JP (1) JP6771696B2 (ja)
DE (1) DE112018007442B4 (ja)
WO (1) WO2019215923A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7416276B2 (ja) 2020-09-25 2024-01-17 日本電気株式会社 不安全運転検出装置、方法、及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3347087B2 (ja) 1999-02-03 2002-11-20 理化学研究所 2次元動画像からの3次元構造復元方法
JP4816302B2 (ja) * 2005-09-06 2011-11-16 ソニー株式会社 加速度センサのオフセット検出装置、加速度センサのオフセット検出方法及び加速度センサのオフセット検出プログラム並びにナビゲーション装置
JP2007101526A (ja) * 2005-09-06 2007-04-19 Sony Corp 速度検出装置、速度検出方法、速度検出プログラム、位置検出装置、位置検出方法及び位置検出プログラム並びにナビゲーション装置
JP4602277B2 (ja) * 2006-03-28 2010-12-22 本田技研工業株式会社 衝突判定装置
JP5328252B2 (ja) * 2008-07-30 2013-10-30 アルパイン株式会社 ナビゲーションシステムの位置検出装置および位置検出方法
JP5137981B2 (ja) 2010-02-01 2013-02-06 株式会社ビートソニック 車載用監視カメラ
JP5273213B2 (ja) * 2011-06-27 2013-08-28 株式会社デンソー 走行支援システム及び車両用無線通信装置
JP5771117B2 (ja) 2011-10-26 2015-08-26 日本放送協会 移動距離計測装置及び撮影カメラ
JP5743221B2 (ja) 2012-06-29 2015-07-01 カシオ計算機株式会社 無線同期システム、無線装置、センサ装置、無線同期方法、及びプログラム
TW201413675A (zh) * 2012-09-20 2014-04-01 Wistron Corp 停車導引方法及相關裝置
US9064385B2 (en) 2013-03-15 2015-06-23 Immersion Corporation Method and apparatus to generate haptic feedback from video content analysis
US9140555B1 (en) 2014-03-14 2015-09-22 Google Inc. Navigation using sensor fusion
JP6476423B2 (ja) * 2014-11-19 2019-03-06 株式会社ユピテル 記録装置及びプログラム
JP6476392B2 (ja) * 2015-01-30 2019-03-06 株式会社ユピテル システム及びプログラム

Also Published As

Publication number Publication date
WO2019215923A1 (ja) 2019-11-14
DE112018007442B4 (de) 2021-10-14
US11842502B2 (en) 2023-12-12
DE112018007442T5 (de) 2021-05-06
US20210056714A1 (en) 2021-02-25
JPWO2019215923A1 (ja) 2020-09-17

Similar Documents

Publication Publication Date Title
US10297033B2 (en) Information processing apparatus and method
JP4943034B2 (ja) ステレオ画像処理装置
US7599548B2 (en) Image processing apparatus and image processing method
US8611600B2 (en) Three-frame difference moving target acquisition system and method for target track identification
JP6188592B2 (ja) 物体検出装置、物体検出方法、および物体検出プログラム
JP2015505759A (ja) 車両の迫っている横転を検知するための方法
JPWO2017145541A1 (ja) 移動体
WO2017094140A1 (ja) 物体検出装置及び物体検出方法
JP6771696B2 (ja) データ同期装置、データ同期方法およびデータ同期プログラム
US20120323478A1 (en) Object Collision Warning System and Method for a Motor Vehicle
CN114600417B (zh) 同步装置、同步方法以及存储有同步程序的存储装置
JP2006031313A (ja) 障害物測定方法及び障害物測定装置
JP2010003253A (ja) 運動推定装置
US10706589B2 (en) Vision system for a motor vehicle and method of controlling a vision system
EP3009983A1 (en) Obstacle detection apparatus and method
KR101806453B1 (ko) 무인 비행체 충돌 회피를 위한 이동 객체 검출 장치 및 방법
CN111989541B (zh) 立体摄像机装置
JP6952914B2 (ja) 運動状態判定装置
CN110570680A (zh) 利用地图信息确定对象位置的方法和系统
JP2008003696A (ja) 画像処理装置及び画像処理方法
JP2020144758A (ja) 移動物体検出装置、移動物体検出方法およびコンピュータプログラム
EP3522520B1 (en) Image processing method, electronic device, and non-transitory computer readable storage medium
WO2021161655A1 (ja) 画像処理装置
US20230408261A1 (en) State estimation device and state estimation method
US20240070909A1 (en) Apparatus and method for distance estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200429

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200429

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200929

R150 Certificate of patent or registration of utility model

Ref document number: 6771696

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150