JP2008204304A - 車両挙動再現方法およびシステム - Google Patents

車両挙動再現方法およびシステム Download PDF

Info

Publication number
JP2008204304A
JP2008204304A JP2007041577A JP2007041577A JP2008204304A JP 2008204304 A JP2008204304 A JP 2008204304A JP 2007041577 A JP2007041577 A JP 2007041577A JP 2007041577 A JP2007041577 A JP 2007041577A JP 2008204304 A JP2008204304 A JP 2008204304A
Authority
JP
Japan
Prior art keywords
vehicle
information
behavior
time
vehicle behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007041577A
Other languages
English (en)
Other versions
JP4895857B2 (ja
Inventor
Norito Watanabe
範人 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007041577A priority Critical patent/JP4895857B2/ja
Publication of JP2008204304A publication Critical patent/JP2008204304A/ja
Application granted granted Critical
Publication of JP4895857B2 publication Critical patent/JP4895857B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】
車載端末により取得したセンサ情報と映像情報を利用して、詳細の車両挙動を推定、再生する。
【解決手段】
車両から収集記録した情報から車両の挙動を再現するシステムにおいて、車両の通過した時間,位置,姿勢の情報を少なくとも2時点以上に対し対話的に指示することで概略動作情報を定義するステップと、車両から収集記録した規定時間間隔毎の車両挙動情報を参照し、該概略動作情報を拘束条件として、拘束条件との差分が最小になるように、該車両挙動情報を補正することで該概略動作を設定した以外の時点における車両の絶対的な位置,姿勢を演算する挙動推定を行うステップとを持つ。
【選択図】図1

Description

本発明は、車両に搭載した装置により取得したデータにより、車両の挙動を再現し、客観的な評価を行う技術に関する。
第1の従来例として、車両にGPSセンサを設置し、車両の動態管理を行うドライブレコーダとして特開2006−151006号公報がある。これは、加速度センサを利用し、事故時に発生する衝撃をトリガにその事象の前後数十秒の状況を記録するものである。記録するデータは、加速度センサにより取得したデータ,車載カメラにより取得した映像などである。これにより、事故前後の車両の挙動と周囲環境の記録と同期して記憶し、事故検証の際にどういった事象が発生したかを映像とデータで確認することができる。
第2の従来例として、加速度センサや角速度センサを複数設置することで詳細な挙動解析を行う事例がある。この事例として、特開平9−52569号公報がある。これは、感度の異なるセンサを多重化し、センサ間のデータの関連性からデータを補正し、詳細な挙動解析を行うものである。
第3の従来例として、CG(Computer Graphics) で利用されるキーフレームアニメーションがある。これは、物体の位置・姿勢を特徴的なフレーム(時間)のみ定義することで、途中の時間の位置・姿勢を定義されたフレーム(キーフレーム)で設定された値を利用し、線形や多項式で補間するものである。
特開2006−151006号公報 特開平9−52569号公報 特開平10−172009号公報
従来のドライブレコーダーでは、事故時の状況を映像上で確認することができるが、自車の動きが他車からどのように見えたのかなどの客観的な視点での評価ができないという問題がある。
更に、センサによる車両情報を利用する際の課題として、GPSセンサでは位置を取得することができるが誤差が大きく、サンプリング周期が1秒程度と粗いため、急ブレーキをかけたなどの細かい挙動を再現することが難しい。また、車両の挙動を細かく計測するために、加速度センサを利用する場合、加速度センサ自体の精度や、取り付け状態により絶対的に正しい加速度値が得られるとは限らず、単純に加速度センサの値を積分しても、誤差が累積してしまうという問題がある。
そこで第2の従来例のように、センサを多重化することでデータの精度を向上させることにより、正確な運動計測による挙動解析は可能となるが、精度の異なるセンサを多重化して持つ必要がある。また、車両の挙動を解析する場合、加速度データだけでは、並進方向の運動しか取得できず、回転方向の運動が推定できないために角速度センサを利用する必要がある。このため、種類の異なるセンサを複数設置する必要もあり、コストがかかるという問題がある。
また、車両の動作を可視化する際に、車両の動作を定義するために、第3の従来例のように車両から収集した車両の挙動情報に基づいたキーフレームを用いる場合、キーフレーム間の映像を補間するための補間式では、キーフレームの位置・姿勢情報を、線形または多項式であらわすことになる。このため、複雑な車両挙動を定義しようとすると、細かくキーフレームを定義しなくてはならず、多大な作業が必要となってしまう。
本発明は、以上のような高精度のセンサの利用や、詳細な動作設定を行うことなく、車両から取得した車両情報から、詳細な車両の挙動を推定することを目的とするものである。
本発明は、上記課題を解決するために、下記の手段により構成するものである。
車両の通過した時間,位置,姿勢の情報を少なくとも二時点以上に対し対話的に指示することで概略動作情報を定義するステップと、車両から収集記録した規定時間間隔毎の車両挙動情報を参照し、該概略動作情報を拘束条件として、拘束条件との差分が最小になるように、該車両挙動情報を補正することで該概略動作を設定した以外の時点における車両の絶対的な位置,姿勢を演算する挙動推定を行うステップとを持つ。
ここで、車両挙動情報は、車両の進行方向,左右方向,上下方向についての加速度値の時系列データであり、補正処理は、各加速度データの0値補正およびスケール値の変更を行い、補正後の値を利用して車両の絶対位置,姿勢を積分により求める。
これにより、加速度センサのデータだけでは、単純に積分すると誤差の累積により位置がずれてしまうという問題と、回転成分を求めることができないという問題を、拘束条件に適応させることで回避することが可能となる。
また、該概略動作設定ステップでは、該車両情報と同時に取得した車載GPSセンサによる測位値の時系列データを概略動作情報とする。
また、さらに、該概略動作設定ステップでは、取得した場所の近辺の地図情報を入力とし、地図の位置に合わせて、指定時間に車両が実際に通過した位置および姿勢の情報を地図上で対話的に定義することで、概略動作情報とする。
また、さらに、該概略動作設定ステップでは、該車両情報と同時に取得した車載カメラによる時系列の映像情報を入力し、概略の位置,姿勢を定義する時刻の映像情報を表示し、さらに、上記地図情報を、車載カメラからの撮影条件を参照して車載カメラにより撮影した際に見えるであろう位置に3次元座標変換することで重畳し、対話処理により、該2つの重畳表示が重なるように車両の位置,姿勢を調整させる。
さらに、挙動推定ステップでは、フレーム毎に推定した位置および姿勢の変化量から、想定される映像の移動量と、実際に取得した映像の移動量を演算するステップと、両移動量の差分を求め、差分が最小になるように車両の姿勢成分の変化量を補正するステップを設ける。
さらに、概略動作設定ステップの中に、自車両以外の対象物の形状データを入力とし、上記地図情報または映像情報上に、定義時間毎に該対象物が存在した位置と姿勢を対話的に定義し、オブジェクト概略動作情報を作成するステップがあり、該オブジェクト概略動作情報を利用し、該オブジェクトに関して定義されていない時間の存在位置,姿勢を演算し、動作補間結果として格納する動作補間処理ステップがある。
さらに、生成された自車の挙動推定結果と、自車以外の対象物の動作補間結果および、地図データ,対象物のオブジェクト形状データを入力とし、事象の動画情報を生成する挙動再生処理を持つ。
また、複数の事象を管理し、該地図上に発生場所の表示をアイコンにより示し、さらに該アイコンを指示することで、事象を複数の視点による動画として表示する手段を設ける。
これにより、GPS測位の絶対位置からのズレ補正を行うことが可能となり、より正確な挙動を再現することが可能となる。また、GPSデータがない場合でも、車両の通過した場所が複数特定できれば、挙動推定を行うことが可能となる。
また、映像を取得した位置、つまり、車両の通過した位置および姿勢を正確に設定することが可能となり、加速度センサだけでは取得できない回転成分のさらに正確な補正を行うことができる。
そして、車両から取得した精度の低い加速度センサ情報に対して、映像および地図を利用した位置・姿勢の拘束条件を設定することで、並進,旋回を考慮した詳細な挙動を推定することができる。
本発明の一実施例を、図を参考に説明する。
図1は、本発明を用いた第1の実施例における構成を示す図である。
パソコンなどの処理装置101には、対話を行うためのキーボードやマウスなどの入力装置103と、表示装置102が接続されている。本実施例1は、処理装置101内で動作するシステムおよび方法および、このシステムを動作させるプログラムが保存された記憶媒体に関する。処理装置101の入力としては、車両挙動情報121,GPS測位情報122,地図情報131などがある。
図2は、車に搭載する装置の構成例を示したものである。車両201に対して、車両の前方を撮影するカメラ211,衝撃を取得する加速度センサ212,GPSセンサ213を入力装置として動作する挙動記録処理214がある。挙動記録処理214は、カメラ
211,加速度センサ212,GPSセンサ213からの情報を一定時間分常にメモリに書き込み続ける。それぞれの格納先が、図2における映像情報123,車両挙動情報121,GPS測位情報122である。そして、加速度センサ212からのデータにより一定量の衝撃を検知すると、書き込み済のデータと、その後の一定時間分のデータをフラッシュメモリなどの不揮発メモリに格納する。これら情報を、メモリーカードや通信媒体を利用してパソコンで動作する処理装置101に転送する。
車両挙動情報121の具体的な内容の一例を図3に示す。図3に示すように、車両挙動情報121は車両挙動情報テーブル301で構成されており、その内容は、加速度センサ212のサンプリング間隔(フレーム)毎の、進行方向加速度,横方向加速度,上下方向加速度の時系列データである。加速度センサ212はその精度や、センサの取り付け傾きの関係から、0値やスケールが個体毎にばらつく。車両挙動情報テーブル301には、カメラ211,加速度センサ212,GPSセンサ213から取得した生のデータが格納される。本実施例では、加速度センサ212,GPSセンサ213からのデータ取得間隔は、映像の取得間隔と一緒とし、フレーム(例えば1/30秒)でカウントすることにした。
GPS測位情報122の具体的な内容の一例を図4に示す。GPS測位情報122は図4に示すように、GPS測位情報テーブル401により構成されており、GPS測位情報テーブル401の内容は、GPSセンサ213のサンプリング間隔毎の緯度,経度値と方位情報の時系列データである。なお、GPSセンサ213の通常サンプリング間隔は1秒程度であり、取得時間(取得フレーム)は1フレーム毎ではなく飛び飛びの値となっている。
映像情報123の具体的な内容の一例を図11に示す。映像情報123は図11に示すように、映像情報テーブル1101と、取得した画像データ1102からなる。映像情報テーブル1101の内容は、取得時間と対応する画像データを示すポインタからなる。なお、時間間隔が一定の場合や、画像サイズが既知の場合は、画像データを配列の形式でシーケンシャルにメモリに展開しても良い。また、画像データは静止画に限らず、動画の格納方式であるモーションJPEGやMPEGなどのフォーマットを使って格納しても良い。
カメラ211,加速度センサ212,GPSセンサ213などから取得した情報を利用して、車両の挙動推定を行う処理に関して以下説明する。
まず、概略動作設定処理111に関して説明する。この処理は、挙動推定処理112で利用する拘束条件を概略動作情報141として作成するものである。概略動作設定処理
111の対話画面501の例を図5に示す。対話画面501に表示された対象をカーソル502で操作することにより、データの定義,編集を指示する。対話画面501には、地図表示503がある。地図上には車両の位置を示す車両アイコン504が表示される。この車両アイコン504の変更処理は、カーソル502により編集モードアイコン505の対応するモードを選択することにより行い、カーソル502によってを平行移動,回転することで地図上の任意の位置に車両アイコン504の配置を変更し、地図表示上での車両アイコン504の座標と向きから車両の緯度経度及び方位を求める。
車両の動きを設定するためには、車両の位置や向きだけでなくこれに対応する時間を指定する必要がある。これを行うのが時間スケール506である。時間スケール506には、現在表示されている地図表示503に対応した時刻を示す表示時刻アイコン507がある。この表示時刻アイコン507をカーソル502により移動することで、地図表示503における表示の時刻を変更することが可能である。また、再生制御ボタン509をカーソル502で選択することにより、再生,停止,コマ送りなどを行うことができる。位置決めフレームアイコン508は、拘束条件として地図表示503上で指定する車両の位置,姿勢を対応付ける時刻にマークとして示されるものである。任意の時間,位置に表示時刻アイコン507を移動し、その後、車両アイコン504の位置や姿勢を地図表示503上で編集することで、表示時刻アイコン507が置かれた位置に対応する時刻に位置決めフレームアイコン508が設定されることになる。操作ボタン540は、概略動作を設定した後、車両の挙動推定処理の実行を指示するためのボタンと、挙動の推定結果をファイルなどに出力するためのボタンを示している。
図5では、車両の概略位置をすべて対話処理で設定する場合を示している。しかし、
GPSセンサ213によるGPS測位情報122がある場合には、この情報を利用して拘束条件を設定することができる。GPS測位情報122内の情報を読み込んだ場合の画面表示例を図6に示す。図6ではGPS測位情報122から読み込まれたGPSセンサ213による測位結果の1つに対応する位置を、薄く表示した点601で示している。図4に示したGPS測位情報テーブル401の各レコードについて、記録されている緯度経度に対応する地図上の位置に点をプロットし、プロットされたこれらの点に対応するGPS測位情報テーブル401の各レコードの値を仮の拘束条件として時間順に結んだ線は、仮の移動経路602を表すことになる。この仮の移動経路の情報を用いて、挙動推定処理112により実際の移動経路を推定する。推定処理の詳細は後述する。また、ここではGPSセンサ213で取得したデータのサンプリング間隔で拘束条件を設定したことになるので、位置決めフレームアイコンは605に示すようにGPS測位情報122をサンプリングした間隔毎に設定されている。
GPSセンサ213はその特性から、測位結果と実際の位置とでは数メートルの誤差が起きる可能性がある。つまり、単純にGPS測位情報テーブル401から読み込んだデータを地図に重ねると、仮の移動経路602が示すように道路からはみ出した移動経路を描いてしまうことがある。この場合、誤差を解消するためには、経路全体を相対的に平行移動すればよい。移動経路の移動編集処理は、概略動作設定処理111が図6に示す対話画面501を使用して行う。ユーザは、カーソル502を利用し、編集モードアイコン505の中から平行移動の操作を指示するアイコンを選択して平行移動モードにする。その後、カーソル502により仮の移動経路602を選択し、移動経路に対応する図形を地図表示上の所望の位置に移動する。概略動作設定処理111は、地図表示上で指示された移動量を地図座標系での移動量に換算し、移動経路の描画に用いたGPS測位情報テーブル401の各レコードに記録されているGPS測位情報122の緯度,経度の値に対し、この換算した移動量を加え、概略動作情報141に格納する。以上の結果、GPSセンサ213の測位誤差を解消するように緯度経度の値を変更した後の、各サンプリング時間における位置603とこれらを時間順に結んだ仮の移動経路604が表示される。
このようにして定義した概略動作情報141の一例を図7に示す。概略動作情報141は、概略動作情報テーブル701で構成され、概略動作情報テーブル701の各レコードには、位置決めフレームアイコンの設定が行われた時間(フレーム)と、その時間における車両の通過位置を示す緯度,経度及び車両の姿勢を示す方位の時系列データが格納される。
次に、概略動作情報141と、車両挙動情報121を入力とし、車両の挙動推定結果
142を求める挙動推定処理112の内容について説明する。
概略動作設定処理111により、概略動作情報141には、図12のA,B,Cに示すような時間毎の車両の位置と姿勢のデータが設定されているものとする。このときの概略動作情報141には、図13に示す概略動作情報テーブル1301のように、A,B,Cに対応するデータが格納されている。ここでは、10秒(300フレーム)毎に車両の位置と姿勢が設定されている例を示している。以下、これら車両の位置と姿勢が設定されているフレームを拘束フレームと呼び、拘束フレームに対して設定されている車両の位置と姿勢及び時間のデータを拘束条件と呼ぶ。
車両挙動情報121には、車両挙動情報テーブルの形で図3に示すような、進行方向加速度,横方向加速度,上下方向加速度のそれぞれの値が格納されているものとする。なお、平面上の動作を推定する場合には、上下方向加速度は不要である。また、回転成分をジャイロセンサなどにより取得できるのであれば、車両の挙動推定のための計算条件として利用することもできる。また、車速も同様に挙動推定のためのデータとして取得できるのならば利用することができる。
ここでは、説明を簡略化するため、進行方向加速度と、横方向加速度を利用して説明をする。上下方向の加速度も同様の処理を行うことで推定することができる。
車両の挙動推定において推定を行うパラメータは、車両の初速,加速度センサの0値オフセット値,加速度センサのスケール値である。通常、加速度センサはサンプリングレートは高いが、センサの取り付けの傾きや精度の関係から、出力値の0.0 は必ずしも絶対値0.0G(1.0Gは約9.8m/s2)の加速度とは限らない。また、1.0が1.0Gを示すわけでもない。つまり、センサからの値をそのまま積分し、速度,位置に変換しても誤差が蓄積し、実際のデータとは乖離してしまう。例えば、図14に示すように、進行方向加速度1401,横方向加速度1402が得られているとき、真のゼロ値1411とは外れた1412や1413をゼロ値としてしまうと、それぞれ、速度が1422,1423のように真のゼロ値1411から求めた速度1421とずれてしまい、また位置は1433,1432のようになり、真の拘束条件データに基づく位置1431とずれてしまう。そこで、挙動推定処理112では、この0値とオフセット値を求めることで、途中の真の速度1421と位置1431を求める。
データから真値を推定する推定処理には、さまざまの手法が考えられる。主な手法として、焼きなまし法(Simulated Annealing,SA)や遺伝的アルゴリズム(Genetic
Algorithms,GA)などがある。これら手法を利用した処理ステップの概要を図15に示す。
まずステップ1501で推定パラメータを初期化する。通常、初速は拘束フレーム間を等速で通過したと仮定した値を初期値とする。車速センサ値が使えるのならば、その値を初期値とする。またここでは0値オフセットを0.0、スケール値を1.0とする。そしてステップ1502以下を挙動推定で車両の速度,姿勢,位置を求める全フレームに対して繰り返す。ステップ1503では、現在の推定パラメータを用いて、フレーム毎に車両の速度,姿勢,位置を加速度を積分することにより求める。ここで、車両は常に進行方向を向いて進むという前程で姿勢を求めることにする。計算の概要を図19に示す。現在速度Vn1911(以下、nはフレーム番号とする)、現在位置Pn1901に対し、次フレーム速度Vn+11912と次フレーム位置Pn+11902を以下の式で求める。
n+1=Vn+An*Δt
n+1=Pn+Vn*Δt
ここでΔtは、フレーム間の時間間隔である。
速度変化分An1921は進行方向加速度Axnと横方向加速度Ayn で表される加速度ベクトルを示し、それぞれ以下の式で求める。
Axn=(axn−axzero)*axscale
Ayn=(ayn−ayzero)*ayscale
ここで、axzero,ayzeroは、それぞれ進行方向加速度の0値オフセットと横方向加速度の0値オフセットを示す。また、axscale,ayscaleは、それぞれ進行方向加速度のスケール値と横方向加速度のスケール値を示している。
以上の位置と姿勢(進行方向)の演算を、順次各フレームに対して繰り返す。ステップ1504で演算したフレームが拘束フレームの場合、ステップ1505で拘束条件の位置と姿勢のデータと、演算された位置と姿勢のデータとの差分を二乗和などにより計算し、各拘束フレームにおける差分を累積してゆく。
以上の処理を全フレームに適応した結果、ステップ1506で拘束フレームにおける差分累積値が一定以下の場合、推定パラメータの値が求まったとして終了する。また差分累積値が規定値以上の場合、ステップ1507で推定パラメータである初速,加速度の0値オフセット,スケール値を修正して、ステップ1502に戻り、再度積分演算処理を行う。この0値オフセット,スケール値の修正に焼きなまし法や遺伝的アルゴリズムを適用する。
求まった推定パラメータの値を利用して全フレームにおける車両の挙動(位置,姿勢)データを演算した結果は、操作ボタン510の結果出力による指示により、挙動推定結果142として出力される。図16が挙動推定結果142の出力例である。この例では、挙動推定結果142を、各フレームの位置情報(緯度,経度)と姿勢(方位)が時系列に並んだ挙動推定結果テーブル1601として出力されている。
以上により、車載端末により誤差を含んだ加速度情報を利用し、簡単な操作により拘束条件を設定するだけで、正確な車両の挙動を推定することが可能となる。
次に、第2の実施例について説明する。
この第2の実施例では、第1の実施例と比べ、概略動作設定処理811においてカメラ211で撮影した映像情報を利用する点が異なる。第2の実施例の構成例を図8に示す。図1の構成例に対し、概略動作設定処理811への入力として、映像情報123とカメラ211の撮影条件を格納した撮影条件情報132が追加されている。ここで、映像情報
123は挙動記録処理214により車両挙動情報121と並行して取得したものである。映像情報123の内容は、先に説明したのでここでは省略する。
撮影条件情報132の内容の一例を図10に示す。撮影条件情報132は、撮影条件情報テーブル1001からなり、その内容は、車両201に取り付けたカメラ211の地上からの高さを示す基準高さデータ,カメラ211の水平面に対する傾きを示す基準ピッチ角と基準ロール角データ、また、撮影される映像の水平方向画角と鉛直方向画角が保持される。また、レンズの光学的な歪補正を示すデータを持ったほうがより正確な推定を行うことができる。
第2の実施例における概略動作設定処理811の対話画面900を図9に示す。図9に示すように、図5に示した第1の実施例における対話画面501の例に対し、カメラ211で取得した映像を表示する映像表示エリア901が追加される。このエリアには、取得した映像903だけでなく、カメラ211が撮影条件情報132の下で撮影したときに見えるであろう道路境界などの形状を3次元表示地図902として、カメラ211で取得した映像と重畳表示することができる。カメラ211が撮影条件情報132の下で撮影したときに見えるであろう道路境界などの形状は、映像903のフレームに該当する車両位置に基づき、地図情報131から道路の形状データを読み出して、これを3次元座標変換することにより求める。地図情報131は2次元のデータであるため、3次元変換処理では、撮影条件情報132と、現在のフレームの位置,姿勢情報を利用することで3次元表示地図902を求めることが可能である。
図9に示すように、映像903と3次元表示地図902は、カメラの撮影位置,姿勢のデータが正しければ一致するはずである。これらがずれているということは、カメラの撮影位置,姿勢のデータが映像903を取得した際の真値とは違うということを示している。これを利用し、第1の実施例で説明したようにカーソル502などを利用し、車両アイコン504を移動回転させることで調整する。車両アイコン504の表示位置及び方向を変更させることによって、第1の実施例と同様、表示時刻アイコンに対応した時刻における車両の緯度経度及び方位が変更され、これに伴い、地図情報131から読み出した道路の形状データに対して3次元変換処理を行い、映像903に重畳表示する。これにより、映像903と3次元表示地図902を一致させて、正確な位置決めを行うことが可能となる。
位置姿勢の推定方法の別案として、以下の方式を取ることも可能である。まず、取得映像に対して輝度の大きく変わる点をエッジ抽出により求める。これにより、道路境界などの線状の特徴量を抽出する。これに対し、3次元化した地図の対応する特徴量が最も近づくように位置姿勢を推定する。これにより、位置姿勢の自動設定が可能となる。ただし、この場合、初期値は真値の近いところからはじめる必要がある。このため、GPSセンサ213での測位データを利用する場合などで有効である。また、手作業で、真値に近いところまで設定し、後は自動的に最適値を推定するといった操作にすることも可能である。
本実施例により、取得した映像を利用することで、正確な位置姿勢情報を概略動作情報として定義することが可能となる。
本発明の第3の実施例に関して以下説明する。
第3の実施例の構成例を図17に示す。本発明では、第2の実施例に対し、挙動推定処理1700において撮影した映像を利用して挙動をさらに詳細に推定するものである。概略動作情報141を作成する処理までは、第2の実施例と同じである。また、推定された結果が出力される挙動推定結果142も、第2の実施例と同じである。
第3の実施例における挙動推定処理1700は、第2の実施例で示した挙動推定処理
112と同じ処理を行う推定処理1701と、この処理結果のデータである推定結果1711、推定結果1711のデータと撮影条件情報132を使用して撮影された映像がどのように移動するかを推定する移動映像推定処理1702、この推定された結果の移動推定データ1712、また、取得した映像情報123から映像の動きを抽出する移動情報抽出処理1703と、その抽出結果である移動抽出データ1713、および、移動推定データ1712と移動抽出データ1713のデータから推定結果1711を補正する補正処理1703からなる。
推定結果1711のデータの内容は、挙動推定結果142と同様である。つまり、推定処理と補正処理により収束した計算結果の推定結果1711の内容を、挙動推定結果142として出力することになる。
以上の構成の中で、第3の挙動推定処理1700の詳細処理を説明する。
まず、移動映像推定処理1702は、次のようにして移動推定データ1712を作成する。まず、移動映像推定処理1702は、撮影条件情報132と、推定結果1711を参照する。これにより、仮想的な地面のモデルが仮想的なカメラの動きによりどのように移動するかを把握できる。この時、図18(A)の映像例1801に示すように、画面に格子状にサンプリングした点1811を仮想的な地面1821上に3次元座標変換し、この3次元上の点が、推定結果1711による仮想的なカメラの移動によりそれぞれどのように画面上移動するかオプティカルフローを推定する。推定したオプティカルフローを移動ベクトルとして表示したものが1812である。
一方、車載カメラから取得した映像情報123のデータを参照し、移動情報抽出処理
1703は、図18(B)の映像例1802に示すように、同じく画面上にサンプリングした点1831がフレーム間でどのように移動したかを求める。この方法は画像処理としてオプティカルフローと呼ばれる方法で求めることができる。基本的な処理は、各格子点の小ウインドウ領域が次のフレームでどこに移動したかを探索するものである。この映像から抽出された移動ベクトルによりオプティカルフローを示したものが1832である。
推定処理1701による車両の挙動推定が正しければ、各格子点で推定したオプティカルフローの移動ベクトルと映像から抽出したオプティカルフローの移動ベクトルは同じ傾向で取得されるはずである。両者がずれているということは、車両の挙動を正確に求める為には車両挙動情報121で取得できなかった情報が必要であったためである。特に、車両挙動情報121が、移動加速度データだけの場合、回転成分が取得できないため、車両の位置や方位の推定結果に誤差が起きる。第2の実施例までは、車両は進行方向に必ず向いているという前程で推定を行っていたため、進行方向と車両の向きがずれた場合などにこの誤差が起きる。第3の実施例は、これを補正しようとするものである。
具体的には、カメラの横平行移動と、回転を分離することができれば良い。カメラの横平行移動では、遠景と近景で画像の移動量が異なる。近景では大きく動くのに対して、遠景の点はほとんど移動しない。一方、回転では遠景,近景とも同じ移動量になる。この原理を利用し、補正処理1703では、映像から抽出した移動データ1713に対して、カメラの移動に伴う推定データ1712が一致するよう推定結果1711のデータに対して、回転成分を平行移動成分に補正する。図19でこの処理の概略を説明する。推定結果として次フレームの速度Vn+11912 が求まったとする。これに対し、補正処理1703により方向の補正1903を行うことで、補正速度1913が求まる。
回転成分から平行移動成分への補正量は、補正処理1703による以下の処理によって求めることができる。補正処理1703では、移動推定データ1712と移動抽出データ1713を参照し、フレーム毎に各格子点について移動推定データ1712と移動抽出データ1713とにおける移動ベクトルの差分を求める。この差分が一定量以下ならばそのフレームについては補正処理1703を行わない。また差分が一定量以上ならば、推定結果1711の次フレームにおける位置Pn+11902の周りに次フレームにおける速度
n+11912 を回転させ、移動ベクトルの差分が最小になるようにする。最小になった時の速度を補正速度1913とし、推定結果1711に格納する。
なお、移動抽出データ1713は映像からオプティカルフローにより求めるため、車両前方に他の車両や障害物がある場合は、正しく求まらない場合がある。その場合は、障害物のエリアを除いた領域の格子点で評価を行う。なお、この障害物のエリアを除く処理は、後述する第4の実施例で自車以外の対象の動作を設定することで可能となる。具体的には、自車以外の定義された対象物の3次元形状を、撮影条件に従い2次元映像上に投影することで障害物が表示されるであろうエリアを特定できる。
以上の処理は、挙動推定処理112内の処理で行われる。挙動推定処理112内の処理フローを図20に示す。処理としては第2の実施例までの処理フローと、ステップ2004,2005の処理を除き同じ処理である。ステップ1501では、推定パラメータを初期化する。ステップ1502では、全フレームに関して以下の処理を繰り返す。ステップ1503では、加速度データから速度,位置を積分し、推定値を求める。次に、ステップ2004において、移動映像推定処理1702,移動情報抽出処理1703を利用し、推定結果から映像移動分の推定と、取得した映像から移動分を抽出する。ステップ2005において、補正処理1703により、推定と抽出の映像移動分の差分を解消するように推定値の方向成分を補正する。
次に、ステップ1504は、現在処理しているフレームが、拘束フレームかどうかを判断し、拘束フレームならば、ステップ1505により拘束条件と推定値の差分を計算する。
以上の処理を全フレームに対し繰り返したならば、ステップ1506により、拘束フレームの差分二乗和が一定値以下かどうか判断する。一定値以下でなければ、ステップ1507により、推定パラメータを修正する。拘束フレームの差分二乗和が一定値以下になれば処理を終了し、推定結果1711の挙動データを挙動推定結果142として出力する。
以上の処理により、加速度センサ212からのデータだけでは補足できない回転成分を補正することが可能となり、より正確な挙動推定ができる。
次に第4の実施例を図21に示す。
第3の実施例では、データを取得した車両の挙動推定だけを対象に説明した。第4の実施例では、周りに存在する物体も含めて動きを推定する点が追加される。
第2の実施例に対し、概略動作設定処理2111の入力として、オブジェクト形状133を入力として追加している。オブジェクト形状とは、車の形状や人の形状など自車以外のオブジェクトを示すものである。2次元で挙動を表す場合は、2次元のアイコンであり、3次元で挙動を表す場合は、3次元空間上の形状データとなる。なお、形状データは詳細な形でも良いが、単純化したモデルでもよい。たとえば、車ならば直方体で代用、人ならば円柱で代用することも可能である。また、平面に人や車の画像をテクスチャマップしたもので代用することも可能である。具体的なデータの持ち方は一般的な図形描画処理で利用される方法を利用してよい。
概略動作設定処理2111の対話画面2200の例を図22に示す。この対話画面2200では、挙動推定を行う他の対象物を選択するオブジェクトテンプレートアイコン2201が追加されている。カーソル502を利用し、表示したい対象のアイコンをこのオブジェクトテンプレートアイコン2201の中から選択すると、そのアイコンに対応したオブジェクトを地図表示エリア503及び映像表示エリア901上に追加する追加モードになる。その状態で、地図表示エリア503または、映像表示エリア901をカーソルで指示することで、その指示した位置に選択したオブジェクトのアイコン2203または、オブジェクトのモデル2202が表示される。図22の例では、トラックを選択し配置している様子を示している。
オブジェクトの配置は、第2の実施例で示した例と同様に、車載カメラで取得した映像情報123に対して対象オブジェクトを重畳することで位置決めを簡易化することも可能である。図22では、映像に写っているトラックの画像2211に対して、仮想的なトラックのモデル(ここでは簡易化のために直方体の外接矩形で表示)を位置決めしている様子を示している。また、挙動推定を行うオブジェクトの配置を直接映像表示エリア901上にカーソル502で指示することで位置を決定することも可能である。車両など対象物は、地表面から離れることはないので、カーソル502の示す地表上の位置を定義位置として定義することができる。位置決めは、代表的な時間に時間を移動し、それぞれで位置決めをする。これを複数の時点で繰り返す。図22では、位置決めフレームアイコン508の数が3つであることから、3つの時点の位置決めをしていることが示されている。
概略動作設定処理2111では、上記の対話処理により、動作を生成しようとする必要なオブジェクト分だけ設定処理を繰り返す。これにより車両の拘束フレームを設定する処理と同様にして、オブジェクト概略動作情報143を生成する。次に、動作補間処理113では、オブジェクト毎に設定された位置姿勢を時間により補間することで、途中の動作を生成する。その結果を動作補間結果144として格納する。なお、動作補間処理113の具体的な処理は、一般にアニメーション生成などで利用されるキーフレーム法を利用することが可能である。また、このときの補間方法は、拘束条件間を線形やスプライン補間などを利用し計算することができる。ここで、オブジェクト概略動作情報143および、動作補間結果144のデータ内容は、それぞれ概略動作情報141,挙動推定結果142と同じフォーマットであり、各オブジェクトについてフレーム単位の時系列データを保持することになる。
配置できるオブジェクトは、移動するものだけでなく、街路樹や看板,電柱,壁といった固定物も配置可能である。また、信号機など状態の変化するものも配置することも可能である。この時、取得した映像情報123から信号の変化時刻を取得し、動作として設定することも可能である。
また、道路や町並みに関しては、2次元の地図情報を地上面に座標変換することで、概略の位置を把握させるように表示することも可能である。
この実施例により、自車だけでなく他の車や通行人との事象の関連性を可視化できるようになる。また、障害物や信号タイミングなど道路環境の情報を評価することが可能となる。
次に、このようにして推定した車両の挙動を再生する環境について説明する。
図23が再生処理の構成である。第4の実施例で示した処理により得られた挙動推定結果142及び動作補間結果144と、地図情報131,オブジェクト形状133とを入力とし、入力装置2312の指示に従い、挙動再生処理2301は表示装置2311に表示を行う。
挙動再生処理2301は、車や人などのオブジェクト形状データを2次元または3次元空間上で、推定された動作データである挙動推定結果142,動作補間結果144のデータを適用することでアニメーション表示する。なお、入力装置2312は、表示の拡大,回転,視点変換を指示するものである。この挙動再生処理2301自体は、一般的なアニメーション表示処理を利用することで可能となる。3次元での表示の代表的なものとしてVRML(Virtual Reality Modeling Language)ビューアなどがある。
この挙動再生処理2301による車両及びオブジェクトの挙動の表示例を図24,図
25に示す。
図24(A)では、車両の挙動を2次元表示のアニメーションで表した例である。画面2401に表示エリア2411と再生コントロールボタン2412がある。表示エリア
2411に地図2423と、走行する自車車両2421と対象オブジェクトである相手車両2422が表示されている。一方、図24(B)では表示エリアに3次元の映像が表示されている。ここでは環境のモデル(町並み,道路,信号機など)と自車両2441、及び相手車両2442が表示されている。ここでは取得した映像から信号機の変更タイミングを決定し、変化させることもできる。なお、町並みや道路は、2次元地図情報を地表面に3次元変換し簡易表示することもできる。表示切り替え2432は現在の視点を切り替えるためのものであり、図24(B)では車両位置とは独立な仮想的な視点からの表示である。このほかに、自車の運転席位置,相手者の運転席位置,車の後方視点,歩行車の視点などを切り替えることが可能である。
図25で示す例は、複数の視点を同時に表示したものである。表示画面2501に対して、複数視点のアニメーションを同時にコントロールする再生コントロールボタン2512と複数の表示エリア2521,2522がある。各表示エリアは表示切り替え2523,
2524により独立に視点を選択できるものとする。これにより、お互いの当事者でどのように見えていたのかを確認することができる。
以上のような挙動再生処理2301を用いることで、事故などの事象を挙動推定結果を用いることにより客観的な視点から評価することが可能となる。
個々の事象を図24,図25のような形態で表示するだけでなく、複数の挙動推定結果を管理,表示することも考えられる。この形態の一実施例の画面例を図26に示す。この実施例は、取得した挙動推定結果をデータベース化し、それぞれの発生場所を地図上にマッピングすることで、事故の多発地点などを可視化するものである。
画面2601に対して地図表示エリア2611および、事象リスト2612が表示されている。地図表示エリア2611には、事象に対応する発生場所を示すアイコン2613が表示されている。カーソル2602により、アイコン2613または、リスト2612の事象を選択することで事象の詳細を把握する。このとき、詳細情報は、先の実施例で示したような挙動再生処理2301を利用することで表示することができる。
この実施例により、事故が多発している場所を共有化できる効果がある。従来でも、地図上に事故発生地点をマッピングすることで情報を共有するシステムは存在している。本発明では、事故の詳細を表示するときに、車両の挙動推定結果に基づく仮想的な3次元モデルで表示することに特徴がある。従来では、取得した映像をそのまま表示するしかなかったが、この場合、撮影された対象に対するプライバシーの問題などある。このため、すべての映像が公開できないという問題がある。本発明では、モデルを仮想化するため、プライバシーの問題を回避し、かつ詳細に事象を分析することが可能となる。
第1の実施例の構成を示す図。 車載の挙動記録処理部の構成を示す図。 車両挙動情報テーブルの例。 GPS測位情報テーブルの例。 編集画面例。 編集画面例での軌跡移動処理例。 概略動作情報テーブルの例。 第2の実施例の構成を示す図。 映像付きの編集画面例。 撮影条件テーブルの例。 映像情報テーブルと画像データ格納例。 概略動作設定例。 概略動作情報テーブルの例。 挙動推定処理概要説明図。 挙動推定処理フロー。 挙動推定結果テーブル。 第3の実施例の構成を示す図。 移動映像推定処理説明図。 加速度積分説明図。 挙動推定処理フロー。 第4の実施例の構成を示す図。 第4の実施例における編集画面例。 挙動再生処理の構成例。 挙動再生処理の表示例。 挙動再生処理の表示例。 事象共有システムでの対話画面例。
符号の説明
101 処理装置
102 画面
103 入力装置
111 概略動作設定処理
112 挙動推定処理
113 動作補間処理
121 車両挙動情報
122 GPS測位情報
123 映像情報
131 地図情報
132 撮影条件情報
133 オブジェクト形状
141 概略動作情報
142 挙動推定結果
143 オブジェクト概略動作情報
144 動作補間結果
201 車両
211 カメラ
212 加速度センサ
213 GPSセンサ
214 挙動記録処理
501 対話画面
502 カーソル
503 地図表示エリア
504 車両アイコン
505 編集モードアイコン
506 時間スケール
507 表示時刻アイコン
509 再生制御ボタン
510 操作ボタン
901 映像表示エリア
2301 挙動再生処理

Claims (8)

  1. 車両から収集記録した情報から車両の挙動を再現する車両挙動再現方法において、
    少なくとも2時点以上について車両の通過した時間,位置,姿勢の情報を指示した概略動作情報を定義するステップと、
    車両から収集記録した規定時間間隔毎の車両挙動情報を参照し、前記該概略動作情報を拘束条件として、当該拘束条件との差分が最小になるように、前記車両挙動情報を補正して、前記概略動作情報を設定した時点以外の時点における車両の位置及び姿勢を演算する挙動推定を行うステップと
    を有することを特徴とする車両挙動再現方法。
  2. 請求項1の車両挙動再現方法において、
    前記車両挙動情報は、車両の進行方向,左右方向,上下方向についての加速度値の時系列データであり、
    前記挙動推定を行うステップにおける前記車両挙動情報の補正処理においては、前記加速度値の時系列データの0値補正およびスケール値の変更を行った後の値を利用して、車両の位置及び姿勢を積分により求める処理を行うこと
    を特徴とする車両挙動再現方法。
  3. 請求項1または請求項2の車両挙動再現方法において、
    前記概略動作情報を定義するステップにおいては、前記車両挙動情報と同時に取得したGPSセンサによる測位値の時系列データを概略動作情報とすること
    を特徴とする車両挙動再現方法。
  4. 請求項1または請求項2の車両挙動再現方法のいずれかにおいて、
    前記概略動作情報を定義するステップにおいては、前記車両挙動情報を取得した場所の近辺の地図情報を表示し、
    表示された地図の位置に合わせて、指定時間に車両が通過した位置および姿勢の情報を地図上で指定することにより、概略動作情報を定義すること
    を特徴とする車両挙動再現方法。
  5. 請求項4の車両挙動再現方法において、
    該概略動作情報を定義するステップでは、前記車両挙動情報と同時に取得した車載カメラによる時系列の映像情報を用いて、車両の概略位置及び姿勢を定義する時刻の映像情報を表示し、
    前記地図情報は、車載カメラからの撮影条件を用いて車載カメラを視点位置とした座標変換を行って前記映像情報に重畳表示し、
    前記映像情報に座標変換された前記地図情報が重なるように車両の位置及び姿勢を調整することにより車両の概略位置及び姿勢を定義すること
    を特徴とする車両挙動再現方法。
  6. 請求項5の車両挙動再現方法において、
    前記挙動推定を行うステップでは、前記映像情報のフレーム毎に推定した車両の位置および姿勢の変化量から推定される映像の移動量と、実際に取得した映像の移動量を演算するステップと、
    推定される映像の移動量と取得した映像の移動量の差分を求め、当該差分が最小になるように車両の姿勢の前記変化量を補正するステップをさらに設けたこと
    を特徴とする車両挙動再現方法。
  7. 車両から収集記録した情報から車両の挙動を再現する車両挙動再現システムにおいて、
    少なくとも2時点以上について車両の通過した時間,位置,姿勢の情報を指示した概略動作情報を定義する概略動作情報定義部と、
    前記定義された概略動作情報を記憶する第1の記憶手段と、
    車両から収集記録した規定時間間隔毎の車両挙動情報を記憶する第2の記憶手段と、
    前記車両挙動情報を参照し、前記該概略動作情報を拘束条件として、当該拘束条件との差分が最小になるように、前記車両挙動情報を補正し、前記概略動作情報を設定した時点以外の時点における車両の位置及び姿勢を演算する挙動推定を行う挙動推定処理部と
    を有することを特徴とする車両挙動再現システム。
  8. 請求項7の車両挙動再現システムにおいて、
    前記車両挙動情報は、車両の進行方向,左右方向,上下方向についての加速度値の時系列データであり、
    前記挙動推定処理部では、前記加速度値の時系列データの0値補正およびスケール値の変更を行った後の値を利用して、車両の位置及び姿勢を積分により求めること
    を特徴とする車両挙動再現方法システム。
JP2007041577A 2007-02-22 2007-02-22 車両挙動再現方法 Expired - Fee Related JP4895857B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007041577A JP4895857B2 (ja) 2007-02-22 2007-02-22 車両挙動再現方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007041577A JP4895857B2 (ja) 2007-02-22 2007-02-22 車両挙動再現方法

Publications (2)

Publication Number Publication Date
JP2008204304A true JP2008204304A (ja) 2008-09-04
JP4895857B2 JP4895857B2 (ja) 2012-03-14

Family

ID=39781727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007041577A Expired - Fee Related JP4895857B2 (ja) 2007-02-22 2007-02-22 車両挙動再現方法

Country Status (1)

Country Link
JP (1) JP4895857B2 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262483A (ja) * 2007-04-13 2008-10-30 Denso Corp 情報出力装置及びプログラム
KR101012220B1 (ko) 2008-12-24 2011-02-08 대덕위즈주식회사 차량운행 상태 정보기록 방법과 장치 및 이를 위한 기록매체
JP2011217116A (ja) * 2010-03-31 2011-10-27 Mitsui Sumitomo Insurance Co Ltd 再生装置、撮像再生システム、撮像再生方法、再生プログラム及び撮像プログラム
CN102693643A (zh) * 2011-03-24 2012-09-26 汽车零部件研究及发展中心有限公司 汽车动态监察器及汽车动态监察方法
JP2012207998A (ja) * 2011-03-29 2012-10-25 Fujitsu Ten Ltd 情報処理装置、情報処理方法、及び、プログラム
JP2013109417A (ja) * 2011-11-17 2013-06-06 Kayaba Ind Co Ltd ドライブレコーダ
JP2013130924A (ja) * 2011-12-20 2013-07-04 Luna Co Ltd 走行映像表示プログラム及び走行映像表示システム
JP2013143002A (ja) * 2012-01-11 2013-07-22 Luna Co Ltd 移動体の運行管理方法及び運行状況管理システム
JP2013152671A (ja) * 2012-01-26 2013-08-08 Kayaba Ind Co Ltd ドライブレコーダ
JP2018026143A (ja) * 2011-12-06 2018-02-15 モービルアイ ヴィジョン テクノロジーズ リミテッド 道路の垂直輪郭検出
JP2019079203A (ja) * 2017-10-23 2019-05-23 株式会社デンソーテン 画像生成装置および画像生成方法
JP2019169042A (ja) * 2018-03-26 2019-10-03 株式会社デンソーテン 視点切替装置及び視点切替方法
CN111247574A (zh) * 2017-10-25 2020-06-05 株式会社Ihi 信息生成装置
WO2020115896A1 (ja) * 2018-12-07 2020-06-11 三菱電機株式会社 情報処理装置および情報処理方法
US10685424B2 (en) 2010-09-21 2020-06-16 Mobileye Vision Technologies Ltd. Dense structure from motion
JP2020140457A (ja) * 2019-02-28 2020-09-03 トヨタ自動車株式会社 衝突判定サーバ、プログラム及び記録媒体
CN112116654A (zh) * 2019-06-20 2020-12-22 杭州海康威视数字技术股份有限公司 一种车辆位姿确定方法、装置及电子设备
JP2021099815A (ja) * 2019-04-02 2021-07-01 株式会社ユピテル 装置及びプログラム
JP7318504B2 (ja) 2019-11-26 2023-08-01 株式会社デンソー シーン分析支援装置、方法、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107545724B (zh) * 2017-07-05 2020-03-31 邹晓虎 一种公交车的动态调度方法、装置与系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0747970A (ja) * 1993-06-02 1995-02-21 Honda Motor Co Ltd 車輌操舵装置の制御装置及び運転技量推定装置
JPH07280575A (ja) * 1994-04-04 1995-10-27 Nissan Motor Co Ltd 車両用位置検出装置
JPH08235491A (ja) * 1995-02-27 1996-09-13 Toyota Motor Corp 車両の走行状態記録装置及び車両の走行状態解析装置
JPH09128039A (ja) * 1995-10-31 1997-05-16 Honda Motor Co Ltd 自動走行車の制御方法
JPH1063905A (ja) * 1996-08-19 1998-03-06 Data Tec:Kk ドライビングレコーダ、車両の運行解析装置及び記憶媒体
JPH1083499A (ja) * 1996-09-10 1998-03-31 Mazda Motor Corp 車両位置及び方向角検出装置
JP2002032375A (ja) * 2000-07-18 2002-01-31 Sharp Corp 情報処理装置
JP2003014477A (ja) * 2001-04-26 2003-01-15 Mitsubishi Electric Corp 映像ナビゲーション装置
JP2003178309A (ja) * 2001-10-03 2003-06-27 Toyota Central Res & Dev Lab Inc 移動量推定装置
JP2004145587A (ja) * 2002-10-24 2004-05-20 Matsushita Electric Ind Co Ltd 走行車両位置推定装置および方法
JP2005242684A (ja) * 2004-02-26 2005-09-08 Seiko Epson Corp 位置ずれ量推定処理装置、位置ずれ量推定方法、位置ずれ量推定プログラム、および位置ずれ量推定プログラムを記録した記録媒体

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0747970A (ja) * 1993-06-02 1995-02-21 Honda Motor Co Ltd 車輌操舵装置の制御装置及び運転技量推定装置
JPH07280575A (ja) * 1994-04-04 1995-10-27 Nissan Motor Co Ltd 車両用位置検出装置
JPH08235491A (ja) * 1995-02-27 1996-09-13 Toyota Motor Corp 車両の走行状態記録装置及び車両の走行状態解析装置
JPH09128039A (ja) * 1995-10-31 1997-05-16 Honda Motor Co Ltd 自動走行車の制御方法
JPH1063905A (ja) * 1996-08-19 1998-03-06 Data Tec:Kk ドライビングレコーダ、車両の運行解析装置及び記憶媒体
JPH1083499A (ja) * 1996-09-10 1998-03-31 Mazda Motor Corp 車両位置及び方向角検出装置
JP2002032375A (ja) * 2000-07-18 2002-01-31 Sharp Corp 情報処理装置
JP2003014477A (ja) * 2001-04-26 2003-01-15 Mitsubishi Electric Corp 映像ナビゲーション装置
JP2003178309A (ja) * 2001-10-03 2003-06-27 Toyota Central Res & Dev Lab Inc 移動量推定装置
JP2004145587A (ja) * 2002-10-24 2004-05-20 Matsushita Electric Ind Co Ltd 走行車両位置推定装置および方法
JP2005242684A (ja) * 2004-02-26 2005-09-08 Seiko Epson Corp 位置ずれ量推定処理装置、位置ずれ量推定方法、位置ずれ量推定プログラム、および位置ずれ量推定プログラムを記録した記録媒体

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262483A (ja) * 2007-04-13 2008-10-30 Denso Corp 情報出力装置及びプログラム
KR101012220B1 (ko) 2008-12-24 2011-02-08 대덕위즈주식회사 차량운행 상태 정보기록 방법과 장치 및 이를 위한 기록매체
JP2011217116A (ja) * 2010-03-31 2011-10-27 Mitsui Sumitomo Insurance Co Ltd 再生装置、撮像再生システム、撮像再生方法、再生プログラム及び撮像プログラム
US10685424B2 (en) 2010-09-21 2020-06-16 Mobileye Vision Technologies Ltd. Dense structure from motion
US11170466B2 (en) 2010-09-21 2021-11-09 Mobileye Vision Technologies Ltd. Dense structure from motion
CN102693643A (zh) * 2011-03-24 2012-09-26 汽车零部件研究及发展中心有限公司 汽车动态监察器及汽车动态监察方法
JP2012207998A (ja) * 2011-03-29 2012-10-25 Fujitsu Ten Ltd 情報処理装置、情報処理方法、及び、プログラム
JP2013109417A (ja) * 2011-11-17 2013-06-06 Kayaba Ind Co Ltd ドライブレコーダ
JP2018026143A (ja) * 2011-12-06 2018-02-15 モービルアイ ヴィジョン テクノロジーズ リミテッド 道路の垂直輪郭検出
JP2013130924A (ja) * 2011-12-20 2013-07-04 Luna Co Ltd 走行映像表示プログラム及び走行映像表示システム
JP2013143002A (ja) * 2012-01-11 2013-07-22 Luna Co Ltd 移動体の運行管理方法及び運行状況管理システム
JP2013152671A (ja) * 2012-01-26 2013-08-08 Kayaba Ind Co Ltd ドライブレコーダ
JP2019079203A (ja) * 2017-10-23 2019-05-23 株式会社デンソーテン 画像生成装置および画像生成方法
JP7021899B2 (ja) 2017-10-23 2022-02-17 株式会社デンソーテン 画像生成装置および画像生成方法
CN111247574A (zh) * 2017-10-25 2020-06-05 株式会社Ihi 信息生成装置
CN111247574B (zh) * 2017-10-25 2022-09-27 株式会社Ihi 信息生成装置
JP2019169042A (ja) * 2018-03-26 2019-10-03 株式会社デンソーテン 視点切替装置及び視点切替方法
JPWO2020115896A1 (ja) * 2018-12-07 2021-09-02 三菱電機株式会社 情報処理装置および情報処理方法
WO2020115896A1 (ja) * 2018-12-07 2020-06-11 三菱電機株式会社 情報処理装置および情報処理方法
JP7058757B2 (ja) 2018-12-07 2022-04-22 三菱電機株式会社 情報処理装置および情報処理方法
JP2020140457A (ja) * 2019-02-28 2020-09-03 トヨタ自動車株式会社 衝突判定サーバ、プログラム及び記録媒体
JP2021099815A (ja) * 2019-04-02 2021-07-01 株式会社ユピテル 装置及びプログラム
CN112116654A (zh) * 2019-06-20 2020-12-22 杭州海康威视数字技术股份有限公司 一种车辆位姿确定方法、装置及电子设备
JP7318504B2 (ja) 2019-11-26 2023-08-01 株式会社デンソー シーン分析支援装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP4895857B2 (ja) 2012-03-14

Similar Documents

Publication Publication Date Title
JP4895857B2 (ja) 車両挙動再現方法
US9270891B2 (en) Estimation of panoramic camera orientation relative to a vehicle coordinate frame
EP2208021B1 (en) Method of and arrangement for mapping range sensor data on image sensor data
JP3432212B2 (ja) 画像処理装置及び方法
JP3893983B2 (ja) 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
JP6494103B2 (ja) 画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システム
JP2010533282A (ja) 多視点パノラマを生成する方法及び装置
CN113678079A (zh) 从车辆传感器和相机阵列生成结构化地图数据
JP4626400B2 (ja) 俯瞰画像表示装置及び俯瞰画像表示方法
JP2010128799A (ja) 複合メディア合成装置及び複合メディア表示システム及び複合メディア合成方法及び複合メディア合成プログラム
JP2019533875A (ja) 道路の合成トップビュー画像を生成するための方法およびシステム
JP5214355B2 (ja) 車両走行軌跡観測システム、車両走行軌跡観測方法、およびそのプログラム
JP3641750B2 (ja) 地図経路等情報管理システム
JP2008033781A (ja) 路面勾配検出装置及び画像表示装置
KR100550430B1 (ko) 3차원 정보를 이용한 이동체의 주행 안내장치 및 방법
KR102225321B1 (ko) 복수 영상 센서로부터 취득한 영상 정보와 위치 정보 간 연계를 통한 도로 공간 정보 구축을 위한 시스템 및 방법
Kloeker et al. Comparison of Camera-Equipped Drones and Infrastructure Sensors for Creating Trajectory Datasets of Road Users.
JP7411771B1 (ja) 車両速度検出装置、車両速度検出方法及びプログラム
KR102511539B1 (ko) 영상 기반 차량 주행 시뮬레이션 시스템 및 방법
JP7467722B2 (ja) 地物管理システム
EP2639771B1 (en) Augmented vision in image sequence generated from a moving vehicle
US20220390252A1 (en) Use of predefined (pre-built) graphical representations of roads for autonomous driving of vehicles and display of route planning
US20220366661A1 (en) Information processing system, information processing method, and program
EP4075392A1 (en) Information processing system, information processing method, and program
JP2006125974A (ja) ナビゲーションシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090209

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111220

R150 Certificate of patent or registration of utility model

Ref document number: 4895857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees