JP4573076B2 - Information processing apparatus and method, and recording medium - Google Patents

Information processing apparatus and method, and recording medium Download PDF

Info

Publication number
JP4573076B2
JP4573076B2 JP2000229895A JP2000229895A JP4573076B2 JP 4573076 B2 JP4573076 B2 JP 4573076B2 JP 2000229895 A JP2000229895 A JP 2000229895A JP 2000229895 A JP2000229895 A JP 2000229895A JP 4573076 B2 JP4573076 B2 JP 4573076B2
Authority
JP
Japan
Prior art keywords
vehicle
fluctuation
data
shake
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000229895A
Other languages
Japanese (ja)
Other versions
JP2002036843A (en
Inventor
健司 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000229895A priority Critical patent/JP4573076B2/en
Publication of JP2002036843A publication Critical patent/JP2002036843A/en
Application granted granted Critical
Publication of JP4573076B2 publication Critical patent/JP4573076B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は情報処理装置および方法並びに記録媒体に関し、特に、車両が受ける動揺を低減させる情報処理装置および方法並びに記録媒体に関する。
【0002】
【従来の技術】
自動車を安全に走行するための技術に関しては、さまざまなものが提案されている。例えば、加速度センサなどを用いて揺れ(動揺)を制御する技術などが存在する。
【0003】
【発明が解決しようとする課題】
上述した加速度センサを用いて動揺を制御する方法では、実際に揺れを感知してから、その動揺を制御するため、時間的に遅れた制御しかできないという課題があった。
【0004】
本発明はこのような状況に鑑みてなされたものであり、自動車に搭載されたビデオカメラなどにより撮像された画像から、これから受けるであろう動揺を予測し、その動揺が最小限に抑えられるように制御することにより、より安全な走行を行えるようにすることを目的とする。
【0005】
【課題を解決するための手段】
本発明の一側面の第1の情報処理装置は、車両に搭載され、前記車両の進行方向の画像を撮像する撮像手段と、前記撮像手段により撮像された前記画像の画像データから、前記車両の前方を走行する他の車両の第1の動揺を検出する第1の検出手段と、前記撮像手段により撮像された前記画像の画像データから、前記車両が受けた第2の動揺を検出する第2の検出手段と、前記第1の検出手段により検出された前記第1の動揺と前記第2の検出手段により検出された前記第2の動揺から、前記車両が受けるであろう第3の動揺を予測する予測手段と、前記予測手段による予測に基づき、前記車両の動揺を制御する制御手段とを備え、前記予測手段は、所定の時刻に得られた前記第1の動揺と、検出されている前記第2の動揺の類似度を表す第1の相関係数を算出し、前記第1の相関係数が最大値となるときに、前記第1の動揺が取得されてからの時間を遅延量として算出する第1の算出手段と、前記遅延量だけ前記第1の動揺を遅延し、第1の予測値として出力する第1の予測値出力手段と、過去に取得されている第2の動揺を用いた線形予測に基づき、前記第2の検出手段により検出された前記第2の動揺から、第2の予測値を出力する第2の予測値出力手段と、前記第2の検出手段により検出された前記第2の動揺と前記第2の予測値との近似の度合いを第2の相関係数として算出する第2の算出手段と、前記第1の相関係数、前記第1の予測値、前記第2の予測値、および前記第2の相関係数を用いて、前記第3の動揺を予測した予測データを生成する生成手段とを備える。
【0006】
本発明の一側面の第1の情報処理方法は、車両に搭載され、前記車両の進行方向の画像を撮像する撮像手段を備える情報処理装置の情報処理方法において、前記撮像手段により撮像された前記画像の画像データから、前記車両の前方を走行する他の車両の第1の動揺を検出し、前記撮像手段により撮像された前記画像の画像データから、前記車両が受けた第2の動揺を検出し、前記第1の動揺と前記第2の動揺から、前記車両が受けるであろう第3の動揺を予測し、その予測に基づき、前記車両の動揺を制御するステップを含み、前記予測は、所定の時刻に得られた前記第1の動揺と、検出されている前記第2の動揺の類似度を表す第1の相関係数を算出し、前記第1の相関係数が最大値となるときに、前記第1の動揺が取得されてからの時間を遅延量として算出し、前記遅延量だけ前記第1の動揺を遅延し、第1の予測値として算出し、過去に取得されている第2の動揺を用いた線形予測に基づき、前記第2の動揺から、第2の予測値を算出し、前記第2の動揺と前記第2の予測値との近似の度合いを第2の相関係数として算出し、前記第1の相関係数、前記第1の予測値、前記第2の予測値、および前記第2の相関係数を用いて、前記第3の動揺を予測した予測データを生成するステップを含む。
【0007】
本発明の一側面の第1の記録媒体は、車両に搭載され、前記車両の進行方向の画像を撮像する撮像手段を備える情報処理装置を制御するコンピュータが読み取り可能なプログラムを記録している記録媒体において、前記撮像手段により撮像された前記画像の画像データから、前記車両の前方を走行する他の車両の第1の動揺を検出し、前記撮像手段により撮像された前記画像の画像データから、前記車両が受けた第2の動揺を検出し、前記第1の動揺と前記第2の動揺から、前記車両が受けるであろう第3の動揺を予測し、その予測に基づき、前記車両の動揺を制御するステップを含み、前記予測は、所定の時刻に得られた前記第1の動揺と、検出されている前記第2の動揺の類似度を表す第1の相関係数を算出し、前記第1の相関係数が最大値となるときに、前記第1の動揺が取得されてからの時間を遅延量として算出し、前記遅延量だけ前記第1の動揺を遅延し、第1の予測値として算出し、過去に取得されている第2の動揺を用いた線形予測に基づき、前記第2の動揺から、第2の予測値を算出し、前記第2の動揺と前記第2の予測値との近似の度合いを第2の相関係数として算出し、前記第1の相関係数、前記第1の予測値、前記第2の予測値、および前記第2の相関係数を用いて、前記第3の動揺を予測した予測データを生成するステップを含む処理をコンピュータに実行させるためのプログラムを記録している。
【0008】
本発明の一側面の第1の情報処理装置および方法、並びに記録媒体においては、撮像された画像の画像データから、車両の前方を走行する他の車両の第1の動揺と車両が受けた第2の動揺が検出され、検出された第1の動揺と第2の動揺から、車両が受けるであろう第3の動揺が予測され、その予測に基づき、車両の動揺が制御される。
【0009】
本発明の一側面の第2の情報処理装置は、車両に搭載され、前記車両の進行方向の画像を撮像する撮像手段と、前記車両の前方を走行する他の車両の第1の動揺を受信する受信手段と、前記撮像手段により撮像された前記画像の画像データから、前記車両が受けた第2の動揺を検出する検出手段と、前記受信手段により受信された前記第1の動揺と前記検出手段により検出された前記第2の動揺から、前記車両が受けるであろう第3の動揺を予測する予測手段と、前記予測手段による予測に基づき、前記車両の動揺を制御する制御手段とを備え、前記予測手段は、所定の時刻に得られた前記第1の動揺と、検出されている前記第2の動揺の類似度を表す第1の相関係数を算出し、前記第1の相関係数が最大値となるときに、前記第1の動揺が取得されてからの時間を遅延量として算出する第1の算出手段と、前記遅延量だけ前記第1の動揺を遅延し、第1の予測値として出力する第1の予測値出力手段と、過去に取得されている動揺データを用いた線形予測に基づき、前記第2の動揺から、第2の予測値を出力する第2の予測値出力手段と、前記第2の動揺と前記第2の予測値との近似の度合いを第2の相関係数として算出する第2の算出手段と、前記第1の相関係数、前記第1の予測値、前記第2の予測値、および前記第2の相関係数を用いて、前記第3の動揺を予測した予測データを生成する生成手段とを備える。
【0010】
前記検出手段で検出された前記第2の動揺を送信する送信手段をさらに備えるようにすることができる。
【0011】
本発明の一側面の第2の情報処理方法は、車両に搭載され、前記車両の進行方向の画像を撮像する撮像手段と、前記車両の前方を走行する他の車両の第1の動揺を受信する受信手段を備える情報処理装置の情報処理方法において、前記撮像手段により撮像された前記画像の画像データから、前記車両が受けた第2の動揺を検出し、前記受信手段により受信された前記第1の動揺と検出された前記第2の動揺から、前記車両が受けるであろう第3の動揺を予測しその予測に基づき、前記車両の動揺を制御するステップを含み、前記予測は、所定の時刻に得られた前記第1の動揺と、検出されている前記第2の動揺の類似度を表す第1の相関係数を算出し、前記第1の相関係数が最大値となるときに、前記第1の動揺が取得されてからの時間を遅延量として算出し、前記遅延量だけ前記第1の動揺を遅延し、第1の予測値として算出し、過去に取得されている第2の動揺を用いた線形予測に基づき、前記第2の動揺から、第2の予測値を算出し、前記第2の動揺と前記第2の予測値との近似の度合いを第2の相関係数として算出し、前記第1の相関係数、前記第1の予測値、前記第2の予測値、および前記第2の相関係数を用いて、前記第3の動揺を予測した予測データを生成するステップを含む。
【0012】
本発明の一側面の第2の記録媒体は、車両に搭載され、前記車両の進行方向の画像を撮像する撮像手段と、前記車両の前方を走行する他の車両の第1の動揺を受信する受信手段を備える情報処理装置を制御するコンピュータが読み取り可能なプログラムを記録している記録媒体において、前記撮像手段により撮像された前記画像の画像データから、前記車両が受けた第2の動揺を検出し、前記受信手段により受信された前記第1の動揺と検出された前記第2の動揺から、前記車両が受けるであろう第3の動揺を予測しその予測に基づき、前記車両の動揺を制御するステップを含み、前記予測は、所定の時刻に得られた前記第1の動揺と、検出されている前記第2の動揺の類似度を表す第1の相関係数を算出し、前記第1の相関係数が最大値となるときに、前記第1の動揺が取得されてからの時間を遅延量として算出し、前記遅延量だけ前記第1の動揺を遅延し、第1の予測値として算出し、過去に取得されている第2の動揺を用いた線形予測に基づき、前記第2の動揺から、第2の予測値を算出し、前記第2の動揺と前記第2の予測値との近似の度合いを第2の相関係数として算出し、前記第1の相関係数、前記第1の予測値、前記第2の予測値、および前記第2の相関係数を用いて、前記第3の動揺を予測した予測データを生成するステップを含む処理をコンピュータに実行させるためのプログラムを記録している。
【0013】
本発明の一側面の第2の情報処理装置および方法、並びに記録媒体においては、車両の前方を走行する他の車両の第1の動揺が受信され、撮像された画像の画像データから、車両が受けた第2の動揺が検出され、受信された第1の動揺と検出された第2の動揺から、車両が受けるであろう第3の動揺が予測され、その予測に基づき、車両の動揺が制御される。
【0014】
【発明の実施の形態】
以下に、図面を参照しながら、本発明の実施の形態について説明する。図1は、本発明を適用した車両について説明する図である。車両1は、進行方向の画像を撮像する撮像部2が備えられている。この撮像部2は、ビデオカメラなどにより構成される。通常車両には、前後左右の4個の車輪3−1乃至3−4が取り付けられている。
【0015】
それぞれの車輪3−1乃至3−4には、動揺アクチュエータ4−1乃至4−4(以後、動揺アクチュエータ4−1乃至4−4を個々に区別する必要がない場合、単に、動揺アクチュエータ4と記述する。また、他の装置についても同様に記述する)が備えられている。撮像部2や動揺アクチュエータ4は、制御部5により制御される。
【0016】
図2は、車両1の本発明に関する部分の構成についてさらに説明するための図である。撮像部2により撮像された車両1の進行方向の画像の画像データは、制御部5の前車動揺検出部11と自車動揺検出部12に出力される。前車動揺検出部11と自車動揺検出部12は、それぞれ、入力された画像データを用いて動揺データを生成する。前車動揺検出11が生成する動揺データは、前車が受けている動揺に関するデータであり、自車動揺検出部12が生成する動揺データは、自車が受けている動揺に関するデータである。換言すれば、前車動揺検出部11が出力する動揺データは、これから車両1が受けるであろう動揺に関するデータであり、自車動揺検出部12が出力する動揺データは、今、自車が受けている動揺に関するデータである。
【0017】
前車動揺検出部11により生成された動揺データと、自車動揺検出部12により生成された動揺データは、それぞれ、動揺予測部13に出力される。動揺予測部13は、自車が受けるであろう動揺を、入力された2つの動揺データから予測し、予測データを逆動揺生成部14に出力する。逆動揺生成部14は、入力された予測データに従って、自車の車重、バネやダンパなどの特性を考慮した逆動揺データを生成し、逆動揺アクチュエータ4に出力する。
【0018】
図3は、前車動揺検出部11の構成を示す図である。前車動揺検出部11は、図3に示すように、前車検出部21と動きベクトル検出部22から構成されている。撮像部2により撮像され、前車動揺検出部11に入力される画像データに基づく画像は、例えば、図4に示すような画像である。画像としては、道路、その道路上を走行する車両、道路の両側に位置する建物などが撮像されている。そのうち、前車検出部21は、まず、道路上を走行している複数の車両を検出し、そのうち、画像の左右方向に対する中心部分に位置し、最も大きい領域を占める車両を前車として検出する。
【0019】
動きベクトル検出部22は、検出された前車の動きベクトルを検出する。この検出される動きベクトルは、前車の動揺であるとされ、その動揺は、路面から受けるものであると考えられる。前車の動揺は、撮像部2により得られた画像から全画面動きを検出し、その全画面動きと異なる動きベクトルに着目して検出するようにしても良い。
【0020】
自車動揺検出部12にも、前車動揺検出部11に入力された画像データと同様の画像データ(例えば、図4のような画像の基となる画像データ)が入力される。自車動揺検出部12は、入力された画像データから、自車の動揺を検出するわけだが、その検出方法について、以下に説明する。
【0021】
図5は、自車動揺検出部12の内部構成を示す図である。自車動揺検出12は、特徴情報検出部31、特徴情報処理部32から構成されている。自車動揺検出12に入力された画像データは、特徴情報検出部31に入力され、後述する特徴情報が検出され、特徴情報処理部32に出力される。特徴情報処理部32は、入力された特徴情報から、動揺データを算出する。
【0022】
図6は、特徴情報検出部31の構成を示すブロック図である。特徴情報検出部31に入力された画像データは、遅延部41により1フレーム分遅延された後フレームバッファ42−1に供給されるとともに、フレームバッファ42−2にも供給される。読み出し部43−1,43−2は、メモリ44に記憶されている所定のパターンに従って、それぞれ対応するフレームバッファ42−1,42−2から、画像データを読み出し、動きベクトル検出部45に出力する。
【0023】
動きベクトル検出部45は、供給された画像データから動きベクトルを検出し、特徴情報演算部46に出力する。特徴情報演算部46は、入力された動きベクトルから特徴情報を演算する。
【0024】
次に、図6に示した特徴情報検出部31の動作について説明する。時刻tにおいて、特徴情報検出部31に入力された画像データは、遅延部41とフレームバッファ42−2に供給される。フレームバッファ42−2は、入力された1フレーム分の画像データを記憶する。遅延部41は、画像データを1フレーム分だけ遅延するので、時刻tにおいて、フレームバッファ42−1には、時刻tより前の時刻t−1における画像データ、即ち、時刻tより1フレーム前の画像データが記憶されている。フレームバッファ42−1に記憶された時刻t−1における画像データは、読み出し部43−1により、フレームバッファ42−2に記憶された時刻tにおける画像データは、読み出し部43−2により、それぞれ読み出される。
【0025】
読み出し部43−1,43−2は、それぞれ対応するフレームバッファ42−1,42−2に記憶されている画像データのうち、メモリ44に記憶されているパターンに対応する部分の画像データを読み出す。ここで、メモリ44に記憶されているパターンについて、図7を参照して説明する。
【0026】
図7は、メモリ44に記憶されているパターンの一例を示す図である。1フレームを構成する画素のなかで、動揺に関係のない部分、例えば,図8に示したような、自動車に取り付けられたビデオカメラにより撮像された画像データの場合、自動車のボンネットの部分などは動揺に関係のない領域と考えられるので、その領域を取り除いた領域の中心に位置する画素を収束点Pとする。収束点Pを中心として上下左右に対称な位置の代表点Q、例えば、25個(収束点を含む)を設定する。各代表点Q毎に、その代表点Qが中心に位置する所定の画素数からなるブロックB、例えば、33×33画素からなる参照ブロックBを設定する。メモリ44には、このようなフレームの画面内における各代表点Qの座標と、参照ブロックBの大きさと、図示していないが、例えば、65×65画素からなる探索ブロックの大きさが、パターンとして記憶されている。
【0027】
読み出し部43−1は、フレームバッファ42−1に記憶されている時刻t−1における画像データのうち、メモリ44に記憶されている上述したパターンに対応する画素データ、すなわち、代表点Qの座標とブロックBの大きさをもとに、各参照ブロックB内の画素データを読み出し、動きベクトル検出部45に、参照ブロックのデータとして出力する。同様に、読み出し部43−2は、フレームバッファ42−2に記憶されている時刻tにおける画像データのうち、メモリ44に記憶されているパターンに対応する画素データを読み出し、動きベクトル検出部45に探索ブロックのデータとして出力する。
【0028】
動きベクトル検出部45は、入力された参照ブロックのデータと探索ブロックのデータとを用いて、ブロックマッチングを行うことにより、各代表点Qにおける動きベクトルを検出する。従って、この例の場合、25個の動きベクトルが検出される。
【0029】
なお、本実施の形態においては、動揺データを生成することを目的としているため、動きベクトルを全ての画素に対して検出する必要がないため、25個の動きベクトルだけを求めるようにしている。これにより、回路規模の削減や処理速度を向上させることができる。
【0030】
特徴情報演算部46は、動きベクトル検出部45により検出された25個の動きベクトルを用いて、時刻tのフレーム全体としての動揺の水平成分u、垂直成分v、拡大成分vzoom、および回転成分vrotの合計4成分を、以下に示す式に基づいて算出する。
水平成分u=(1/n)Σui ・・・(1)
垂直成分v=(1/n)Σvi ・・・(2)
拡大成分vzoom=(1/n)Σvzoomi/di ・・・(3)
回転成分vrot=(1/n)Σvroti/di ・・・(4)
なお、添え字のiは、代表点Qiに付けられた番号を示し、この例では1乃至25まで変化する。また、nは代表点の個数であるので、この例では25である。
式(1)乃至式(4)により求められる値は、25個の動きベクトルから得られる各成分u、v、vzoom、vrotの平均値である。
【0031】
上述した各成分u、v、vzoom、vrotの関係を図9を参照して説明する。処理対象となっている代表点Qiの動きベクトルTの水平方向の成分をuiとし、垂直方向の成分をviとする。diは、収束点Pから代表点Qiまでの距離を表すスカラ量である。また、(Px,Py)は、収束点Pの座標を表し、この座標値を基準として座標(Qix,Qiy)の代表点Qiまでの距離が算出される。
【0032】
この動きベクトルTの成分(ui,vi)は、代表点Qiを原点としたときの成分である。動きベクトルTの、収束点Pと代表点Qiとを結ぶ直線と平行な方向の成分をvzoomiとし、収束点Pと代表点Qiとを結ぶ直線と直交する方向の成分をvrotiとする。また、収束点Pと代表点Qiとを結ぶ直線と動きベクトルTとがなす角度をθとする。このとき、vzoomiとvrotiは、次式に従って求められる。
zoomi=(ui 2+vi 2(1/2)COSθ ・・・(5)
roti =(ui 2+vi 2(1/2)SINθ ・・・(6)
【0033】
なお、ここでは、各成分を求めるのに25個の動きベクトルの値を平均的に用いているが、画面上における位置関係などに基づいて、各成分に重み付けをしても良い。
【0034】
特徴情報演算部46は、動きベクトル検出部45から出力された動きベクトルから、式(1)乃至式(4)を用いて、特徴情報として4成分のデータu、v、vzoom、vrotを算出する。算出された4成分のデータu、v、vzoom、vrotは、特徴情報処理部32(図5)に出力される。
【0035】
特徴情報検出部31の処理で、画像データから4成分が検出されるわけだが、ここでは、さらに、それらの成分を後の処理において扱いやすいデータに特徴情報処理部32において加工する。特徴情報処理部32は、複数のアクチュエータが備えられた椅子型の装置で、車両に搭乗したときの感覚を観客に擬似的に体感できるようにするためのデータに加工する。勿論、ここでは、車両に搭乗したときの感覚を擬似的に体感させることを目的とはしていないので、このようなデータに加工しなくても良いが、ここでは、加工したデータを用いるとして以下の説明をする。
【0036】
観客に対して車両に乗っている感じを疑似体験させる場合、どのような力(動揺)を観客が座っている椅子に対して加えればよいのかを考える。自動車の椅子に加えられる力には、自動車が坂道などの勾配のある道を走っているときの路面の前後方向の傾きを表現するための力、でこぼこした道の上を走っているときの路面から受ける上下方向の振動を表現するための力、傾いた路面を走っているときの路面の左右方向の傾きを表現するための力などがある。
【0037】
これらの力は、画像を撮像したビデオカメラが搭載された自動車に対して与えられた刺激の内、画像を観察する観客の椅子に対しても物理的意味合いが同じ形で刺激を与えることができる力であり、ここでは実刺激と称する。この実刺激は、その値を積分していくと値がゼロとなるものである。
【0038】
これに対して、自動車がカーブを曲がるときの遠心力を表現する力、加速や減速のときの慣性力を表現する力、カーブ時の自動車首振りを表現する力は、積分していっても値がゼロとならないものであり、椅子の移動距離の制限、移動方向の制限などから、自動車に対して与えられた刺激と物理的意味合いが同じ形で与えることが困難な刺激であり、ここでは、代替刺激と称する。
【0039】
以下に、上述した実刺激と代替刺激に関する力、実際に観客用の椅子に対して加える動揺データの成分、並びに、上述した特徴情報演算部46により演算された4成分の関係を示す。以下に示す実刺激の内、路面の前後の傾きに対する動揺データは、動揺データ成分pitchの1つとされ、動きベクトルの垂直方向の成分のうちの低周波成分で表すことができる。ここで、路面の傾きは、遅い周期で変化すると考えられるため、低周波成分を用いている。
【0040】
傾きは、遅い周期で変化すると考えられ、また、高周波と考えられるため、路面から受ける振動に対する動揺データは、動きベクトルの垂直方向の成分のうちの高周波成分を用いている。この値は、動揺データ成分zとされる。路面の左右の傾きに対する動揺データは、動揺データ成分rollの一つとされ、図9から明らかなように、回転成分Vrotiを25個の動きベクトル分加算した値で表すことができる。カーブ時の遠心力に対する動揺データは、動揺データ成分rollの1つとされ、水平成分uで表される。
【0041】
加減速による慣性力に対する動揺データは、動揺データ成分pitchの1つとされ、拡大成分Vzoomの微分値の低周波成分で表される。なお、低周波成分としてあるのは、加減速に対しては敏感な動作は不要と考えられるからである。カーブ時の自動車の首振りに対する動揺データは、動揺データ成分yawとされ、水平成分uで表される。なお、−uとしてあるのは、カーブ時の遠心力と逆に働くためである。
【0042】
実刺激
表現される成分 動揺データ成分 4成分との関係
路面の前後の傾き pitch Σvの低周波成分
路面からうける振動 z −Σvの高周波成分
路面の左右の傾き roll −Σvrot
代替刺激
表現される成分 動揺データ成分 4成分との関係
カーブ時の遠心力 roll u
加減速による慣性力 pitch dvzoom/dtの低周波成分
カーブ時の自動車首振り yaw −u
【0043】
特徴情報処理部32は、上述した関係を用いて、動揺データを生成する。図10は、特徴情報処理部32の構成を示すブロック図である。特徴情報検出部31から出力された4成分のうち、回転成分vrotは、加算器51−1に、水平成分uは、加算器51−2と符号反転器52−1に、垂直成分vは、加算器51−3に、拡大成分vzoomは、加算器51−5と遅延器53−3に、それぞれ入力される。加算器51−1には、加算器51−1から出力されたデータが、遅延器53−1で1クロック分遅延された後、フィードバックされて入力される。同様に、加算器51−3にも、加算器51−3から出力されたデータが、遅延器53−2で1クロック分遅延された後、フィードバックされて入力される。
【0044】
遅延器53−1から出力されたデータは、加算器51−2に入力され、遅延器53−2から出力されたデータは、符号反転器52−2を介してHPF(High Pass Filter)54に出力されると共に、LPF(Low Pass Filter)55−1を介して加算器51−4にも出力される。加算器51−5に入力された拡大成分vzoomは、遅延器53−3により1クロック分遅延された拡大成分vzoomが減算され、LPF55−2を介して加算器51−4に入力される。
【0045】
次に、特徴情報処理部32が行う動揺データ成分roll、yaw、z、およびpitchの算出について説明する。特徴情報処理部32に入力された回転成分vrotは、加算器51−1に入力される。加算器51−1は、時刻tにおいて入力された回転成分vrotと、遅延器53−1より出力される1フレーム前の時刻t−1のデータとを加算する。加算器51−1は、このようにして、回転成分vrotを累積加算(積分)していくことにより、路面の左右の傾きを表現する動揺データ成分roll(Σvrot)を算出する。しかしながら、路面の左右の傾きを表現する動揺データ成分rollは、−Σvrotなので、加算器51−2は、遅延器53−1から入力されたデータの符号を反転したデータを演算に用いる。
【0046】
動揺データ成分roll(水平成分u)は、カーブ時の遠心力を表現するのにも用いられる。そこで、加算器51−2は、遅延器53−1から入力されたデータの符号を反転したデータと、水平成分uとを加算する(水平成分uから遅延器53−1の出力を減算する)ことにより、動揺データ成分rollを算出する。
【0047】
カーブ時の自動車首振りの動揺データ成分yawは、水平成分uの値を反転することにより得られるので、特徴情報処理部32は、入力された水平成分uの値を、符号反転器52−1により、符号を反転させることに動揺データ成分yawを算出する。
【0048】
加算器51−3には、時刻tにおいて入力された垂直成分vと、遅延器53−2より出力された1フレーム前の時刻t−1の垂直成分vを加算する。このようにして、加算器51−3において、垂直成分vが累積加算(積分)される。そして、加算器51−3とと遅延器53−2により累積加算されたデータは、符号反転器52−2に入力され、符号が反転され、さらにHPF54により、高周波成分のみが取り出される。このようにして、路面から受ける振動を表現する動揺データ成分zが算出される。
【0049】
また、遅延器53−2から出力されたデータは、LPF55−1にも出力され、低周波成分が取り出される。このようにして、路面の前後の傾きを表現する動揺データ成分pitchが算出される。動揺データ成分pitchは、加減速による慣性力を表現する動揺データ成分としても用いられる。そのため、LPF55−1から出力された動揺データ成分pitchは、加算器51−4により、慣性力を表現する動揺データ成分pitchと加算される。
【0050】
慣性力を表現する動揺データ成分pitchは、特徴情報処理部32に入力された拡大成分vzoomから算出される。特徴情報処理部32に入力された拡大成分vzoomは、加算器51−5と遅延器53−3に入力される。加算器51−5には、時刻tにおいて入力された拡大成分vzoomtと、遅延器53−3により1フレーム遅延された時刻t−1における拡大成分vzoomt-1が入力される。加算器51−5は、入力された時刻tにおける拡大成分vzoomtから、時刻t−1における拡大成分vzoomt-1を減算することで、拡大成分vzoomを微分する。そして、加算器51−5から出力された値から、LPF55−2により、低周波成分が抽出されることにより、加減速による慣性力を表現する動揺データ成分pitchが算出される。
【0051】
加算器51−4により、LPF55−1から出力された値と、LPF55−2から出力された値とが加算されることにより、動揺データ成分pitchが算出される。
【0052】
このように、動揺データを画像から得られた動きから算出するようにしたので、画像を確認することで動揺データを決定し、入力しておくといった手間を省くことが可能である。また、センサなどを用いることで動揺データを生成することがなされていない画像から動揺データを容易に生成することが可能である。
【0053】
前車動揺検出部11により検出された前車の動揺に関する動揺データと、自車動揺検出部12により検出された自車の動揺に関する動揺データは、動揺予測部13に出力される。図11は、動揺予測部13の内部構成を示す図である。前車動揺検出部11から出力された動揺データは、動揺予測部13の遅延量算出部71と遅延器72に入力される。同様に、自車動揺検出部12から出力された動揺データは、遅延量算出部71、予測器73、および相関算出部74に入力される。
【0054】
遅延量算出部71は、入力された2つの動揺データから遅延量Tを算出する。
図12(A)に示したグラフは、前車が受けた動揺に関するもの(前車動揺検出部11から出力された動揺データに基づくもの)であり、図12(B)に示したグラフは、自車が受けた動揺に関するもの(自車動揺検出部12から出力された動揺データに基づくもの)である。図12(A)に示した前車の動揺は、時刻Tだけ経過したときに、自車が受ける動揺であると考えることができる。換言すれが、前車が受けた動揺は、遅延量Tだけ遅延した後に、自車が受ける動揺となることが予測される。
【0055】
図12(A)と図12(B)に示したようなグラフから図12(C)に示した相関係数R1と遅延量Tとの関係を示すグラフが得られる。正の定数TMINを越える範囲で相関係数R1が最大値をとる所の値を遅延量Tとする。仮に自車の前を走行する車両が存在しないとき、前車動揺検出部11から出力され、遅延量算出部71に入力される動揺データは、意味のないデータ(ノイズ)である。そのようなデータに対して図12(C)に示したようなグラフを作成した場合、最大値は存在するが、その値は非常に小さな値となる。そのため、前車が存在しないときには、相関係数R1が非常に小さくなり、前車の動揺情報はほとんど利用されない。
【0056】
遅延器72は、前車動揺検出部11からの動揺データを、遅延量算出部71からの遅延量Tだけ、遅延して重み付け加算部75に出力する。ここでは、遅延器72から出力されるデータを予測値D1と記述する。なお、上述したように、前車が存在しない場合、相関係数R1と遅延量Tは非常に小さいため、遅延器72から出力される予測値D1は、重み付け加算部75に出力されても非常に微弱である。相関係数R1が、所定の閾値以下の場合、予測値D1は0として設定されるようにしても良い。
【0057】
一方、予測器73は、自車動揺検出部12からの動揺データを入力し、その入力された動揺データから、予測値D2を算出し、出力する。予測器73は、過去に取得されている動揺データを用いた線形予測にもとづき、入力された動揺データから予測値D2を算出する。
【0058】
相関算出部74は、自車動揺検出部12からの動揺データと、予測器73からの予測値D2を入力し、相関係数R2を算出する。相関係数R2は、過去の動揺データを用いて算出された予測値D2と、現在取得された動揺データとが、どれだけ近似したものであるかを示すものであり。予測器73の精度を示すものである。
【0059】
重み付け加算部75には、遅延量算出部71からの相関係数R1、相関算出部74からの相関係数R2、遅延器72からの予測値D1、および予測器73からの予測値D2が入力される。重み付け加算部75は、入力されたこれらのデータから、次式(7)に基づく計算を実行し、逆動揺生成部14へ出力する予測データを算出する。

Figure 0004573076
【0060】
式(7)に従って算出された予測データは、逆動揺生成部14(図2)に出力される。逆動揺生成部14は、内部にメモリ(不図示)を備え、そのメモリに自車の車重、バネやダンパなどの特徴を記憶しており、その記憶されている各種のデータを用いて、自車の動揺を低減させるような逆動揺を発生させるための逆動揺データを生成する。逆動揺データは、予測データにより予測された動揺に対して逆方向の、同程度の力を加えるためのデータであり、かつ、上述した自車の車重などを考慮したデータである。
【0061】
逆動揺生成部14により生成された逆動揺データは、逆動揺アクチュエータ4に供給される。逆動揺アクチュエータ4は、供給された逆動揺データに基づき、車両1の動揺を制御する。
【0062】
このように、画像を撮像し、その画像から前車の動揺と自車の動揺を検出することにより、より早く、また精度よく、動揺を検出することができ、その結果、より確実に動揺を低減させることが可能となる。
【0063】
上述した実施の形態においては、1台の車両1内において、前車の動揺と自車の動揺を検出し、自車の動揺を低減させるための制御を行うようにしたが、2台の車両1において、同様の効果を得られるようにしても良い。そのような場合について以下に説明する。
【0064】
図13に示すように、2台の車両1−1,1−2が走行している場合を想定する。車両1−1は、車両1−2の前方を走行している。図13において、既に説明した部分と同様の部分には、同一の符号を付し、適宜、その説明は省略する。
車両1−1には、撮像部2が搭載されており、前方の画像を撮像するように構成されている。撮像部2により撮像された画像の画像データは、自車動揺検出部12に出力される。自車動揺検出部12は、画像データから動揺データを生成し、送信部91に出力する。送信部91は、光や電波などの送信手段を用い、入力された動揺データを後続の車両1−2に対して送信する。
【0065】
車両1−2は、車両1−1の送信部91により送信された動揺データを受信部92により受信する。受信部92により受信された動揺データは、逆動揺生成部93に出力される。逆動揺生成部93は、入力された動揺データが示す動揺の逆方向で、同程度の力を車両1−2に加えるための逆動揺データを生成する。逆動揺生成部93は、自車の車重、バネやダンパなどの特徴を考慮に入れて逆動揺データを生成する。
【0066】
動揺生成部93により生成された逆動揺データに基づき、逆動揺アクチュエータ4は、車両1−2が受ける動揺が低減されるための制御を行う。
【0067】
このように、前車が実際に受けた動揺に関する動揺データを後車に送信することにより、後車においては、実際の動揺を受ける前に、その動揺に関する動揺データを取得することが可能となり、その結果、予め受けるであろう動揺に対して、その動揺を低減させるための逆動揺データを生成し、制御することが可能となる。
【0068】
図13に示した実施の形態においては、車両1−1と車両1−2は、異なる構成としたが同じ構成としても良い。すなわち、図14に示すように、車両1−1、車両1−2共に、撮像部2、自車動揺検出部12、送信部91、受信部92、逆動揺生成部93、および逆動揺アクチュエータ4を備える構成とし、自車が受けた動揺に関する動揺データを後車に送信すると共に、前車から前車が受けた動揺に関する動揺データを受信し、その受信した動揺データに基づいて動揺を低減するための制御を行うようにしても良い。
【0069】
また、図13に示した実施の形態においては、車両1−2は、前車が送信した動揺データのみで、自車の動揺を制御する構成であるが、自車の動揺も検出し、その検出した自車の動揺も考慮して逆動揺データを生成するようにしても良い。即ち、図15に示すように、撮像部2と自車動揺検出部12を備えることにより、自車の動揺を検出することができ、その検出した動揺に関する動揺データと、受信部92により受信された前車の動揺データとを用いて、動揺予測部13で予測データを生成し、その予測データを用いて、逆動揺生成部14が逆動揺データを生成するようにしても良い。また、図15に示した構成においては、自車動揺検出部12からの動揺データは、送信部91により、後続の他の車両に対して送信される。
【0070】
なお、上述した実施の形態においては、画像データから動揺データを生成するとしたが、加速度センサなどを用いて動揺データを生成するようにしても良い。
【0071】
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
【0072】
この記録媒体は、図16に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク121(フロッピディスクを含む)、光ディスク122(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク123(MD(Mini-Disk)を含む)、若しくは半導体メモリ124などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記憶されているROM102や記憶部108が含まれるハードディスクなどで構成される。
【0073】
なお、本明細書において、媒体により提供されるプログラムを記述するステップは、記載された順序に従って、時系列的に行われる処理は勿論、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0074】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0075】
【発明の効果】
以上の如く本発明によれば車両が受ける動揺をより確実に低減させることが可能となる。
【図面の簡単な説明】
【図1】本発明を適用した車両1の構成について説明する図である。
【図2】車両1の構成についてさらに説明する図である。
【図3】前車動揺検出部11の内部構成を示す図である。
【図4】撮像部2により撮像される画像について説明する図である。
【図5】自車動揺検出部12の内部構成を示す図である。
【図6】特徴情報検出部31の内部構成を示す図である。
【図7】メモリ46に記憶されているパターンを示す図である。
【図8】処理される画像を説明する図である。
【図9】算出されるベクトルについて説明する図である。
【図10】特徴情報処理部32の内部構成を示す図である。
【図11】動揺予測部13の内部構成を示す図である。
【図12】遅延量、相関係数の算出について説明するための図である。
【図13】車両1の他の構成について説明する図である。
【図14】車両1のさらに他の構成について説明する図である。
【図15】車両1のさらに他の構成について説明する図である。
【図16】媒体を説明する図である。
【符号の説明】
1 車両, 2 撮像部, 3 車輪, 4 逆動揺アクチュエータ, 5 制御部, 11 前車動揺検出部, 12 自車動揺検出部, 13 動揺予測部, 14 逆動揺生成部, 21 前車検出部, 22 動きベクトル検出部, 71 遅延量算出部, 72 遅延器, 73 予測器, 74 相関算出部, 75 重み付け加算部, 91 送信部, 92 受信部[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an information processing apparatus and method.,Information processing apparatus and method for reducing fluctuations received by vehicle, particularly regarding recording medium,And a recording medium.
[0002]
[Prior art]
Various technologies have been proposed for safe driving of automobiles. For example, there is a technique for controlling shaking (swaying) using an acceleration sensor or the like.
[0003]
[Problems to be solved by the invention]
The above-described method of controlling a shake using an acceleration sensor has a problem that only a time-delayed control can be performed in order to control the shake after actually sensing the shake.
[0004]
The present invention has been made in view of such a situation, and predicts a shake that will be received from an image captured by a video camera or the like mounted on an automobile so that the shake can be minimized. It is an object to enable safer driving by controlling to the above.
[0005]
[Means for Solving the Problems]
  A first information processing apparatus according to an aspect of the present invention is mounted on a vehicle and includes an imaging unit that captures an image in a traveling direction of the vehicle, and image data of the image captured by the imaging unit. First detection means for detecting a first shake of another vehicle traveling ahead, and a second detection for detecting a second shake received by the vehicle from image data of the image picked up by the image pickup means. And a third shake that the vehicle will receive from the first shake detected by the first detection means and the second shake detected by the second detection means. Predicting means for predicting, and control means for controlling the shaking of the vehicle based on the prediction by the predicting means, the predicting means comprising:Obtained at a given timeThe first shake andHas been detectedThe second upsetDegree of similarityCalculate the first correlation coefficient that representsWhen the first correlation coefficient reaches the maximum value, the time after the first fluctuation is acquired is calculated as the delay amount.The first calculation means, the first predicted value output means for delaying the first fluctuation by the delay amount and outputting it as the first predicted value, and the second fluctuation acquired in the past are used. Based on linear prediction, a second predicted value output means for outputting a second predicted value from the second fluctuation detected by the second detecting means, and the detected by the second detecting means. Second calculating means for calculating a degree of approximation between the second fluctuation and the second predicted value as a second correlation coefficient; the first correlation coefficient; the first predicted value; Generating means for generating prediction data in which the third fluctuation is predicted using the predicted value of 2 and the second correlation coefficient.
[0006]
  A first information processing method according to one aspect of the present invention is an information processing method of an information processing apparatus that is mounted on a vehicle and includes an imaging unit that captures an image in the traveling direction of the vehicle. A first shake of another vehicle traveling in front of the vehicle is detected from the image data of the image, and a second shake received by the vehicle is detected from the image data of the image taken by the imaging means. And predicting a third sway that the vehicle will receive from the first sway and the second sway, and controlling the sway of the vehicle based on the prediction, the prediction comprising:Obtained at a given timeThe first shake andHas been detectedThe second upsetDegree of similarityCalculate the first correlation coefficient that representsWhen the first correlation coefficient reaches the maximum value, the time after the first fluctuation is acquired is calculated as the delay amount.The first fluctuation is delayed by the delay amount, calculated as a first predicted value, and based on linear prediction using the second fluctuation acquired in the past, the second fluctuation is And a degree of approximation between the second fluctuation and the second predicted value is calculated as a second correlation coefficient, the first correlation coefficient, the first predicted value, Using the second predicted value and the second correlation coefficient to generate predicted data in which the third fluctuation is predicted.
[0007]
  A first recording medium according to one aspect of the present invention is a recording in which a computer-readable program that controls an information processing apparatus that is mounted on a vehicle and includes an imaging unit that captures an image in the traveling direction of the vehicle is recorded. In the medium, from the image data of the image picked up by the image pickup means, a first shake of another vehicle traveling in front of the vehicle is detected, and from the image data of the image picked up by the image pickup means, A second shake received by the vehicle is detected, a third shake that the vehicle will receive is predicted from the first shake and the second shake, and the vehicle shake is determined based on the prediction. The prediction includes the step of:Obtained at a given timeThe first shake andHas been detectedThe second upsetDegree of similarityCalculate the first correlation coefficient that representsWhen the first correlation coefficient reaches the maximum value, the time after the first fluctuation is acquired is calculated as the delay amount.The first fluctuation is delayed by the delay amount, calculated as a first predicted value, and based on linear prediction using the second fluctuation acquired in the past, the second fluctuation is And a degree of approximation between the second fluctuation and the second predicted value is calculated as a second correlation coefficient, the first correlation coefficient, the first predicted value, A program for causing a computer to execute processing including a step of generating prediction data in which the third fluctuation is predicted using the second prediction value and the second correlation coefficient is recorded.
[0008]
In the first information processing apparatus and method and the recording medium according to one aspect of the present invention, the first shake of the other vehicle traveling in front of the vehicle and the vehicle received from the image data of the captured image. The second shaking is detected, and the third shaking that the vehicle will receive is predicted from the detected first and second shakings, and the shaking of the vehicle is controlled based on the prediction.
[0009]
  A second information processing apparatus according to an aspect of the present invention is mounted on a vehicle and receives an imaging unit that captures an image of the traveling direction of the vehicle, and a first shake of another vehicle that travels in front of the vehicle. Receiving means, detecting means for detecting a second shake received by the vehicle from image data of the image taken by the imaging means, and the first shake received by the receiving meansSaidPredicting means for predicting third shaking that the vehicle will receive from the second shaking detected by the detecting means, and control means for controlling the shaking of the vehicle based on the prediction by the predicting means. The prediction means comprises:Obtained at a given timeThe first shake andHas been detectedThe second upsetDegree of similarityCalculate the first correlation coefficient that representsWhen the first correlation coefficient reaches the maximum value, the time after the first fluctuation is acquired is calculated as the delay amount.Linear prediction using first calculation means, first prediction value output means for delaying the first fluctuation by the delay amount and outputting the first prediction value, and fluctuation data acquired in the past The second predicted value output means for outputting a second predicted value from the second fluctuation, and the degree of approximation between the second fluctuation and the second predicted value in a second phase relationship. Using the second calculation means for calculating as a number, the first correlation coefficient, the first predicted value, the second predicted value, and the second correlation coefficient, Generating means for generating prediction data predicting the above.
[0010]
A transmission means for transmitting the second fluctuation detected by the detection means can be further provided.
[0011]
  According to a second information processing method of one aspect of the present invention, an imaging unit that is mounted on a vehicle and captures an image of the traveling direction of the vehicle, and a first shake of another vehicle that travels in front of the vehicle are received. In the information processing method of the information processing apparatus including the receiving unit, the second shake received by the vehicle is detected from the image data of the image captured by the imaging unit, and the second received by the receiving unit is detected. Predicting a third shake that the vehicle will receive from the second shake detected as 1 shake and controlling the shake of the vehicle based on the prediction, the prediction comprising:Obtained at a given timeThe first shake andHas been detectedThe second upsetDegree of similarityCalculate the first correlation coefficient that representsWhen the first correlation coefficient reaches the maximum value, the time after the first fluctuation is acquired is calculated as the delay amount.The first fluctuation is delayed by the delay amount, calculated as a first predicted value, and based on linear prediction using the second fluctuation acquired in the past, the second fluctuation is And a degree of approximation between the second fluctuation and the second predicted value is calculated as a second correlation coefficient, the first correlation coefficient, the first predicted value, Using the second predicted value and the second correlation coefficient to generate predicted data in which the third fluctuation is predicted.
[0012]
  A second recording medium according to an aspect of the present invention is mounted on a vehicle and receives an imaging unit that captures an image in the traveling direction of the vehicle and a first sway of another vehicle traveling in front of the vehicle. Detecting a second shake received by the vehicle from image data of the image picked up by the image pickup means in a recording medium recording a computer readable program for controlling an information processing apparatus including a reception means Then, based on the prediction, a third shake that the vehicle will receive is predicted from the first shake detected by the receiving means and the second shake detected, and the shake of the vehicle is controlled based on the prediction. The prediction includes the step of:Obtained at a given timeThe first shake andHas been detectedThe second upsetDegree of similarityCalculate the first correlation coefficient that representsWhen the first correlation coefficient reaches the maximum value, the time after the first fluctuation is acquired is calculated as the delay amount.The first fluctuation is delayed by the delay amount, calculated as a first predicted value, and based on linear prediction using the second fluctuation acquired in the past, the second fluctuation is And a degree of approximation between the second fluctuation and the second predicted value is calculated as a second correlation coefficient, the first correlation coefficient, the first predicted value, A program for causing a computer to execute processing including a step of generating prediction data in which the third fluctuation is predicted using the second prediction value and the second correlation coefficient is recorded.
[0013]
In the second information processing apparatus and method and the recording medium of one aspect of the present invention, the first shake of another vehicle traveling in front of the vehicle is received, and the vehicle is detected from the image data of the captured image. The received second shake is detected, and the third shake that the vehicle will receive is predicted from the received first shake and the detected second shake. Based on the prediction, the shake of the vehicle is detected. Be controlled.
[0014]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram illustrating a vehicle to which the present invention is applied. The vehicle 1 includes an imaging unit 2 that captures an image in the traveling direction. The imaging unit 2 is configured by a video camera or the like. A normal vehicle is provided with four wheels 3-1 to 3-4 on the front, rear, left and right.
[0015]
Each of the wheels 3-1 to 3-4 has a swing actuator 4-1 to 4-4 (hereinafter, if it is not necessary to individually distinguish the swing actuators 4-1 to 4-4, the swing actuator 4 and In addition, other devices are described in the same manner). The imaging unit 2 and the shaking actuator 4 are controlled by the control unit 5.
[0016]
  FIG. 2 is a diagram for further explaining the configuration of the portion of the vehicle 1 relating to the present invention. The image data of the image in the traveling direction of the vehicle 1 imaged by the imaging unit 2 is output to the front vehicle motion detection unit 11 and the own vehicle motion detection unit 12 of the control unit 5. The front vehicle shake detection unit 11 and the own vehicle shake detection unit 12 each generate shake data using the input image data. Front car upsetdetectionPart11The data generated by the vehicle is data related to the vibration received by the previous vehicle.detectionThe shake data generated by the unit 12 is data related to the shake received by the vehicle. In other words, the shake data output from the front vehicle shake detection unit 11 is data related to the shake that the vehicle 1 will receive, and the shake data output from the own vehicle shake detection unit 12 is received by the own vehicle now. It is data about the upset.
[0017]
The motion data generated by the front vehicle motion detection unit 11 and the motion data generated by the host vehicle motion detection unit 12 are each output to the motion prediction unit 13. The motion prediction unit 13 predicts the motion that the vehicle will receive from the two input motion data, and outputs the predicted data to the reverse motion generation unit 14. The reverse shake generation unit 14 generates reverse shake data considering characteristics of the vehicle weight, springs, dampers, and the like according to the input prediction data, and outputs the reverse shake data to the reverse shake actuator 4.
[0018]
FIG. 3 is a diagram illustrating a configuration of the front vehicle shake detection unit 11. As shown in FIG. 3, the front vehicle shake detection unit 11 includes a front vehicle detection unit 21 and a motion vector detection unit 22. An image based on the image data captured by the imaging unit 2 and input to the front vehicle motion detection unit 11 is, for example, an image as shown in FIG. As an image, a road, vehicles traveling on the road, buildings located on both sides of the road, and the like are captured. Among them, the front vehicle detection unit 21 first detects a plurality of vehicles traveling on the road, and detects a vehicle that is located in the central portion of the image in the left-right direction and occupies the largest area as a front vehicle. .
[0019]
The motion vector detection unit 22 detects the detected motion vector of the preceding vehicle. The detected motion vector is assumed to be a shake of the front vehicle, and the shake is considered to be received from the road surface. The motion of the front vehicle may be detected by detecting the full screen motion from the image obtained by the imaging unit 2 and paying attention to a motion vector different from the full screen motion.
[0020]
Image data similar to the image data input to the front vehicle motion detection unit 11 (for example, image data that is the basis of the image as shown in FIG. 4) is also input to the own vehicle motion detection unit 12. The own vehicle shake detection unit 12 detects the shake of the own vehicle from the input image data. The detection method will be described below.
[0021]
  FIG. 5 is a diagram showing an internal configuration of the own vehicle sway detection unit 12. Vehicle shake detectionPart12 includes a feature information detection unit 31 and a feature information processing unit 32. Vehicle shake detectionPartThe image data input to 12 is input to the feature information detection unit 31, feature information described later is detected, and output to the feature information processing unit 32. The feature information processing unit 32 calculates shaking data from the input feature information.
[0022]
FIG. 6 is a block diagram illustrating a configuration of the feature information detection unit 31. The image data input to the feature information detection unit 31 is delayed by one frame by the delay unit 41 and then supplied to the frame buffer 42-1 and also to the frame buffer 42-2. The reading units 43-1 and 43-2 read image data from the corresponding frame buffers 42-1 and 42-2, respectively, according to predetermined patterns stored in the memory 44, and output them to the motion vector detection unit 45. .
[0023]
The motion vector detection unit 45 detects a motion vector from the supplied image data and outputs it to the feature information calculation unit 46. The feature information calculation unit 46 calculates feature information from the input motion vector.
[0024]
  Next, the operation of the feature information detection unit 31 shown in FIG. 6 will be described. At time t, the image data input to the feature information detection unit 31 is supplied to the delay unit 41 and the frame buffer 42-2. The frame buffer 42-2 stores the input image data for one frame. Since the delay unit 41 delays the image data by one frame, at time t, the frame buffer 42-1 stores the image data at time t-1 before time t, that is, one frame before time t. Image data is stored. flamebufferThe image data at time t-1 stored in 42-1 is framed by the reading unit 43-1.bufferThe image data at time t stored in 42-2 is read by the reading unit 43-2.
[0025]
The reading units 43-1 and 43-2 read image data of a portion corresponding to the pattern stored in the memory 44 among the image data stored in the corresponding frame buffers 42-1 and 42-2, respectively. . Here, the patterns stored in the memory 44 will be described with reference to FIG.
[0026]
FIG. 7 is a diagram illustrating an example of a pattern stored in the memory 44. Of the pixels constituting one frame, a portion not related to fluctuation, for example, in the case of image data taken by a video camera attached to a car as shown in FIG. Since it is considered that the region is not related to shaking, the pixel located at the center of the region excluding the region is set as the convergence point P. For example, 25 representative points Q (including the convergence point) are set symmetrically in the vertical and horizontal directions around the convergence point P. For each representative point Q, a block B having a predetermined number of pixels centered on the representative point Q, for example, a reference block B having 33 × 33 pixels is set. In the memory 44, the coordinates of each representative point Q in the screen of such a frame, the size of the reference block B, and the size of a search block made up of 65 × 65 pixels, for example, which are not shown, are shown in the pattern. Is remembered as
[0027]
The reading unit 43-1 includes pixel data corresponding to the above-described pattern stored in the memory 44 among the image data at the time t-1 stored in the frame buffer 42-1, that is, the coordinates of the representative point Q. Based on the size of the block B, the pixel data in each reference block B is read and output to the motion vector detection unit 45 as reference block data. Similarly, the readout unit 43-2 reads out pixel data corresponding to the pattern stored in the memory 44 from the image data at time t stored in the frame buffer 42-2, and sends it to the motion vector detection unit 45. Output as search block data.
[0028]
The motion vector detection unit 45 detects a motion vector at each representative point Q by performing block matching using the input reference block data and search block data. Therefore, in this example, 25 motion vectors are detected.
[0029]
In the present embodiment, since the purpose is to generate motion data, it is not necessary to detect motion vectors for all pixels, so only 25 motion vectors are obtained. As a result, the circuit scale can be reduced and the processing speed can be improved.
[0030]
The feature information calculation unit 46 uses the 25 motion vectors detected by the motion vector detection unit 45 and uses the horizontal component u, vertical component v, and enlargement component v of the shake as the entire frame at time t.zoom, And rotational component vrotAre calculated based on the following formula.
Horizontal component u = (1 / n) Σui  ... (1)
Vertical component v = (1 / n) Σvi  ... (2)
Expansion component vzoom= (1 / n) Σvzoomi/ Di  ... (3)
Rotational component vrot= (1 / n) Σvroti/ Di    ... (4)
The subscript i is the representative point QiIn this example, the number varies from 1 to 25. Since n is the number of representative points, it is 25 in this example.
The values obtained by the equations (1) to (4) are components u, v, v obtained from 25 motion vectors.zoom, VrotIs the average value.
[0031]
Each component u, v, v described abovezoom, VrotThe relationship will be described with reference to FIG. Representative point Q to be processediThe horizontal component of the motion vector T ofiAnd the vertical component is viAnd di is the representative point Q from the convergence point PiIt is a scalar quantity that represents the distance to. Further, (Px, Py) represents the coordinates of the convergence point P, and the coordinates (Qix, QiRepresentative point Q of y)iThe distance to is calculated.
[0032]
The component of this motion vector T (ui, Vi) Is representative point QiThis is the component when is the origin. Convergence point P and representative point Q of motion vector TiThe component in the direction parallel to the straight line connectingzoomiAnd convergence point P and representative point QiThe component in the direction orthogonal to the straight line connectingrotiAnd Also, the convergence point P and the representative point QiIs an angle formed by a straight line connecting the two and the motion vector T. At this time, vzoomiAnd vrotiIs obtained according to the following equation.
vzoomi= (Ui 2+ Vi 2)(1/2)COSθ (5)
vroti = (Ui 2+ Vi 2)(1/2)SINθ (6)
[0033]
Here, the values of 25 motion vectors are used on average to obtain each component, but each component may be weighted based on the positional relationship on the screen.
[0034]
The feature information calculation unit 46 uses the equations (1) to (4) from the motion vector output from the motion vector detection unit 45 and uses the four component data u, v, v as feature information.zoom, VrotIs calculated. Calculated four-component data u, v, vzoom, VrotIs output to the feature information processing unit 32 (FIG. 5).
[0035]
Four components are detected from the image data by the processing of the feature information detection unit 31, but here, the components are further processed by the feature information processing unit 32 into data that can be handled easily in later processing. The feature information processing unit 32 is a chair-type device provided with a plurality of actuators, and processes the data when the user feels a sense of getting on the vehicle in a pseudo manner. Of course, here, it is not intended to simulate the feeling of getting on the vehicle, so it is not necessary to process such data, but here the processed data is used. The following explanation will be given.
[0036]
Considering what force (sway) should be applied to the chair on which the audience sits when the audience has a simulated experience of riding in the vehicle. The force applied to the chair of the car includes the force to express the forward and backward inclination of the road surface when the car is running on a sloped road such as a slope, the road surface when running on a bumpy road There is a force for expressing the vertical vibration received from the vehicle, a force for expressing the horizontal inclination of the road surface when running on an inclined road surface, and the like.
[0037]
These forces can provide stimuli with the same physical meaning to the audience's chair that observes the image among the stimuli given to the car equipped with the video camera that captured the image. Force, which is referred to herein as a real stimulus. This actual stimulus becomes zero when the value is integrated.
[0038]
On the other hand, the force that expresses the centrifugal force when the car bends the curve, the force that expresses the inertial force when accelerating or decelerating, and the force that expresses the car swinging when the car curves are integrated. The value does not become zero, and it is difficult to give the same physical meaning as the stimulus given to the car due to restrictions on the distance traveled by the chair, restrictions on the direction of movement, etc. This is referred to as an alternative stimulus.
[0039]
The relationship between the force related to the actual stimulus and the alternative stimulus described above, the component of the shaking data actually applied to the audience chair, and the four components calculated by the feature information calculation unit 46 described above will be shown. Of the actual stimulation shown below, the shaking data for the road surface front-rear inclination is one of the shaking data components pitch, and can be represented by a low-frequency component of the vertical components of the motion vector. Here, since the slope of the road surface is considered to change at a slow cycle, a low frequency component is used.
[0040]
Since the inclination is considered to change at a slow cycle and is considered to be a high frequency, the fluctuation data for the vibration received from the road surface uses the high frequency component of the vertical components of the motion vector. This value is the fluctuation data component z. The fluctuation data for the left and right inclination of the road surface is one of the fluctuation data components roll, and as can be seen from FIG. 9, can be represented by a value obtained by adding the rotation component Vroti for 25 motion vectors. The shaking data for the centrifugal force at the time of the curve is one of the shaking data components roll and is represented by the horizontal component u.
[0041]
The fluctuation data for the inertial force due to acceleration / deceleration is one of the fluctuation data components pitch and is represented by a low frequency component of the differential value of the expansion component Vzoom. The reason for the low frequency component is that it is considered that no sensitive operation is required for acceleration / deceleration. The shaking data for the swing of the car at the time of the curve is a shaking data component yaw and is represented by a horizontal component u. In addition, it is because it works as the -u centrifugal force at the time of a curve as -u.
[0042]
Real stimulus
Represented component Motion data component Relationship with 4 components
Low frequency component of road pitch slope Σv
Vibration from road surface High frequency component of z-Σv
Left-right slope of the road roll -Σvrot
Alternative stimulus
Represented component Motion data component Relationship with 4 components
Centrifugal force roll u at curve
Inertial force due to acceleration / deceleration pitch dvzoomLow frequency component of / dt
Car swing when turning yaw -u
[0043]
The feature information processing unit 32 generates shaking data using the relationship described above. FIG. 10 is a block diagram illustrating a configuration of the feature information processing unit 32. Of the four components output from the feature information detector 31, the rotation component vrotIs added to the adder 51-1, the horizontal component u is added to the adder 51-2 and the sign inverter 52-1, and the vertical component v is added to the adder 51-3.zoomAre input to the adder 51-5 and the delay unit 53-3, respectively. The data output from the adder 51-1 is delayed by one clock by the delay unit 53-1 and fed back to the adder 51-1. Similarly, the data output from the adder 51-3 is also fed back to the adder 51-3 after being delayed by one clock by the delay unit 53-2.
[0044]
The data output from the delay unit 53-1 is input to the adder 51-2, and the data output from the delay unit 53-2 is input to the HPF (High Pass Filter) 54 via the sign inverter 52-2. In addition to being output, it is also output to an adder 51-4 via an LPF (Low Pass Filter) 55-1. Expanded component v input to adder 51-5zoomIs the expanded component v delayed by one clock by the delay unit 53-3zoomIs subtracted and input to the adder 51-4 via the LPF 55-2.
[0045]
Next, calculation of the shake data components roll, yaw, z, and pitch performed by the feature information processing unit 32 will be described. Rotation component v input to feature information processing unit 32rotIs input to the adder 51-1. The adder 51-1 receives the rotation component v input at time t.rotAnd the data at time t-1 one frame before output from the delay unit 53-1. The adder 51-1 thus performs the rotation component vrotIs accumulated (integrated) to obtain a rocking data component roll (Σvrot) Is calculated. However, the fluctuation data component roll expressing the right and left slope of the road surface is −Σv.rotTherefore, the adder 51-2 uses data obtained by inverting the sign of the data input from the delay unit 53-1, for the calculation.
[0046]
The fluctuation data component roll (horizontal component u) is also used to express the centrifugal force at the time of the curve. Therefore, the adder 51-2 adds the data obtained by inverting the sign of the data input from the delay unit 53-1, and the horizontal component u (subtracts the output of the delay unit 53-1 from the horizontal component u). Thus, the fluctuation data component roll is calculated.
[0047]
Since the swing data component yaw of the car swing at the time of the curve is obtained by inverting the value of the horizontal component u, the feature information processing unit 32 converts the input value of the horizontal component u into the sign inverter 52-1. Thus, the fluctuation data component yaw is calculated by inverting the sign.
[0048]
The adder 51-3 adds the vertical component v input at time t and the vertical component v at time t-1 one frame before output from the delay unit 53-2. In this way, the vertical component v is cumulatively added (integrated) in the adder 51-3. The data cumulatively added by the adder 51-3 and the delay unit 53-2 is input to the sign inverter 52-2, the sign is inverted, and only the high frequency component is extracted by the HPF 54. In this way, the fluctuation data component z expressing the vibration received from the road surface is calculated.
[0049]
Further, the data output from the delay unit 53-2 is also output to the LPF 55-1, and a low frequency component is extracted. In this way, the sway data component pitch expressing the front / rear inclination of the road surface is calculated. The shaking data component pitch is also used as a shaking data component expressing an inertial force due to acceleration / deceleration. Therefore, the fluctuation data component pitch output from the LPF 55-1 is added to the fluctuation data component pitch expressing the inertial force by the adder 51-4.
[0050]
The fluctuation data component pitch expressing the inertial force is an enlarged component v input to the feature information processing unit 32.zoomIs calculated from The enlarged component v input to the feature information processing unit 32zoomAre input to the adder 51-5 and the delay unit 53-3. The adder 51-5 receives the expanded component v input at time t.zoomt and the expanded component v at time t−1 delayed by one frame by the delay unit 53-3zoomt-1 is input. The adder 51-5 receives the enlarged component v at the input time t.zoomFrom t, the expanded component v at time t−1zoomBy subtracting t-1, the expanded component vzoomIs differentiated. Then, a low-frequency component is extracted by the LPF 55-2 from the value output from the adder 51-5, thereby calculating a sway data component pitch expressing an inertial force due to acceleration / deceleration.
[0051]
The adder 51-4 adds the value output from the LPF 55-1 and the value output from the LPF 55-2, thereby calculating the swaying data component pitch.
[0052]
As described above, since the shake data is calculated from the movement obtained from the image, it is possible to save the trouble of determining and inputting the shake data by confirming the image. Moreover, it is possible to easily generate the shake data from an image for which the shake data is not generated by using a sensor or the like.
[0053]
The shaking data relating to the shaking of the preceding vehicle detected by the preceding vehicle shaking detecting unit 11 and the shaking data relating to the shaking of the own vehicle detected by the own vehicle shaking detecting unit 12 are output to the shaking predicting unit 13. FIG. 11 is a diagram illustrating an internal configuration of the fluctuation prediction unit 13. The motion data output from the front vehicle motion detection unit 11 is input to the delay amount calculation unit 71 and the delay device 72 of the motion prediction unit 13. Similarly, the shake data output from the own vehicle shake detection unit 12 is input to the delay amount calculation unit 71, the predictor 73, and the correlation calculation unit 74.
[0054]
The delay amount calculation unit 71 calculates the delay amount T from the two input shaking data.
The graph shown in FIG. 12 (A) is related to the shake received by the front vehicle (based on the shake data output from the front vehicle shake detection unit 11), and the graph shown in FIG. This is related to the shake received by the own vehicle (based on the shake data output from the own vehicle shake detection unit 12). The shaking of the front vehicle shown in FIG. 12 (A) can be considered to be the shaking that the subject vehicle receives when the time T has elapsed. In other words, it is predicted that the shake received by the preceding vehicle will be the shake received by the own vehicle after being delayed by the delay amount T.
[0055]
From the graphs as shown in FIGS. 12A and 12B, the graph showing the relationship between the correlation coefficient R1 and the delay amount T shown in FIG. Positive constant TMINA value where the correlation coefficient R1 takes a maximum value in a range exceeding the delay amount T is defined as a delay amount T. If there is no vehicle traveling in front of the host vehicle, the shake data output from the front vehicle shake detection unit 11 and input to the delay amount calculation unit 71 is meaningless data (noise). When a graph as shown in FIG. 12C is created for such data, there is a maximum value, but the value is very small. For this reason, when there is no front vehicle, the correlation coefficient R1 becomes very small, and the information on shaking of the front vehicle is hardly used.
[0056]
The delay device 72 delays the motion data from the front vehicle motion detection unit 11 by the delay amount T from the delay amount calculation unit 71 and outputs the delayed data to the weighted addition unit 75. Here, the data output from the delay device 72 is described as a predicted value D1. As described above, when there is no front vehicle, the correlation coefficient R1 and the delay amount T are very small. Therefore, the predicted value D1 output from the delay unit 72 is emergency even if it is output to the weighted addition unit 75. Is weak. When the correlation coefficient R1 is equal to or less than a predetermined threshold, the predicted value D1 may be set as 0.
[0057]
On the other hand, the predictor 73 receives the shake data from the own vehicle shake detection unit 12, calculates a predicted value D2 from the input shake data, and outputs the calculated value D2. The predictor 73 calculates a predicted value D2 from the input shaking data based on linear prediction using the shaking data acquired in the past.
[0058]
The correlation calculation unit 74 inputs the shake data from the own vehicle shake detection unit 12 and the predicted value D2 from the predictor 73, and calculates a correlation coefficient R2. The correlation coefficient R2 indicates how close the predicted value D2 calculated using past shaking data and the shaking data currently acquired are approximate. The accuracy of the predictor 73 is shown.
[0059]
A correlation coefficient R1 from the delay amount calculation unit 71, a correlation coefficient R2 from the correlation calculation unit 74, a predicted value D1 from the delay unit 72, and a predicted value D2 from the predictor 73 are input to the weighted addition unit 75. Is done. The weighted addition unit 75 performs calculation based on the following equation (7) from these input data, and calculates prediction data to be output to the reverse oscillation generation unit 14.
Figure 0004573076
[0060]
The prediction data calculated according to the equation (7) is output to the reverse oscillation generation unit 14 (FIG. 2). The reverse oscillation generation unit 14 includes a memory (not shown) therein, and stores the characteristics of the vehicle's own vehicle weight, springs, dampers, and the like in the memory. Using the stored various data, Reverse motion data for generating reverse motion that reduces the motion of the host vehicle is generated. The reverse shake data is data for applying the same force in the opposite direction to the shake predicted by the prediction data, and is data in consideration of the vehicle weight described above.
[0061]
The reverse shake data generated by the reverse shake generation unit 14 is supplied to the reverse shake actuator 4. The reverse shake actuator 4 controls the shake of the vehicle 1 based on the supplied reverse shake data.
[0062]
In this way, by taking an image and detecting the shake of the front vehicle and the shake of the host vehicle from the image, it is possible to detect the shake more quickly and accurately. It can be reduced.
[0063]
In the above-described embodiment, in one vehicle 1, the movement of the front vehicle and the movement of the own vehicle are detected and control for reducing the fluctuation of the own vehicle is performed. 1, the same effect may be obtained. Such a case will be described below.
[0064]
As shown in FIG. 13, a case is assumed where two vehicles 1-1 and 1-2 are traveling. The vehicle 1-1 is traveling in front of the vehicle 1-2. In FIG. 13, the same parts as those already described are denoted by the same reference numerals, and the description thereof is omitted as appropriate.
An imaging unit 2 is mounted on the vehicle 1-1 and is configured to capture a front image. Image data of an image captured by the imaging unit 2 is output to the own vehicle sway detection unit 12. The own vehicle shake detection unit 12 generates shake data from the image data and outputs the generated shake data to the transmission unit 91. The transmission part 91 transmits the input shaking data with respect to the following vehicle 1-2 using transmission means, such as light and an electromagnetic wave.
[0065]
The vehicle 1-2 receives the shake data transmitted by the transmission unit 91 of the vehicle 1-1 by the reception unit 92. The shaking data received by the receiving unit 92 is output to the reverse shaking generating unit 93. The reverse shake generation unit 93 generates reverse shake data for applying the same force to the vehicle 1-2 in the reverse direction of the shake indicated by the input shake data. The reverse shake generation unit 93 generates reverse shake data in consideration of the vehicle weight of the own vehicle, features such as a spring and a damper.
[0066]
  ReverseSway generationBased on the reverse shake data generated by the unit 93, the reverse shake actuator 4 performs control for reducing the shake received by the vehicle 1-2.
[0067]
In this way, by transmitting the vibration data related to the vibration actually received by the front vehicle to the rear vehicle, in the rear vehicle, it is possible to obtain the vibration data regarding the vibration before receiving the actual vibration. As a result, it is possible to generate and control reverse oscillation data for reducing the oscillation with respect to the oscillation that will be received in advance.
[0068]
In the embodiment shown in FIG. 13, the vehicle 1-1 and the vehicle 1-2 have different configurations, but may have the same configuration. That is, as shown in FIG. 14, for both the vehicle 1-1 and the vehicle 1-2, the imaging unit 2, the own vehicle oscillation detection unit 12, the transmission unit 91, the reception unit 92, the reverse oscillation generation unit 93, and the reverse oscillation actuator 4. The sway data relating to the sway received by the vehicle is transmitted to the rear vehicle, the sway data relating to the sway received by the front vehicle is received from the front vehicle, and the sway is reduced based on the received sway data. You may make it perform control for this.
[0069]
  Further, in the embodiment shown in FIG. 13, the vehicle 1-2 is configured to control the shaking of the own vehicle only by the shaking data transmitted by the preceding vehicle, but also detects the shaking of the own vehicle. Reverse motion data may be generated in consideration of the detected motion of the host vehicle. That is, as shown in FIG. 15, by providing the imaging unit 2 and the own vehicle shake detection unit 12, it is possible to detect the shake of the own vehicle, and the receiving unit 92 receives the shake data relating to the detected shake. Using the fluctuation data of the preceding vehicle, the fluctuation prediction unit 13 generates prediction data, and using the prediction data,Reverse oscillation generator14 may generate reverse oscillation data. In the configuration shown in FIG. 15, the shake data from the own vehicle shake detection unit 12 is transmitted to another subsequent vehicle by the transmission unit 91.
[0070]
In the embodiment described above, the shaking data is generated from the image data. However, the shaking data may be generated using an acceleration sensor or the like.
[0071]
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, various functions can be executed by installing a computer in which the programs that make up the software are installed in dedicated hardware, or by installing various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.
[0072]
As shown in FIG. 16, this recording medium is distributed to provide a program to the user separately from the computer, and includes a magnetic disk 121 (including a floppy disk) on which the program is recorded, an optical disk 122 (CD- It is composed only of a package medium comprising a ROM (compact disk-read only memory), a DVD (digital versatile disk), a magneto-optical disk 123 (including MD (mini-disk)), or a semiconductor memory 124. Rather, it is composed of a ROM 102 storing a program and a hard disk including a storage unit 108 provided to the user in a state of being pre-installed in a computer.
[0073]
In this specification, the steps for describing the program provided by the medium are performed in parallel or individually in accordance with the described order, as well as the processing performed in time series, not necessarily in time series. The process to be executed is also included.
[0074]
Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
[0075]
【The invention's effect】
  As aboveThe present inventionAccording to,It is possible to more reliably reduce the shaking that the vehicle receives.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of a vehicle 1 to which the present invention is applied.
FIG. 2 is a diagram for further explaining the configuration of the vehicle.
FIG. 3 is a diagram showing an internal configuration of a front vehicle fluctuation detection unit 11;
FIG. 4 is a diagram for describing an image captured by the imaging unit 2;
FIG. 5 is a diagram illustrating an internal configuration of the own vehicle sway detection unit 12;
6 is a diagram illustrating an internal configuration of a feature information detection unit 31. FIG.
7 is a diagram showing patterns stored in a memory 46. FIG.
FIG. 8 is a diagram illustrating an image to be processed.
FIG. 9 is a diagram illustrating calculated vectors.
10 is a diagram showing an internal configuration of a feature information processing unit 32. FIG.
FIG. 11 is a diagram showing an internal configuration of a sway prediction unit 13;
FIG. 12 is a diagram for explaining calculation of a delay amount and a correlation coefficient.
13 is a diagram illustrating another configuration of the vehicle 1. FIG.
14 is a diagram illustrating still another configuration of the vehicle 1. FIG.
FIG. 15 is a diagram illustrating still another configuration of the vehicle.
FIG. 16 is a diagram illustrating a medium.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Vehicle, 2 Imaging part, 3 Wheel, 4 Reverse motion actuator, 5 Control part, 11 Front vehicle motion detection part, 12 Own vehicle motion detection part, 13 Motion prediction part, 14 Reverse motion production | generation part, 21 Front vehicle detection part, 22 motion vector detection unit, 71 delay amount calculation unit, 72 delay unit, 73 predictor, 74 correlation calculation unit, 75 weighted addition unit, 91 transmission unit, 92 reception unit

Claims (12)

車両に搭載され、前記車両の進行方向の画像を撮像する撮像手段と、
前記撮像手段により撮像された前記画像の画像データから、前記車両の前方を走行する他の車両の第1の動揺を検出する第1の検出手段と、
前記撮像手段により撮像された前記画像の画像データから、前記車両が受けた第2の動揺を検出する第2の検出手段と、
前記第1の検出手段により検出された前記第1の動揺と前記第2の検出手段により検出された前記第2の動揺から、前記車両が受けるであろう第3の動揺を予測する予測手段と、
前記予測手段による予測に基づき、前記車両の動揺を制御する制御手段と
を備え、
前記予測手段は、
所定の時刻に得られた前記第1の動揺と、検出されている前記第2の動揺の類似度を表す第1の相関係数を算出し、前記第1の相関係数が最大値となるときに、前記第1の動揺が取得されてからの時間を遅延量として算出する第1の算出手段と、
前記遅延量だけ前記第1の動揺を遅延し、第1の予測値として出力する第1の予測値出力手段と、
過去に取得されている第2の動揺を用いた線形予測に基づき、前記第2の検出手段により検出された前記第2の動揺から、第2の予測値を出力する第2の予測値出力手段と、
前記第2の検出手段により検出された前記第2の動揺と前記第2の予測値との近似の度合いを第2の相関係数として算出する第2の算出手段と、
前記第1の相関係数、前記第1の予測値、前記第2の予測値、および前記第2の相関係数を用いて、前記第3の動揺を予測した予測データを生成する生成手段と
を備える
情報処理装置。
An imaging means mounted on a vehicle for capturing an image of the traveling direction of the vehicle;
First detection means for detecting a first sway of another vehicle traveling in front of the vehicle from image data of the image taken by the imaging means;
Second detection means for detecting second shaking received by the vehicle from image data of the image taken by the imaging means;
Prediction means for predicting a third shake that the vehicle will receive from the first shake detected by the first detection means and the second shake detected by the second detection means; ,
Control means for controlling the shaking of the vehicle based on the prediction by the prediction means,
The prediction means includes
A first correlation coefficient representing the similarity between the first fluctuation obtained at a predetermined time and the detected second fluctuation is calculated , and the first correlation coefficient becomes the maximum value. Sometimes, a first calculation means for calculating a time after the first shake is acquired as a delay amount ;
A first predicted value output means for delaying the first fluctuation by the delay amount and outputting the first predicted value as a first predicted value;
Second predicted value output means for outputting a second predicted value from the second fluctuation detected by the second detection means based on linear prediction using the second fluctuation acquired in the past. When,
Second calculating means for calculating, as a second correlation coefficient, a degree of approximation between the second fluctuation detected by the second detecting means and the second predicted value;
Generating means for generating prediction data in which the third fluctuation is predicted using the first correlation coefficient, the first prediction value, the second prediction value, and the second correlation coefficient; An information processing apparatus.
前記生成手段は、前記予測データを、次式に基づき算出する
予測データ=(第1の予測値)×(第1の相関係数/(第1の相関係数+第2の相関係数))+(第2の予測値)×(第2の相関係数/(第1の相関係数+第2の相関係数))
請求項1に記載の情報処理装置。
The generation means calculates the prediction data based on the following formula: prediction data = (first prediction value) × (first correlation coefficient / (first correlation coefficient + second correlation coefficient) ) + (Second predicted value) × (second correlation coefficient / (first correlation coefficient + second correlation coefficient))
The information processing apparatus according to claim 1.
前記第1の検出手段は、前記画像から、前記画像の左右方向に対する中心部分に位置し、最も大きい領域を占める車両を検出し、その検出された車両の動きベクトルを検出することで、前記第1の動揺を検出する
請求項1に記載の情報処理装置。
The first detection means detects, from the image, a vehicle that is located in a central portion with respect to the left-right direction of the image and occupies the largest area, and detects a motion vector of the detected vehicle. The information processing apparatus according to claim 1, wherein the fluctuation of 1 is detected.
前記第2の検出手段は、
前記画像データを1フレーム分だけ遅延する遅延手段と、
前記遅延手段により遅延された前記画像データを記憶する第1の記憶手段と、
前記画像データを記憶する第2の記憶手段と、
前記第1の記憶手段に記憶されている第1の画像データと、前記第2の記憶手段に記憶されている第2の画像データから、それぞれ読み出す部分に関するパターンを記憶している第3の記憶手段と、
前記第1の記憶手段に記憶されている前記第1の画像データから、前記パターンに対応する部分の前記第1の画像データを読み出し、参照ブロックのデータとして出力する第1の読み出し手段と、
前記第2の記憶手段に記憶されている前記第2の画像データから、前記パターンに対応する部分の前記第2の画像データを読み出し、探索ブロックのデータとして出力する第2の読み出し手段と、
前記参照ブロックのデータと前記探索ブロックのデータを用いて、ブロックマッチングの処理を実行し、動きベクトルを検出する動きベクトル検出手段と、
前記動きベクトル検出手段により検出された前記動きベクトルを用いて、前記画像の全体としての動揺の水平成分、垂直成分、拡大成分、および回転成分の合計4成分のデータをそれぞれ算出し、前記第2の動揺とする成分算出手段と
を備える請求項1に記載の情報処理装置。
The second detection means includes
Delay means for delaying the image data by one frame;
First storage means for storing the image data delayed by the delay means;
Second storage means for storing the image data;
A third memory storing patterns relating to portions to be read from the first image data stored in the first storage means and the second image data stored in the second storage means, respectively. Means,
First reading means for reading out the first image data of a portion corresponding to the pattern from the first image data stored in the first storage means, and outputting the data as reference block data;
Second reading means for reading out the second image data of a portion corresponding to the pattern from the second image data stored in the second storage means, and outputting it as search block data;
Motion vector detection means for executing a block matching process using the reference block data and the search block data, and detecting a motion vector;
Using the motion vector detected by the motion vector detecting means, the data of a total of four components of the horizontal component, the vertical component, the enlarged component, and the rotational component of the entire motion of the image are calculated , and the second The information processing apparatus according to claim 1, further comprising: a component calculation unit configured to sway the movement .
前記パターンは、1フレームを構成する画素のなかで、動揺に関係のない部分が取り除かれた領域の中心に位置する画素が収束点とされ、その収束点が中心とされた上下左右に対称な位置の代表点が設定され、それらの各代表点毎に、その代表点が中心に位置する所定の画素数からなるブロックが設定されることにより設定されたパターンである
請求項4に記載の情報処理装置。
In the pattern, a pixel located in the center of a region from which a portion unrelated to fluctuation is removed among pixels constituting one frame is defined as a convergence point, and the pattern is symmetrical vertically and horizontally about the convergence point. 5. The information according to claim 4, wherein a representative point of a position is set, and a block having a predetermined number of pixels centered on the representative point is set for each representative point. Processing equipment.
前記成分算出手段で算出された前記4成分から、前記画像データが撮影されたときと物理的意味合いが同じ形で刺激を与えることができる力を制御するための実刺激動揺データと、物理的意味合いが同じ形で刺激を与えることが困難な力を制御するための代替刺激動揺データを生成する動揺データ生成手段をさらに備え、
前記実刺激動揺データは、路面の前後の傾きを表す傾き成分のデータ、前記路面から受ける振動を表す成分のデータ、および前記路面の左右の傾きを表す成分のデータから構成され、
前記代替刺激動揺データは、カーブ時に受ける遠心力を表す成分のデータ、加減速による慣性力を表す成分のデータ、およびカーブ時の車両の首振りを表す成分のデータから構成され、
前記路面の傾きを表す成分のデータは、前記垂直成分が累積加算された値の低周波成分から生成され、
前記路面から受ける振動を表す成分のデータは、前記垂直成分が累積加算された値の高周波成分から生成され、
前記路面の左右の傾きを表す成分のデータは、前記回転成分が累積加算された値の符号を反転することで生成され、
前記カーブ時に受ける遠心力を表す成分のデータは、前記水平成分と同じデータとされ、
前記加減速による慣性力を表す成分のデータは、前記拡大成分を微分した値の低周波成分から生成され、
前記カーブ時の車両の首振りを表す成分のデータは、前記水平成分の符号を反転することで生成される
請求項4に記載の情報処理装置。
From the four components calculated by the component calculation means, actual stimulus fluctuation data for controlling the force capable of giving a stimulus in the same physical meaning as when the image data was taken, and physical meaning Further comprising motion data generating means for generating alternative stimulus motion data for controlling forces that are difficult to apply in the same form,
The actual stimulus sway data is composed of slope component data representing the front and back slope of the road surface, component data representing the vibration received from the road surface, and component data representing the left and right slope of the road surface,
The alternative stimulation fluctuation data is composed of component data representing centrifugal force received during a curve, component data representing inertial force due to acceleration / deceleration, and component data representing vehicle swing during a curve,
The component data representing the slope of the road surface is generated from the low frequency component of the value obtained by cumulatively adding the vertical component,
The component data representing the vibration received from the road surface is generated from the high frequency component of the value obtained by cumulatively adding the vertical component,
The data of the component representing the left and right inclination of the road surface is generated by inverting the sign of the value obtained by cumulatively adding the rotation component,
The component data representing the centrifugal force received during the curve is the same data as the horizontal component,
Data of the component representing the inertial force due to the acceleration / deceleration is generated from a low frequency component of a value obtained by differentiating the expansion component,
The information processing apparatus according to claim 4, wherein the component data representing the swing of the vehicle at the time of the curve is generated by inverting the sign of the horizontal component.
車両に搭載され、前記車両の進行方向の画像を撮像する撮像手段を備える情報処理装置の情報処理方法において、
前記撮像手段により撮像された前記画像の画像データから、前記車両の前方を走行する他の車両の第1の動揺を検出し、
前記撮像手段により撮像された前記画像の画像データから、前記車両が受けた第2の動揺を検出し、
前記第1の動揺と前記第2の動揺から、前記車両が受けるであろう第3の動揺を予測し、
その予測に基づき、前記車両の動揺を制御する
ステップを含み、
前記予測は、
所定の時刻に得られた前記第1の動揺と、検出されている前記第2の動揺の類似度を表す第1の相関係数を算出し、前記第1の相関係数が最大値となるときに、前記第1の動揺が取得されてからの時間を遅延量として算出し
前記遅延量だけ前記第1の動揺を遅延し、第1の予測値として算出し、
過去に取得されている第2の動揺を用いた線形予測に基づき、前記第2の動揺から、第2の予測値を算出し、
前記第2の動揺と前記第2の予測値との近似の度合いを第2の相関係数として算出し、
前記第1の相関係数、前記第1の予測値、前記第2の予測値、および前記第2の相関係数を用いて、前記第3の動揺を予測した予測データを生成する
ステップを含む
情報処理方法。
In an information processing method of an information processing apparatus that is mounted on a vehicle and includes an imaging unit that captures an image of the traveling direction of the vehicle
From the image data of the image captured by the imaging means, a first shake of another vehicle traveling in front of the vehicle is detected,
From the image data of the image picked up by the image pickup means, the second shake received by the vehicle is detected,
Predicting a third sway that the vehicle will experience from the first sway and the second sway;
Based on the prediction, including the step of controlling the shaking of the vehicle,
The prediction is
A first correlation coefficient representing the similarity between the first fluctuation obtained at a predetermined time and the detected second fluctuation is calculated , and the first correlation coefficient becomes the maximum value. Sometimes, the time from when the first shake is acquired is calculated as a delay amount ,
Delaying the first shake by the amount of delay and calculating as a first predicted value;
Based on the linear prediction using the second fluctuation acquired in the past, the second prediction value is calculated from the second fluctuation,
A degree of approximation between the second fluctuation and the second predicted value is calculated as a second correlation coefficient;
Using the first correlation coefficient, the first prediction value, the second prediction value, and the second correlation coefficient to generate prediction data in which the third fluctuation is predicted. Information processing method.
車両に搭載され、前記車両の進行方向の画像を撮像する撮像手段を備える情報処理装置を制御するコンピュータが読み取り可能なプログラムを記録している記録媒体において、
前記撮像手段により撮像された前記画像の画像データから、前記車両の前方を走行する他の車両の第1の動揺を検出し、
前記撮像手段により撮像された前記画像の画像データから、前記車両が受けた第2の動揺を検出し、
前記第1の動揺と前記第2の動揺から、前記車両が受けるであろう第3の動揺を予測し、
その予測に基づき、前記車両の動揺を制御する
ステップを含み、
前記予測は、
所定の時刻に得られた前記第1の動揺と、検出されている前記第2の動揺の類似度を表す第1の相関係数を算出し、前記第1の相関係数が最大値となるときに、前記第1の動揺が取得されてからの時間を遅延量として算出し
前記遅延量だけ前記第1の動揺を遅延し、第1の予測値として算出し、
過去に取得されている第2の動揺を用いた線形予測に基づき、前記第2の動揺から、第2の予測値を算出し、
前記第2の動揺と前記第2の予測値との近似の度合いを第2の相関係数として算出し、
前記第1の相関係数、前記第1の予測値、前記第2の予測値、および前記第2の相関係数を用いて、前記第3の動揺を予測した予測データを生成する
ステップを含む
処理をコンピュータに実行させるためのプログラムを記録しているコンピュータ読み取り可能な記録媒体。
In a recording medium that records a computer-readable program mounted on a vehicle and that controls an information processing apparatus that includes an imaging unit that captures an image in the traveling direction of the vehicle.
From the image data of the image captured by the imaging means, a first shake of another vehicle traveling in front of the vehicle is detected,
From the image data of the image picked up by the image pickup means, the second shake received by the vehicle is detected,
Predicting a third sway that the vehicle will experience from the first sway and the second sway;
Based on the prediction, including the step of controlling the shaking of the vehicle,
The prediction is
A first correlation coefficient representing the similarity between the first fluctuation obtained at a predetermined time and the detected second fluctuation is calculated , and the first correlation coefficient becomes the maximum value. Sometimes, the time from when the first shake is acquired is calculated as a delay amount ,
Delaying the first shake by the amount of delay and calculating as a first predicted value;
Based on the linear prediction using the second fluctuation acquired in the past, the second prediction value is calculated from the second fluctuation,
A degree of approximation between the second fluctuation and the second predicted value is calculated as a second correlation coefficient;
Using the first correlation coefficient, the first prediction value, the second prediction value, and the second correlation coefficient to generate prediction data in which the third fluctuation is predicted. A computer-readable recording medium recording a program for causing a computer to execute processing.
車両に搭載され、前記車両の進行方向の画像を撮像する撮像手段と、
前記車両の前方を走行する他の車両の第1の動揺を受信する受信手段と、
前記撮像手段により撮像された前記画像の画像データから、前記車両が受けた第2の動揺を検出する検出手段と、
前記受信手段により受信された前記第1の動揺と前記検出手段により検出された前記第2の動揺から、前記車両が受けるであろう第3の動揺を予測する予測手段と、
前記予測手段による予測に基づき、前記車両の動揺を制御する制御手段と
を備え、
前記予測手段は、
所定の時刻に得られた前記第1の動揺と、検出されている前記第2の動揺の類似度を表す第1の相関係数を算出し、前記第1の相関係数が最大値となるときに、前記第1の動揺が取得されてからの時間を遅延量として算出する第1の算出手段と、
前記遅延量だけ前記第1の動揺を遅延し、第1の予測値として出力する第1の予測値出力手段と、
過去に取得されている動揺データを用いた線形予測に基づき、前記第2の動揺から、第2の予測値を出力する第2の予測値出力手段と、
前記第2の動揺と前記第2の予測値との近似の度合いを第2の相関係数として算出する第2の算出手段と、
前記第1の相関係数、前記第1の予測値、前記第2の予測値、および前記第2の相関係数を用いて、前記第3の動揺を予測した予測データを生成する生成手段と
を備える
情報処理装置。
An imaging means mounted on a vehicle for capturing an image of the traveling direction of the vehicle;
Receiving means for receiving a first shake of another vehicle traveling in front of the vehicle;
Detecting means for detecting second shaking received by the vehicle from image data of the image picked up by the image pickup means;
From said second upset detected by the received first upset and said detecting means by the receiving means, prediction means for predicting a third upset would the vehicle is subjected,
Control means for controlling the shaking of the vehicle based on the prediction by the prediction means,
The prediction means includes
A first correlation coefficient representing the similarity between the first fluctuation obtained at a predetermined time and the detected second fluctuation is calculated , and the first correlation coefficient becomes the maximum value. Sometimes, a first calculation means for calculating a time after the first shake is acquired as a delay amount ;
A first predicted value output means for delaying the first fluctuation by the delay amount and outputting the first predicted value as a first predicted value;
Second predicted value output means for outputting a second predicted value from the second fluctuation based on linear prediction using fluctuation data acquired in the past;
Second calculating means for calculating a degree of approximation between the second fluctuation and the second predicted value as a second correlation coefficient;
Generating means for generating prediction data in which the third fluctuation is predicted using the first correlation coefficient, the first prediction value, the second prediction value, and the second correlation coefficient; An information processing apparatus.
前記検出手段で検出された前記第2の動揺を送信する送信手段を
さらに備える請求項9に記載の情報処理装置。
The information processing apparatus according to claim 9, further comprising a transmission unit that transmits the second shake detected by the detection unit.
車両に搭載され、前記車両の進行方向の画像を撮像する撮像手段と、前記車両の前方を走行する他の車両の第1の動揺を受信する受信手段を備える情報処理装置の情報処理方法において、
前記撮像手段により撮像された前記画像の画像データから、前記車両が受けた第2の動揺を検出し、
前記受信手段により受信された前記第1の動揺と検出された前記第2の動揺から、前記車両が受けるであろう第3の動揺を予測し
その予測に基づき、前記車両の動揺を制御する
ステップを含み、
前記予測は、
所定の時刻に得られた前記第1の動揺と、検出されている前記第2の動揺の類似度を表す第1の相関係数を算出し、前記第1の相関係数が最大値となるときに、前記第1の動揺が取得されてからの時間を遅延量として算出し
前記遅延量だけ前記第1の動揺を遅延し、第1の予測値として算出し、
過去に取得されている第2の動揺を用いた線形予測に基づき、前記第2の動揺から、第2の予測値を算出し、
前記第2の動揺と前記第2の予測値との近似の度合いを第2の相関係数として算出し、
前記第1の相関係数、前記第1の予測値、前記第2の予測値、および前記第2の相関係数を用いて、前記第3の動揺を予測した予測データを生成する
ステップを含む
情報処理方法。
In an information processing method for an information processing apparatus, comprising: an imaging unit that is mounted on a vehicle and that captures an image of the traveling direction of the vehicle; and a reception unit that receives a first shake of another vehicle traveling in front of the vehicle.
From the image data of the image picked up by the image pickup means, the second shake received by the vehicle is detected,
Predicting a third shake that the vehicle will receive from the first shake detected by the receiving means and the detected second shake, and controlling the shake of the vehicle based on the prediction. Including
The prediction is
A first correlation coefficient representing the similarity between the first fluctuation obtained at a predetermined time and the detected second fluctuation is calculated , and the first correlation coefficient becomes the maximum value. Sometimes, the time from when the first shake is acquired is calculated as a delay amount ,
Delaying the first shake by the amount of delay and calculating as a first predicted value;
Based on the linear prediction using the second fluctuation acquired in the past, the second prediction value is calculated from the second fluctuation,
A degree of approximation between the second fluctuation and the second predicted value is calculated as a second correlation coefficient;
Using the first correlation coefficient, the first prediction value, the second prediction value, and the second correlation coefficient to generate prediction data in which the third fluctuation is predicted. Information processing method.
車両に搭載され、前記車両の進行方向の画像を撮像する撮像手段と、前記車両の前方を走行する他の車両の第1の動揺を受信する受信手段を備える情報処理装置を制御するコンピュータが読み取り可能なプログラムを記録している記録媒体において、
前記撮像手段により撮像された前記画像の画像データから、前記車両が受けた第2の動揺を検出し、
前記受信手段により受信された前記第1の動揺と検出された前記第2の動揺から、前記車両が受けるであろう第3の動揺を予測し
その予測に基づき、前記車両の動揺を制御する
ステップを含み、
前記予測は、
所定の時刻に得られた前記第1の動揺と、検出されている前記第2の動揺の類似度を表す第1の相関係数を算出し、前記第1の相関係数が最大値となるときに、前記第1の動揺が取得されてからの時間を遅延量として算出し
前記遅延量だけ前記第1の動揺を遅延し、第1の予測値として算出し、
過去に取得されている第2の動揺を用いた線形予測に基づき、前記第2の動揺から、第2の予測値を算出し、
前記第2の動揺と前記第2の予測値との近似の度合いを第2の相関係数として算出し、
前記第1の相関係数、前記第1の予測値、前記第2の予測値、および前記第2の相関係数を用いて、前記第3の動揺を予測した予測データを生成する
ステップを含む
処理をコンピュータに実行させるためのプログラムを記録しているコンピュータ読み取り可能な記録媒体。
A computer that controls an information processing device mounted on a vehicle and that includes an imaging unit that captures an image of the traveling direction of the vehicle and a reception unit that receives a first shake of another vehicle traveling in front of the vehicle is read. In a recording medium recording a possible program,
From the image data of the image picked up by the image pickup means, the second shake received by the vehicle is detected,
Predicting a third shake that the vehicle will receive from the first shake detected by the receiving means and the detected second shake, and controlling the shake of the vehicle based on the prediction. Including
The prediction is
A first correlation coefficient representing the similarity between the first fluctuation obtained at a predetermined time and the detected second fluctuation is calculated , and the first correlation coefficient becomes the maximum value. Sometimes, the time from when the first shake is acquired is calculated as a delay amount ,
Delaying the first shake by the amount of delay and calculating as a first predicted value;
Based on the linear prediction using the second fluctuation acquired in the past, the second prediction value is calculated from the second fluctuation,
A degree of approximation between the second fluctuation and the second predicted value is calculated as a second correlation coefficient;
Using the first correlation coefficient, the first prediction value, the second prediction value, and the second correlation coefficient to generate prediction data in which the third fluctuation is predicted. A computer-readable recording medium recording a program for causing a computer to execute processing.
JP2000229895A 2000-07-28 2000-07-28 Information processing apparatus and method, and recording medium Expired - Fee Related JP4573076B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000229895A JP4573076B2 (en) 2000-07-28 2000-07-28 Information processing apparatus and method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000229895A JP4573076B2 (en) 2000-07-28 2000-07-28 Information processing apparatus and method, and recording medium

Publications (2)

Publication Number Publication Date
JP2002036843A JP2002036843A (en) 2002-02-06
JP4573076B2 true JP4573076B2 (en) 2010-11-04

Family

ID=18722932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000229895A Expired - Fee Related JP4573076B2 (en) 2000-07-28 2000-07-28 Information processing apparatus and method, and recording medium

Country Status (1)

Country Link
JP (1) JP4573076B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4552433B2 (en) * 2003-12-18 2010-09-29 日産自動車株式会社 Road surface shape detection apparatus and road surface shape detection method
JP5101133B2 (en) * 2007-02-27 2012-12-19 三菱重工業株式会社 Automated traveling vehicle and tracking system
JP5092695B2 (en) * 2007-11-01 2012-12-05 トヨタ自動車株式会社 Vehicle vibration suppression control device
JP4962272B2 (en) * 2007-11-01 2012-06-27 トヨタ自動車株式会社 Vehicle vibration suppression control device
JP2013171530A (en) * 2012-02-22 2013-09-02 Toyota Central R&D Labs Inc Jolt prediction device and program therefor

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2725446B2 (en) * 1990-07-13 1998-03-11 日産自動車株式会社 Vibration component detection image processing device
JPH0575913A (en) * 1991-09-13 1993-03-26 Matsushita Electric Ind Co Ltd Motion vector detecting circuit and jiggling correcting circuit
JPH05262113A (en) * 1992-03-18 1993-10-12 Fujitsu Ten Ltd Vehicle suspension controller
JP3296055B2 (en) * 1993-10-28 2002-06-24 三菱自動車工業株式会社 Distance detection device using in-vehicle camera
JPH0951309A (en) * 1995-08-04 1997-02-18 Omron Corp Inter vehicle communication system
JP4112034B2 (en) * 1996-11-26 2008-07-02 トヨタ自動車株式会社 Vehicle control device
JPH1123291A (en) * 1997-07-04 1999-01-29 Nissan Motor Co Ltd Picture processing device for car
DE19738608C1 (en) * 1997-09-04 1998-07-16 Bosch Gmbh Robert Running gear regulation arrangement for vehicle ride regulation
JP4046905B2 (en) * 1999-08-27 2008-02-13 本田技研工業株式会社 Inter-vehicle distance measuring device

Also Published As

Publication number Publication date
JP2002036843A (en) 2002-02-06

Similar Documents

Publication Publication Date Title
US7382830B2 (en) Apparatus for generating motion control signal from image signal
JP4162910B2 (en) Approach detection device, approach detection method, and approach detection program
JP4751429B2 (en) Object tracking method
CN102549631B (en) Vehicle-surroundings monitoring device
JP6573193B2 (en) Determination device, determination method, and determination program
JP2009510558A (en) Method and apparatus for tracking the movement of an object or person
JP2017100705A (en) Predictive suspension control for vehicle using stereo camera sensor
WO2015025897A1 (en) Object estimation device and object estimation method
CN107924573A (en) Image processing apparatus, image processing method and program
JP4573076B2 (en) Information processing apparatus and method, and recording medium
JPH1123291A (en) Picture processing device for car
Amanatiadis et al. Image stabilization in active robot vision
JP4649712B2 (en) Information processing apparatus and method, information processing system, and recording medium
JP3951734B2 (en) Vehicle external recognition device
JP2005346387A (en) Apparatus and method for detecting mobile object
JP2019033408A (en) Imaging apparatus and control method therefor
JP4433581B2 (en) Information processing apparatus and method, and recording medium
KR101199940B1 (en) Apparatus for image tracking
WO2021181864A1 (en) Object detection device
JP4427699B2 (en) Information processing apparatus and method, and swing presentation system
JP4244887B2 (en) Moving position prediction apparatus, moving position prediction method, collision determination apparatus, and collision determination method
JP7460867B2 (en) Estimation device, estimation method, and program
JP2551324B2 (en) Method and device for recognizing environment of moving vehicle
WO2023223704A1 (en) Information processing device, information processing method, and program
JP7257116B2 (en) Posture identification method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100722

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100804

R151 Written notification of patent or utility model registration

Ref document number: 4573076

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees