JP4034548B2 - Image creation device - Google Patents
Image creation device Download PDFInfo
- Publication number
- JP4034548B2 JP4034548B2 JP2001347623A JP2001347623A JP4034548B2 JP 4034548 B2 JP4034548 B2 JP 4034548B2 JP 2001347623 A JP2001347623 A JP 2001347623A JP 2001347623 A JP2001347623 A JP 2001347623A JP 4034548 B2 JP4034548 B2 JP 4034548B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- display image
- steering angle
- image
- main memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、画像作成装置に関し、より特定的には、車載の撮像装置から得られる撮影画像を基礎として、車両の運転支援用の画像を作成する画像作成装置に関する。
【0002】
【従来の技術】
従来から、上述のような画像作成装置が盛んに研究・開発されている。このような画像作成装置として、本従来の技術の節では、特開昭59−114139号公報のモニター装置について説明する。このモニター装置において、車載のカメラは、自車両の後方の光景を撮影した画像(以下、撮影画像と称す)を作成する。CPUは、操舵角センサからの操舵角に基づいて、自車両がこれから辿ると想定される予想走行軌跡を示す図形(以下、単に予想走行軌跡と称する)を作成する。作成した予想走行軌跡を、CPUは撮影画像に重畳して、表示画像を作成する。以上の表示画像を、表示装置は受け取り表示する。
【0003】
今、ドライバが実際に車両を駐車スペースに入れる場面を想定する。ここで、図30は、駐車開始時から駐車終了時までに、上述の表示装置に表示される4フレーム分の表示画像Id1〜Id4を示す模式図である。図30において、表示画像Id1は、駐車開始時(時刻td1とする)に表示装置に表示される。さらに、表示画像Id2は、時刻td1よりも後の時刻td2に、表示画像Id3は、時刻td3よりも後の時刻td3に表示される。また、表示画像Id4は、時刻td3より後でありかつ自車両と駐車スペースの向きが揃う時刻td4に表示される。以上の表示画像Id1〜Id4のいずれにも、上述の予想走行軌跡ETが重畳される。また、予想走行軌跡ETはいずれも、時刻td1〜td4での自車両の操舵角から決まり、表示画像Id1〜Id4における車両Mから予め定められた長さを有する。以上の表示画像Id1〜Id4を見ることで、ドライバは、現在のハンドル操作で、自車両がこれからどのように進むかを確認できる。
【0004】
【発明が解決しようとする課題】
次に、以上のモニター装置が抱えている問題点について説明する。駐車時において、大抵のドライバは、最初に、自車両を駐車スペースに入れやすい場所(以下、初期位置と称する)に移動させ、その後、駐車スペースに向けて自車両を移動させる。自車両の移動中、ドライバは、駐車スペースにおける停止位置に自車両が正しく向かっているかどうか気になるものである。しかしながら、従来の表示画像(図30参照)は、現在のハンドル操作で自車両が辿ると想定される軌跡のみを示す。従って、ハンドル操作を誤った場合、予想走行軌跡は、駐車スペースから外れてしまう。このような場合、ドライバは、どの程度ハンドル操作を修正すれば、自車両が停止位置に向かうかが理解しづらいという問題点があった。
【0005】
それ故に、本発明は、自車両が停止位置に正しく向かっているか否かを理解しやすい画像を作成する画像作成装置を提供することを目的とする。
【0006】
【課題を解決するための手段および発明の効果】
本発明の第1の局面は、車両の運転支援のための画像作成装置に向けられている。本発明は、車両に設置された撮像装置と、車両の操舵角を検出する操舵角センサと、撮像装置で撮像された画像、および、操舵角センサで検出された操舵角にもとづいて表示画像を作成するプロセッサと、複数の操舵角に割り当てられた、当該操舵角を保った状態で前記車両が辿ると想定される軌跡の形状を特定する図形データである複数のオブジェクトを格納するメインメモリと、プロセッサによって作成された表示画像を表示する表示装置と、車両のドライバの操作入力を受付ける入力装置とを備え、プロセッサは、予め定められた操舵角に割り当てられたオブジェクトをメインメモリの中から選択し、撮像装置によって撮像された画像が表す光景に、重畳して初期表示画像を作成し、表示装置は、初期表示画像を表示し、入力装置が、前記車両の移動により前記初期表示画像に表示されたオブジェクトが車両の現在位置から停止位置までの最適な軌跡を表す最適軌跡であることを示す情報の入力を、前記ドライバから受付けると、プロセッサは、入力装置で入力を受付けた情報に基づいて、初期表示画像に表示されたオブジェクトを最適軌跡として決定し、操舵角センサで検出された操舵角に基づいて、メインメモリに記憶されたオブジェクトを用いて、車両がこれから辿ると予想される予想走行軌跡を作成し、光景に、前記最適軌跡および前記予想走行軌跡を重畳した表示画像を、メインメモリに作成する。
【0007】
このようにすれば、予め準備されたオブジェクトを用いて、最適軌跡、及び予想走行軌跡を作成できるため、迅速に画像を作成することができる。
【0008】
また、プロセッサは、メインメモリに重畳して作成した表示画像を、自身と通信可能に接続された表示装置に転送し、表示装置は、前記メインメモリからの受信表示画像を表示することが好ましい。
【0009】
本発明の第2の局面は、車両の運転支援のための画像作成方法に向けられている。本発明は、複数の操舵角に割り当てられ、当該操舵角を保った状態で車両が辿ると想定される軌跡の形状を特定する図形データである複数のオブジェクトがメインメモリに格納されており、車両の操舵角を検出する操舵角検出ステップと、撮像装置で撮像された画像、および、操舵角検出ステップで検出された操舵角にもとづいて表示画像を作成する表示画像作成ステップと、表示画像作成ステップで作成された表示画像を表示する表示ステップと、予め定められた操舵角に割り当てられたオブジェクトをメインメモリの中から選択し、撮像装置によって撮像された画像が表す光景に、重畳して初期表示画像を作成する初期表示画像作成ステップと、初期表示画像を表示する初期表示画像表示ステップと、車両の移動により初期表示画像に表示されたオブジェクトが車両の現在位置から停止位置までの最適な軌跡を表す最適軌跡であることを示す情報の入力を、車両のドライバから受付ける最適軌跡入力ステップと、最適軌跡入力ステップで入力を受付けた前記情報に基づいて、初期表示画像に表示されたオブジェクトを前記最適軌跡として決定する最適軌跡決定ステップと、操舵角検出ステップで検出された操舵角に基づいて、メインメモリに記憶されたオブジェクトを用いて、車両がこれから辿ると予想される予想走行軌跡を作成する予想走行軌跡作成ステップと、光景に、最適軌跡および予想走行軌跡を重畳した表示画像をメインメモリに作成する作成ステップとを備える。
【0010】
このようにすれば、予め準備されたオブジェクトを用いて、最適軌跡、及び予想走行軌跡を作成できるため、迅速に画像を作成することができる。
【0011】
また、メインメモリに重畳して作成した表示画像を、自身と通信可能に接続された表示装置に転送する転送ステップと、メインメモリからの受信表示画像を表示する受信表示画像表示ステップとを備えることが好ましい。
【0012】
本発明の第3の局面は、車両の運転支援のための画像作成装置のコンピュータで実行される画像作成プログラムに向けられている。本発明は、複数の操舵角に割り当てられ、当該操舵角を保った状態で車両が辿ると想定される軌跡の形状を特定する図形データである複数のオブジェクトがメインメモリに格納されており、コンピュータに、車両の操舵角を検出する操舵角検出ステップと、撮像装置で撮像された画像、および、操舵角検出ステップで検出された操舵角にもとづいて表示画像を作成する表示画像作成ステップと、表示画像作成ステップで作成された表示画像を表示する表示ステップと、予め定められた操舵角に割り当てられたオブジェクトをメインメモリの中から選択し、撮像装置によって撮像された画像が表す光景に、重畳して初期表示画像を作成する初期表示画像作成ステップと、初期表示画像を表示する初期表示画像表示ステップと、車両の移動により初期表示画像に表示されたオブジェクトが車両の現在位置から停止位置までの最適な軌跡を表す最適軌跡であることを示す情報の入力をドライバから受付ける最適軌跡入力ステップと、最適軌跡入力ステップで入力を受付けた情報に基づいて、初期表示画像に表示されたオブジェクトを最適軌跡として決定する最適軌跡決定ステップと、操舵角検出ステップで検出された操舵角に基づいて、メインメモリに記憶されたオブジェクトを用いて、車両がこれから辿ると予想される予想走行軌跡を作成する予想走行軌跡作成ステップと、光景に、最適軌跡および予想走行軌跡を重畳した表示画像をメインメモリに作成する作成ステップと実行させる。
【0013】
このようにすれば、予め準備されたオブジェクトを用いて、最適軌跡、及び予想走行軌跡を作成できるため、迅速に画像を作成することができる。
【0014】
また、メインメモリに重畳して作成した表示画像を、自身と通信可能に接続された表示装置に転送する転送ステップと、メインメモリからの受信表示画像を表示する受信表示画像表示ステップとを実行させることが好ましい。
【0025】
【発明の実施の形態】
「第1の実施形態」
図1は、本発明の第1の実施形態に係る画像作成装置10を組み込んだ運転支援装置1のハードウェア構成を示すブロック図である。図1において、画像作成装置10は、少なくとも、プロセッサ101と、メインメモリ102と、プログラムメモリ103とから構成される。運転支援装置1は、車両M(図2参照)に搭載され、画像作成装置10以外に、入力装置11と、少なくとも1台の撮像装置12と、操舵角センサ13と、車速センサ14と、ヨーレートセンサ15と、表示装置16とを備えている。
【0026】
入力装置11は、車両Mのドライバにより操作され、本実施形態では、3つの操作ボタン111〜113から構成される。操作ボタン111には、画像表示処理(図8,図9参照)の開始機能が割り当てられている。この操作ボタン111を、ドライバは、その右斜め前方から駐車スペースへ車両Mを入れる時に操作する。この操作に応答して、入力装置11は、画像表示処理の開始を指示するための情報(以下、開始指示と称する)DSDを、プロセッサ101に出力する。また、操作ボタン112には、最適軌跡LT(図5参照)の確定機能が割り当てられている。この操作ボタン112をドライバが操作した時、入力装置11は、最適軌跡LTが確定したことを通知するための情報(以下、確定通知と称する)DNTをプロセッサ101に出力する。操作ボタン113には、画像表示処理の終了機能が割り当てられている。この操作ボタン113を、ドライバは、車両Mが駐車スペースに完全に収まった時に操作する。この操作に応答して、入力装置11は、画像表示処理の終了を指示するための情報(以下、終了指示と称する)DTDを、プロセッサ101に出力する。
【0027】
図1の撮像装置12は、図2に示すように、車両Mの両側面から等距離であって、車両Mの後端に固定される。より具体的には、撮像装置12の光軸OAが縦中心面SC 内を車両Mの後方に向かって延び、かつ当該光軸OAが路面SR と交差するように、撮像装置12は固定される。ここで、縦中心面SC は、車両Mの両前輪(または両後輪)の回転中心同士を結ぶ線分を垂直二等分する鉛直面である。以上のように固定される撮像装置12は、車両Mの後方において、自身の視野内の光景を撮影して、図3に示すような撮影画像ICPT を生成する。ここで、撮影画像ICPT には、車両Mの後端が映っていることが好ましい。
【0028】
図1の操舵角センサ13は、車両Mに取り付けられているハンドルが所定の基準位置から回転した角度(つまり、操舵角)を検出し、検出結果を示す操舵角αi をプロセッサ101に送信する。ここで、iは、1からNまでの自然数のいずれかである。Nは、運転支援装置1の設計要件に応じて決まるが、本実施形態では便宜上、奇数と仮定する。また、上述の基準位置は、好ましくは、車両Mの直進時におけるハンドルの位置である。また、本実施形態では、便宜上、操舵角α1 =−αL ,α2 =−αL +Δα,α3 =−αL +2×Δα,…,α(N-1)/2+1 =0,α(N-1) =αL −Δα,αN =αL であると仮定する。ここで、−αL およびαL は、ハンドルが左方向および右方向に最大限切れた時の操舵角であり、車両Mに固有かつ既知の値である。また、Δαは2×αL /Nである。
【0029】
車速センサ14は、車両Mの現在の走行速度(以下、単に速度と称する)Vを検出し、プロセッサ101に送信する。また、ヨーレートセンサ15は、第1のヨーレートω1 を検出し、プロセッサ101に送信する。ここで、図4は、第1のヨーレートω1 を説明するための模式図である。図4において、車両M(図示は外形線のみ)は、ある時刻t0 に、矢印A0 で示す方向に後退している。また、時刻t0 から時間Tまでの間、車両Mは、2本の点線矢印で示すように、右斜め後方に後退する。この時間Tの間に、車両Mの進行方向は、矢印A0 から矢印A1 で示す方向に変化している。今、矢印A0 およびA1 の方向同士がなす角をβとおくと、第1のヨーレートω1 は、次式(1)で表される。
ω1 =β/T…(1)
【0030】
さらに、図4を参照して、以下の説明で必要となる車両座標系について説明する。図4において、車両座標系は、X1 軸、Y1 軸およびZ1 軸からなる3次元直交座標系である。まず、Z1 軸は、車両Mの現在の重心位置PBYC を基準として鉛直方向を示す。また、X1 軸は、この重心位置PBYC を基準として車両Mの進行方向を示す。さらに、Y1 軸は、車両Mの重心位置PBYC を基準として、上述のX1 軸およびZ1 軸に垂直な方向を示す。上述の第1のヨーレートω1 は、以上のX1 軸の時間T当たりの回転量でもある。
【0031】
また、図1の表示装置16は、後で説明する表示画像IDPY (図5参照)を表示する。プロセッサ101は、上述の撮影画像ICPT を使って、表示画像IDPY を作成する。ここで、図5は、表示画像IDPY の一例を示す模式図である。図5において、表示画像IDPY は、撮影画像ICPT と、それに重畳される最適軌跡LTおよび予想走行軌跡ETとから構成される。最適軌跡LTは、好ましくは、車両Mの現在位置PCPからその停止位置PSPまでの最適な軌跡を表す図形である。また、予想走行軌跡ETは、現在の操舵角αi を保った場合に車両Mが現在位置PCPから今後辿ると想定される軌跡を表す図形である。なお、停止位置PSP、現在位置PCPについては、運転支援装置1の動作説明で詳説するので、ここではそれらの説明を省略する。
【0032】
また、図1のメインメモリ102は、主として、プロセッサ101のワーキングエリアとして使われる。特に、メインメモリ102において、表示画像IDPY そのものが作成される記憶領域をフレームメモリと称する。また、プログラムメモリ103は、典型的にはROM(Read Only Memory)から構成され、本運転支援装置1の動作に必要なソフトウェアS1 を格納する。ソフトウェアS1 は、図6に示すように、コンピュータプログラム(以下、単にプログラムと称する)C1 と、所定個数のオブジェクトBとから構成される。プログラムC1 は、本運転支援装置1の動作を規定する。各オブジェクトBは、上述の最適軌跡LTまたは予想走行軌跡ETの基礎となる。つまり、プロセッサ101は、オブジェクトBから最適軌跡LTおよび予想走行軌跡ETを作成する。ここで、上述のように、操舵角センサ13が検出できる操舵角はN個であるから、所定個数のオブジェクトBとして、N個のオブジェクトB1 〜BN が準備される。オブジェクトB1 〜BN は、操舵角α1 〜αN に割り当てられており、より具体的には、操舵角α1 〜αN を保った状態で車両Mが辿ると想定される軌跡の形状を特定する図形データである。なお、オブジェクトB(N-1)/2+1 を除くオブジェクトB1 〜BN は実質的に、部分環状(つまり、円弧状かつ帯状)のような形状を有する。しかし、操舵角α(N-1)/2+1 は0であるから、オブジェクトB(N-1)/2+1 だけは矩形状の図形となる。
【0033】
次に、図7(a)および(b)を参照して、オブジェクトBN のデータ構造を例示的に説明する。図7(a)において、オブジェクトBN は、r個(rは予め定められた自然数である)の座標値Pv1〜Pvrからなる。ここで、座標値Pv1〜Pvrは、上述の車両座標系(図4参照)の座標値である。以上の座標値Pv1〜Pvrをつなぐことで、図7(b)に示すように、操舵角αN 時の車両Mの軌跡が表現される。なお、図7(a)および(b)では、便宜上、4個の座標値Pv1、Pvj、PvkおよびPvrのみが示されている。ここで、座標値Pv1およびPvrは、車両Mの右後輪および左後輪の座標値であり、さらに、車両Mの軌跡の開始線LSTの両端を特定する。また、座標値PvjおよびPvkは、車両Mの軌跡の終端線LTMの両端を特定する。
【0034】
他のオブジェクトB1 〜B(N-1) も、操舵角α1 〜α(N-1) に応じた車両Mの軌跡の形状を、上述と同様のデータ構造で表現しているので、それらの詳細な説明を省略する。
【0035】
次に、以上の構成を有する運転支援装置1の動作を説明する。まず、運転支援装置1の電源が投入されると、プロセッサ101は、プログラムメモリ103からソフトウェアS1 をメインメモリ102に読み出す。さらに、今、車両Mは駐車スペースの右斜め前方に現在位置しており、ドライバが今からその駐車スペースに車両Mを入れようとしていると仮定する。この時、操作ボタン111がドライバにより操作され、その結果、プロセッサ101には、前述の開始指示DSDが送信される。プロセッサ101は、受信開始指示DSDに応答して、メインメモリ102上のプログラムC1 の実行、つまり画像表示処理を開始する。
【0036】
ここで、図8および図9は、プログラムC1 に記述されている運転支援装置1の動作手順を示すフローチャートである。図8において、プロセッサ101は、最初に、メインメモリ102上のオブジェクトB1 〜BN の中から、予め定められたオブジェクトBj を選択する(ステップS1)。現在、車両Mは駐車スペースの右斜め前方に位置する。このような状況では、ドライバは、車両Mを駐車スペースに入れるために、ハンドルを右方向に切る。以上のことから、ステップS1では、正の値を有する操舵角α(N-1)/2+2 〜αN のいずれかに割り当てられたオブジェクトBj が選ばれる。つまり、jは、(N−1)/2+2からNまでのいずれかの自然数である。なお、以降の実施形態では、便宜上、jはNと仮定し、さらに、ステップS1で選択されたオブジェクトBj を、選択オブジェクトBN と称する。
【0037】
次に、プロセッサ101は、撮像指示を生成し、撮像装置12に送信する。撮像装置12は、受信撮像指示に応答して、自身の視野に現在含まれる光景を表す撮影画像ICPT (図3参照)を生成して、メインメモリ102内のフレームメモリに格納する(ステップS2)。つまり、ステップS2で、画像作成装置10は撮像装置12から撮影画像ICPT を受け取る
【0038】
次に、図10に示す初期表示画像ID0が作成・表示される(ステップS3)。より具体的には、ステップS3において、まず、選択オブジェクトBN を構成する座標値Pv1〜Pvrが、プロセッサ101により、画像座標系の座標列に変換される。ここで、画像座標系は、図3に示すように、撮影画像ICPT の水平方向を示すX2 軸と、その鉛直方向を示すY2 軸とからなる。なお、このような座標変換については、例えば、国際公開WO00−07373号公報に開示されているので、ここではその詳細な説明を省略する。以上の座標変換された選択オブジェクトBN (斜線部分参照)が、フレームメモリ上の撮影画像ICPT に重畳され、これによって、図10のような初期表示画像ID0が完成する。ここで、図10にはさらに、ドライバが駐車スペースにおいて車両Mを停止させたいと考えている停止位置PSPが示されている。しかし、この停止位置PSPは、後の説明に必要になるため示されているだけであって、実際の撮影画像ICPT には重畳されない点には注意を要する。以上のようにして完成した初期表示画像ID0は、プロセッサ101の制御下で表示装置16に転送され、表示装置16は、受信初期表示画像ID0を表示する。
【0039】
次に、プロセッサ101は、入力装置11から、上述の確定通知DNTが到着しているか否かを判断する(ステップS4)。確定通知DNTが到着済であれば、プロセッサ101は、ステップS5に進み、そうでなければ、ステップS2に戻る。ここで、初めて実行されるステップS3では、単に、選択オブジェクトBN が重畳されるだけである。それゆえ、図10に示すように、初期表示画像ID0において、選択オブジェクトBN の終端線LTMは、ドライバが車両Mを停止させたいと考えている停止位置PSPを正確に示していない場合が多い。この場合、選択オブジェクトBN はまだ最適経路LTでない。そのため、ドライバは、初期表示画像ID0を見ながら、この終端線LTMが停止位置PSPに合うように、車両Mを移動させる。両者が合っていない場合には、ドライバは操作ボタン112を操作しないので、ステップS4では「No」と判断され、運転支援装置1では、ステップS1からS4までの一連の動作が繰り返される。この間、ステップS3が実行される度に、新しい初期表示画像ID0が作成され表示される。以上のことから、時間経過と共に、終端線LTMは停止位置PSPにだんだん近づいて行く。
【0040】
そして、終端線LTMが停止位置PSPに合った時、図11に示すように、初期表示画像ID0において、選択オブジェクトBN は、車両Mの現在位置PCPから停止位置PSPまでの最適経路LTを表す。ここで、以下の説明では、終端線LTMが停止位置PSPに合った時の車両Mの現在位置PCPを駐車開始位置Pstと称する。この時点で、ドライバは初めて、操作ボタン112を操作し、これによって、入力装置11からは、前述の確定通知DNTがプロセッサ101に送信される。上述のステップS4の実行時に確定通知DNTが到着済であれば、プロセッサ101は、選択オブジェクトBN を最適軌跡LTとして決定し、メインメモリ102で保持する(ステップS5)。また、ドライバは、操作ボタン112の操作後、車両Mを駐車開始位置Pstから停止位置PSPに向けて移動させ始める。
【0041】
次に、プロセッサ101は、初期設定を行う(ステップS6)。より具体的には、まず、プロセッサ101は、ステップS6の実行時刻を、基準時刻tREF として設定する。さらに、プロセッサ101は、車両Mの第2のヨーレートω2 を初期値ω20に設定し、車両Mの現在位置PCPを初期位置P0 に設定する。
【0042】
以上の基準時刻tREF の設定により、ワールド座標系が定義される。次に、図12を参照して、ワールド座標系について説明する。図12において、ワールド座標系は、基準時刻tREF での車両Mの重心位置PBYC を原点として有し、X3 軸、Y3 軸およびZ3 軸からなる3次元直交座標系である。X3 軸は、原点を基準として車両Mの進行方向を示す。Z3 軸は、原点を基準として鉛直方向を示す。Y3 軸は、上述のX3 軸およびZ3 軸に直交する。以上のワールド座標系は、前述の車両座標系と比較すると、以下の点で相違する。つまり、車両座標系は、図4に示すように車両Mと共に移動するが、ワールド座標系は、基準時刻tREF での車両Mの重心位置PBYC で固定される。つまり、ワールド座標系は、車両Mが移動しても移動しない。
【0043】
次に、図12を参照して、第2のヨーレートω2 を説明する。図12において、車両Mは、基準時刻tREF に、上述のX3 軸方向に後退している。また、基準時刻tREF から現在時刻tCPまでの間、車両Mは、2本の点線矢印で示すように、右斜め後方に後退する。この間に、車両Mの進行方向は、X3 軸方向から矢印A2 の方向に変化している。今、現在時刻tCPでの車両Mの重心位置PBYC からX3 軸と平行な補助線La2を引く。さらに、補助線La2および矢印A2 の方向がなす角をγとおくと、第2のヨーレートω2 は、次式(2)で表される。
ω2 =γ/(tCP−tREF )…(2)
なお、第1のヨーレートω1 が車両座標系上での車両Mのヨーレートであるのに対して、以上の第2のヨーレートω2 は、ワールド座標系上でのものである点で相違する。また、上述の初期値ω20は、基準時刻tREF での第2のヨーレートω2 であり、0である。
【0044】
また、現在位置PCPは、現在時刻tCPでの車両Mの重心位置PBYC であり、ワールド座標系の座標値(xCP,yCP,zCP)で表される。また、初期位置P0 は、基準時刻tREFでの車両Mの重心位置PBYC であり、ワールド座標系の座標値(xCP0 ,yCP0 ,zCP0 )で表される。つまり、初期位置P0 は、ワールド座標系の原点であるから、(0,0,0)となる。
【0045】
次に、プロセッサ101は、ステップS1と同様にして、撮像装置12から撮影画像ICPT を受け取る(図8;ステップS7)。次に、プロセッサ101は、操舵角センサ13、車速センサ14およびヨーレートセンサ15から、車両Mの操舵角αi 、速度Vおよび第1のヨーレートω1 を受け取る(ステップS8〜10)。
【0046】
次に、プロセッサ101は、受信した速度Vおよび第1のヨーレートω1 を使って、車両Mの移動量TAを求める(ステップS11)。より具体的には、プロセッサ101はまず、受信した第1のヨーレートω1 を次式(3)に代入して、第2のヨーレートω2 を算出する。なお、プロセッサ101が上式(2)を使えないのは、本実施形態では、角度γを検出することができないからである。
【数1】
次に、プロセッサ101は、算出した第2のヨーレートω2 および受信した速度Vを次式(4)および(5)に代入して、座標値xCPおよびyCPを算出する。なお、本実施形態では、座標値zCPは、時間に対して一定値(つまり、zCP0 )とみなせるので、算出しない。
【数2】
上式(4)および(5)において、δは車両Mの重心の横滑り角であり、駐車時のように車両Mが低速走行している場合には、0とみなせる。座標値xCPおよびyCPの算出後、プロセッサ101は、初期位置P0 から現在位置Pまでの移動量TA(xCP−xCP0 ,yCP−yCP0 )を算出する。
【0047】
ステップS11の次に、プロセッサ101は、以上の移動量TAを使って、現在保持している最適軌跡LTを変形して、現在の最適軌跡LTを作成し保持する(ステップS12)。より具体的には、車両Mは基準時刻tREF から現在時刻tCPの間に上述の移動量TAだけ移動している。最適軌跡LTは、上述のように、現在位置PCPから始まる性質を有するから、保持中の最適軌跡LTにおいて、この移動量TAに相当する分は不必要となる。
【0048】
例えば、図13に示すように、基準時刻tREF の時点では、最適軌跡LT(選択オブジェクトBN )の開始線LSTを規定する座標値Pv1およびPvrは必要である。しかしながら、時間経過と共に、車両Mは、基準時刻tREF の時点の最適軌跡LT上を移動していくような感じになるので、基準時刻tREF が過ぎてしまえば、座標値Pv1およびPvrは不要になる。そのため、初めて実行されるステップS12では、プロセッサ101は、保持中の最適経路LTを構成する座標列Pv1〜Pvrから、車両Mが基準時刻tREF から現在時刻tCPまでに移動した領域RM1に含まれる座標値を削除して、現在の最適軌跡LTを作成する。ここで、移動領域RM1は、xv1以上xv1+(xCP−xCP0 )以下の範囲である。
【0049】
また、2回目以降に実行されるステップS12においても、初回の場合と同様に、プロセッサ101は、保持中の最適経路LTを構成する座標列から、車両Mが基準時刻tREF から現在時刻tCPまでに移動した領域RM1に含まれる座標値を削除して、現在の最適軌跡LTを作成する。
【0050】
次に、プロセッサ101は、予想走行軌跡ETを作成する(ステップS13)。より具体的には、プロセッサ101は最初に、メインメモリ102上のオブジェクトB1 〜BN の中から、ステップS8で得た現在の操舵角αi に割り当てられているオブジェクトBq を選択する。ここで、qは、1からNのいずれかの自然数である。次に、プロセッサ101は、オブジェクトBq を構成する座標列から少なくとも4個の座標値を選択する。この時、オブジェクトBq の開始線LST(図7参照)を示す2個の座標値を必ず含む。
【0051】
ステップS13の次に、図5に示す表示画像IDPY が作成・表示される(ステップS14)。ステップS14をより具体的に説明すると、まず、ステップS12で作成された最適経路LTを構成する車両座標系の座標列が、画像座標系の座標列に変換される。さらに、ステップS13で作成された予想走行軌跡ETを構成する車両座標系の座標列が、画像座標系の座標列に変換される。なお、このような座標変換については、例えば、国際公開WO00−07373号公報に開示されているので、ここではその詳細な説明を省略する。以上の座標変換された最適経路LTおよび予想走行軌跡ETが、ステップS7でフレームメモリに格納された撮影画像ICPT に重畳され、これによって、現在時刻tCPでの表示画像IDPY が完成する。次に、プロセッサ101の制御下で、完成した表示画像IDPY が表示装置16に転送され、表示装置16は、受信表示画像IDPY を表示する。
【0052】
次に、プロセッサ101は、入力装置11から、上述の終了指示DTDが到着しているか否かを判断する(ステップS15)。終了指示DTDが到着済であれば、プロセッサ101は、車両Mが停止位置PSPに到達したと見なして、画像表示処理を終了し、そうでなければ、次の表示画像IDPY を作成するために、ステップS7に戻る。
【0053】
ここで、図14は、基準時刻tREF から終了指示DTDの到着時までに、表示装置16で表示される表示画像Id がどのように遷移するかを示す模式図である。図14には、4フレーム分の表示画像IDPY が示されている。最上段の表示画像Id は、運転支援装置1が基準時刻tREF に上述の処理を実行することで表示される。また、その下段の表示画像IDPY は、時刻(tREF +Δt)に表示される。さらに、時刻(tREF +Δt)および(tREF +2×Δt)に表示される表示画像IDPY が示されている。また、図14の最下段には、時刻(tREF +3×Δt)に表示され、終了指示DTDの到着直前の表示画像IDPY が示されている。以上の表示画像IDPY の時間に対する変化を見れば分かるように、終了指示DTDの到着時に近づくに連れて、表示装置16の画面上において、最適軌跡LTの形状は、車両Mの動きに応じて変化し、より具体的には、車両Mの停止位置PSPに向かって縮んでいく最適軌跡LTが表示される。また、車両Mは、縮んでいく最適軌跡LTに追従するように表示される。これによって、ドライバは、従来よりも、駐車スペースにおける停止位置PSPに車両Mが正しく向かっているかどうかを確認しやすくなる。
【0054】
さらに、表示画像Id には、最適軌跡LTだけでなく予想走行軌跡ETも合成される。もし、ドライバが適切なハンドル操作を行い、車両Mが正しく停止位置PSPに向かっている場合には、図14に示すように、表示装置16の画面上において、予想走行軌跡ETは、最適軌跡LT上を動くように表示される。しかしながら、もし、ドライバが不適切なハンドル操作を行った場合には、図15に示す表示画像IDPY のように、予想走行軌跡ETは、最適軌跡LTから外れてしまう。これによって、ドライバは、瞬時に、ハンドル操作の誤りに気づくことが可能となり、さらに使い勝手の良い運転支援装置1を提供することが可能になる。
【0055】
また、以上の実施形態では、最適軌跡LTおよび予想走行軌跡ETの双方が撮影画像ICPT に重畳されるとして説明した。しかし、本願で設定された課題を解決するには、少なくとも、最適軌跡LTが重畳されれば良い。また、撮像装置12のレンズに生じる歪みを補正された撮影画像ICPT に、最適軌跡LTおよび予想走行軌跡ETの双方が重畳されても良い。
【0056】
なお、以上の実施形態では、ドライバは、初期表示画像ID0を見ながら、この終端線LTMが停止位置PSPに合うように、車両Mを移動させるとして説明した。その結果、最適軌跡LTは、車両Mの現在位置PCPからその停止位置PSPまでを表すようにしていた。しかし、これに限らず、運転支援装置1は、プログラムC1 の実行を開始直後、予め定められたオブジェクトBj を最適経路LTとして選択してもよい。この場合、初期表示画像ID0において、オブジェクトBj (つまり、最適経路LT)の終端線LTMは、大抵の場合、停止位置PSPを指示しない。このような最適経路LTであっても、ドライバは、停止位置PSPに至る途中までの最適経路が分かるという技術的効果を奏する。つまり、最適経路LTは、少なくとも、車両Mの現在位置PCPからの最適経路を表せば良い。
【0057】
また、以上の実施形態では、撮影画像ICPT は、撮像装置12の位置を視点として車両Mの後方を見た画像であった。しかし、これに限らず、撮影画像ICPT に対して視点変換処理を行って、撮像装置12の位置以外の視点(例えば、車両Mの上方)から車両Mの後方を見た画像(以下、視点変換画像と称する)を作成し、プロセッサ101は、作成した視点変換画像に、最適軌跡LTおよび/または予想走行軌跡ETを重畳して、表示画像(以下、視点変換表示画像と称する)を作成しても良い。さらに、プロセッサ101は、前述の表示画像IDPY および上述の視点変換表示画像を画像合成して、両者を同時に表示装置16に表示させても良い。
【0058】
また、以上の実施形態では、撮像装置12は1台として説明したが、複数台であっても良い。この場合、プロセッサ101は、複数台からの撮影画像ICPT を1枚の画像につなぎ合わせた後に、最適軌跡LTおよび/または予想走行軌跡ETを重畳して、表示画像を作成する。また、撮像装置12は必ずしも、車両Mの両側面から等距離に固定されるなくともよく、縦中心面SC から車両Mの左右方向にずれた位置に固定されても良い。なお、このように撮像装置12が設置されたとしても、上述の視点変換処理により、運転支援装置1は、車両Mの中心から見たときの表示画像IDPY を作成することができる。
【0059】
また、以上の実施形態では、撮影画像ICPT を参照すれば明らかなように、左右方向に並ぶ2台の車両の間の駐車スペースの右斜め前方から、車両Mを駐車するような状況を例に取り上げて説明した。しかし、このような例だけでなく、駐車スペースの左斜め前方から駐車するような状況にも、本画像作成装置10は簡単に応用できる。さらに、前後方向に並ぶ2台の車両の間に駐車する場合にも応用することができる。ただし、この場合には、車両Mは、図16に示すように、、S字を描くように駐車スペースに向かって移動するので、このような形状を表すオブジェクトBS を予め準備する必要がある。
【0060】
また、以上の実施形態では、最適軌跡LTおよび予想走行軌跡ETは平面的な図形で表現されていたが、これに限らず、単なる線で表現されても良い。
【0061】
「第2の実施形態」
ところで、第1の実施形態では、図9のステップS10において、プロセッサ101は、ヨーレートセンサ15から第1のヨーレートω1 を受信していた。しかし、第2の実施形態では、第1のヨーレートω1 を算出できる運転支援装置2を提供することを目的とする。
【0062】
図17は、第2の実施形態に係る画像作成装置20を組み込んだ運転支援装置2のハードウェア構成を示すブロック図である。図17において、運転支援装置2は、図1に示す運転支援装置1と比較すると、ヨーレートセンサ15が不要である点と、プログラムメモリ103にソフトウェアS1 の代わりに、図17に示すようなソフトウェアS2 が格納される点で相違する。それ以外に相違点は無いので、図17において、図1の構成に相当するものには、同一の参照符号を付けて、その説明を省略する。また、ソフトウェアS2 は、図18に示すように、ソフトウェアS1 (図6参照)と比較すると、プログラムC1 の代わりに、コンピュータプログラム(以下、単にプログラムと称する)C2 を含む点で相違する。オブジェクトBについては、第1の実施形態と同様であるため、本実施形態では説明を省略する。プログラムC2 は、本運転支援装置2の動作を規定する。
【0063】
次に、以上の構成を有する運転支援装置2の動作を説明する。運転支援装置2の電源投入後、プロセッサ101はまず、プログラムメモリ103からソフトウェアS2 をメインメモリ102に読み出す。プロセッサ101は、入力装置11からの開始指示DSDの受信に応答して、メインメモリ102上のプログラムC2 の実行、つまり画像表示処理を開始する。
【0064】
ここで、図19および図20は、プログラムC2 に記述されている運転支援装置2の動作手順を示すフローチャートである。図19および図20のフローチャートは、図8および図9のフローチャートと比較すると、ステップS10がステップS21に代わる点で相違する。それ以外に、両フローチャートの間に相違点はないので、図19および図20において、図8および図9のステップに相当するものには、同じステップ番号を付け、それらの説明を省略する。
【0065】
以下、ステップS10の具体的な説明の前に、そこで必要となる各パラメータおよび理論を、図面を参照して説明する。まず、図21には、その質量がmの車両Mが示されている。また、車両Mの重心位置PBYC から、その両前輪の回転中心同士を結ぶ線分までの距離をDf 、また、その両後輪の回転中心同士を結ぶ線分までの距離をDr とおく。また、車両MのホイールベースをLとすると、L=(Df +Dr )である。さらに、図21には示していないが、車両Mのヨーイング慣性モーメントをIm 、車両Mの前輪コーナリングパワーをKf 、その後輪コーナリングパワーをKr とする。以上の質量m、ヨーイング慣性モーメントIm 、ホイールベースL、距離Df 、距離Dr 、前輪コーナリングパワーKf 、および後輪コーナリングパワーKr の値は、車両Mに固有で既知の値である。
【0066】
また、図21において、車両Mの前輪の実舵角をεとおく。ここで、実舵角εは、車両Mのハンドル操舵角αi に比例する値であり、次式(6)で算出することができる。
ε=B×αi …(6)
ここで、Bは、車両Mに固有で既知の定数である。
さらに、図21には、車両Mの進行方向(速度Vのベクトル)と、第1のヨーレートω1 および横滑り角δとが図示されている。しかし、これらについては、第1の実施形態で説明しているので、ここではその説明を省略する。
【0067】
以上のパラメータを有する車両Mの運動方程式は次式(7)で表される。
【数3】
また、車両Mの重心位置PBYC の鉛直軸周りのヨーイング運動方程式は、次式(8)で表される。
【数4】
上式(7)および(8)を整理すると、次式(9)および(10)が得られる。
【数5】
【0068】
さらに、上式(9)および(10)をラプラス変換すると、車両Mの運動方程式およびヨーイング運動方程式は、次式(11)のように表現される。
【数6】
ここで、sはラプラス演算子である。
【0069】
さて、図20のステップS21において、プロセッサ101は、ステップS8およびS9で受信した操舵角αi および速度Vを使って、車両Mの移動量TAを求める。より具体的には、プロセッサ101は、受信した操舵角αi を、前式(6)に代入して、実舵角εを算出する。それゆえ、上式(11)において、未知数は、第1のヨーレートω1 のみとなる。なお、δは横滑り角であるが、駐車時のように車両Mが低速走行している場合には、0とみなせるので既知の値である。実舵角εの算出後、プロセッサ101は、受信した速度Vおよび算出した実舵角εを使って、上式(11)を解き、第1のヨーレートω1 を算出する(ステップS21)。
【0070】
次のステップS11において、プロセッサ101はまず、ステップS21で算出した第1のヨーレートω1 を前式(3)に代入して、第2のヨーレートω2 を算出する。以降、プロセッサ101は、第1の実施形態で説明したようにして、移動量TA(xCP−xCP0 ,yCP−yCP0 )を算出する。
以上のように、本実施形態によれば、運転支援装置1のようにヨーレートセンサ15が不要になるので、本運転支援装置2の構成を簡素化できるという技術的効果を得ることができる。
【0071】
「第3の実施形態」
また、第1の実施形態では、図9のステップS9において、プロセッサ101は、車速センサ14から速度Vを受信していた。しかし、第3の実施形態では、速度Vを算出できる運転支援装置3を提供することを目的とする。
【0072】
図22は、第2の実施形態に係る画像作成装置30を組み込んだ運転支援装置3のハードウェア構成を示すブロック図である。図22において、運転支援装置3は、図1に示す運転支援装置1と比較すると、車速センサ14が不要である点と、プログラムメモリ103にソフトウェアS1 の代わりに、図23に示すようなソフトウェアS3 が格納される点である。それ以外に相違点は無いので、図22において、図1の構成に相当するものには、同一の参照符号を付けて、その説明を省略する。また、図23において、ソフトウェアS3 は、ソフトウェアS1 (図6参照)と比較すると、プログラムC1 の代わりに、コンピュータプログラム(以下、単にプログラムと称する)C3 を含む点で相違する。オブジェクトBについては、第1の実施形態と同様であるため、本実施形態では説明を省略する。プログラムC3 は、本運転支援装置3の動作を規定する。
【0073】
次に、以上の構成を有する運転支援装置3の動作を説明する。運転支援装置3の電源投入後、プロセッサ101はまず、プログラムメモリ103からソフトウェアS3 をメインメモリ102に読み出す。プロセッサ101は、入力装置11からの開始指示DSDの受信に応答して、メインメモリ102上のプログラムC3 の実行、つまり画像表示処理を開始する。
【0074】
ここで、図24および図25は、プログラムC3 に記述されている運転支援装置3の動作手順を示すフローチャートである。図24および図25のフローチャートは、図8および図9のフローチャートと比較すると、ステップS9がステップS31に代わる点で相違する。それ以外に、両フローチャートの間に相違点はないので、図24および図25において、図8および図9のステップに相当するものには、同じステップ番号を付け、それらの説明を省略する。
【0075】
以下、ステップS31の具体的な説明の前に、そこで必要となる空間フィルタリングによる車速の測定について説明する。なお、空間フィルタリングについては、例えば、空間フィルタとその応用〔I〕(計測自動制御学会誌「計測と制御」Vol.19,No.4 )に詳しく記載されている。図26は、空間フィルタリングの基本原理を示す模式図である。図26には、スリット列41と、点光源42と、光学系43とが示されている。スリット列41は、同一平面SSLT 上に一定ピッチpで同一方向に配列された複数のスリットである。また、点光源42は、スリット列41に対し相対速度V’で、スリット列41上をその配列方向に移動しながら、スリット列41に向けて光を出射する。光学系43は、スリット列41および点光源42の間に置かれ、点光源42からの光を通過させる。光学系43の通過光は、スリット列41上で焦点を結ぶ。このようにして、スリット列41上には、スポット光LSPT が投影される。
【0076】
また、図26に示すように、このスリット列41を間において点光源42を見るような位置で、上述のスポット光LSPT を観測した場合、スリット列41を通過中のスポット光LSPT の光強度は、スリットの配列方向の変位p毎に、1つのパルスが表れる信号になる。このような信号(パルス)の周期TCYL は、p/V’となる。また、信号の周波数fSPT はV’/pとなり、相対速度V’に比例することが分かる。つまり、スポット光LSPT の相対速度V’は時間的に変動する場合、その時間変動に応じて、周波数fSPT も変化する。しかし、スポット光LSPT が平面SSLT 上を変位pだけ移動する度に、光信号には1つのパルスが現れるという性質は不変である。
【0077】
また、上述の撮影画像ICPT のような一般的な光学的パターンには、多くの光強度を有する多数の点光源がランダムに配置されていると考えることができる。また、光学的パターンに含まれる多数の点光源は、互いの位置関係を変えることなく、一定方向に同時に並行移動していると考えることができる。このような光学的パターンを、図26における点光源42と置き換えて、点光源と同様に移動させた場合、スリット列41を間において点光源42を見るような位置では、互いに同一周波数fSPT を有するが、その位相および振幅が相違する多数の信号を加算(合成)した信号が観測される。以下、観測された信号を、狭帯域ランダム信号と称する。この狭帯域ランダム信号の平均的な周波数fAVE は、上述のV’/pであり、その位相および振幅は、時間的に不規則かつゆっくりと変動する。
【0078】
次に、以上のような波形を有する狭帯域ランダム信号から、光学的パターン自体の相対速度V’PTN の算出方法を説明する。図27は、相対速度V’PTN の算出に使用されるモデルの模式図である。図27には、光学パターン51と、空間フィルタ52と、光学系53と、光検出器54とが示されている。光学パターン51は、ランダムな光強度分布f(x,y)を有する。空間フィルタ52は、光学パターン51の直上に密接して配置される。また、空間フィルタ52は、2次元直交座標系における点PFLT を原点として、x軸方向の長さがXFLT で、y軸方向の長さがYFLT の矩形形状を有しており、予め定められた透過率分布h(x,y)を持つ空間荷重関数である。以上の空間フィルタ52は、光学パターン51から発する光を通過させる。光学系53は、空間フィルタ52を通過した光を集束する。光検出器54は、光学系53により集められた光を電気に変換して、瞬時出力g(x0 ,y0 )を生成する。ここで、瞬時出力g(x0 ,y0 )は、比例定数を無視した場合、次式(12)で表される。
【0079】
【数7】
ここで、x0 およびy0 は、空間フィルタ52の原点PFLT 上に位置する光学パターン51のx座標値およびy座標値である。
【0080】
以上のようなモデルにおいて、光学パターン51がx軸方向に一定速度V’PTN で平行移動している時には、x0 およびy0 は、次式(13)および(14)で表される。
x0 =V’PTN ・t+c1 …(13)
y0 =c2 …(14)
ここで、tは時間であり、c1 およびc2 は定数である。
【0081】
今、y0 を固定し、g(x0 ,y0 )を変位x0 の関数と考えると、x軸方向の空間領域でのパワースペクトル密度関数Ψ(μ)は、次式(15)のように表される。
【数8】
ここで、μおよびνは、x軸方向およびy軸方向の空間周波数である。また、H(μ,ν)は、次式(16)で示される。また、Φ(μ,ν)は、f(x,y)に関する空間領域での2次元的パワースペクトル密度関数である。
【数9】
【0082】
また、上式(15)は、透過率分布h(x,y)がy軸方向に一定であると仮定すると、近似的に次式(17)のように表される。
【数10】
ここで、H(μ)は、次式(18)で示される。
【数11】
【0083】
ここで、光学パターン51の速度V’PTN による影響を考慮するために、瞬時出力g(x0 ,y0 )を時間tの関数g(x0 ,y0 ,t)とすると、時間領域でのパワースペクトル密度関数Ω(f)は、次式(19)で表される。
【数12】
ここで、fは、時間的周波数である。
【0084】
上式(15)〜(19)において、|H(μ)|2 が、μ=μ0 のみを選択する特性を持つと仮定すると、Φ(μ0 ,0)=0でない限り、Ψ(μ)は、μ=μ0 で急峻なスペクトルを持つ。したがって、Ω(f)にも、f=Vμ0 のところに際だったスペクトルが現れる。したがって、速度V’PTN に比例する周波数の正弦波信号が瞬時出力g(x0 ,y0 ,t)として得られることになり、この正弦波信号に対して、フーリエ変換またはウェーブレット変換に代表される周波数測定を行うことにより、速度V’PTN を検出することが可能になる。
【0085】
以上の空間フィルタリングを運転支援装置3に応用するために、図28に示すように、メインメモリ102における撮影画像ICPT の記憶領域には、仮想的なスリット列61が予め設定されている。スリット列61は、メインメモリ102のメモリ空間に、一定ピッチpで同一方向に配列された複数のスリットであり、撮影画像ICPT において路面SR が映っていると想定されるところに配置される。各スリットの位置および形状は、第1の実施形態で説明した画像座標系の座標値で指定される。プロセッサ101は、ステップS31において、メインメモリ102内の撮影画像ICPT においてスリット列61に含まれる複数の画素を、上述の光学パターン51とみなし、この光学パターン51に対して空間フィルタリングを実行する。
【0086】
より具体的には、一般的に、撮影画像ICPT は、白黒の場合には、それを構成する各画素の輝度値を示すデータを含んでいる。また、カラーの場合、撮影画像ICPT は、各画素毎に、光の3原色の輝度値を示すデータを含んでいるが、周知の方法で、白黒の輝度値に変換することが可能である。プロセッサ101はまず、今回格納された撮影画像ICPT を使って、そのスリット列61に含まれる全ての画素の白黒の輝度値を加算する。それによって、プロセッサ101は、輝度の合計値を求め、メインメモリ102上に蓄積する。ここで、メインメモリ102には、今回の合計値を含む、過去数フレーム分の撮影画像ICPT から求められた合計値を格納するための記録領域が予約されている。従って、メインメモリ102には、図29(a)に示すような時間軸上での合計値の変化を示すデータが格納されることになる。次に、プロセッサ101は、時間軸上で表された合計値の変化を、図29(b)に示すような周波数軸上のものに変換した後、得られた周波数軸上の合計値から、ピーク値を検出する。さらに、プロセッサ101は、検出したピーク値に対応する周波数成分fを検出する。その後、プロセッサ101は、検出した周波数成分fと、上述のピッチpとから、光学パターン51、つまり路面SR の車両Mに対する相対速度V’PTN (=p/f)を算出する。プロセッサ101は、このようにして得られた相対速度V’PTN の極性を反転させ、車両Mの速度Vを導出する(ステップS31)。
【0087】
以上のように、本実施形態によれば、運転支援装置1のように車速センサ14が不要になるので、運転支援装置3の構成を簡素化できるという技術的効果を得ることができる。
【0088】
なお、以上の第1〜第3の実施形態では、プログラムC1 〜C3 は、プログラムメモリ103に格納されていた。しかし、これに限らず、プログラムC1 〜C3 は、CD−ROMに代表される記録媒体に記録された状態で頒布されてもよいし、インターネットに代表される通信ネットワークを通じて頒布されてもよい。
【0089】
また、現在の最適経路LTの導出方法には、上述の実施形態で説明したもの以外に、周知のアッカーマンモデルを使う方法もある。アッカーマンモデルでは、最適経路LTは、操舵角αi および速度Vに基づいて導出される。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る運転支援装置1のハードウェア構成を示すブロック図である。
【図2】図1の撮像装置12の固定位置を示す模式図である。
【図3】図1の撮像装置12により生成される撮影画像ICPT の一例を示す模式図である。
【図4】図1のヨーレートセンサ15で検出される第1のヨーレートω1 を説明するための模式図である。
【図5】図1のプロセッサ101により作成される表示画像IDPY の一例を示す模式図である。
【図6】図1のプログラムメモリ103に格納されるソフトウェアS1 の詳細な構成を示す模式図である。
【図7】図6に示すオブジェクトBN を説明するための模式図である。
【図8】図1の運転支援装置1の動作手順を示すフローチャートの前半部分である。
【図9】図1の運転支援装置1の動作手順を示すフローチャートの後半部分である。
【図10】図8のステップS3で確定通知INTの到着前に作成される初期表示画像ID0を示す模式図である。
【図11】図8のステップS5の時点で表示されている初期表示画像ID0を示す模式図である。
【図12】図9のステップS11において算出される第2のヨーレートω2 を説明するための模式図である。
【図13】図9のステップS12におけるプロセッサ101の処理内容を説明するための模式図である。
【図14】図1の表示装置16の表示画面の時間に対する変化を示す模式図である。
【図15】ドライバがハンドル操作を誤った時、図1の表示装置16に表示される表示画像IDPY を示す模式図である。
【図16】図6に示すオブジェクトBN をの代替例であるオブジェクトBS を説明するための模式図である。
【図17】本発明の第2の実施形態に係る運転支援装置2のハードウェア構成を示すブロック図である。
【図18】図17のプログラムメモリ103に格納されるソフトウェアS2 の詳細な構成を示す模式図である。
【図19】図17の運転支援装置2の動作手順を示すフローチャートの前半部分である。
【図20】図17の運転支援装置2の動作手順を示すフローチャートの後半部分である。
【図21】図20のステップS21で必要となる車両Mのパラメータを示す模式図である。
【図22】本発明の第3の実施形態に係る運転支援装置3のハードウェア構成を示すブロック図である。
【図23】図22のプログラムメモリ103に格納されるソフトウェアS3 の詳細な構成を示す模式図である。
【図24】図22の運転支援装置3の動作手順を示すフローチャートの前半部分である。
【図25】図22の運転支援装置3の動作手順を示すフローチャートの後半部分である。
【図26】図22の運転支援装置3に応用される空間フィルタリングの基本概念を示す模式図である。
【図27】図26の空間フィルタリングを使って、空間パターン51の相対速度V’PTN の算出に使用されるモデルの模式図である。
【図28】図22の運転支援装置3に予め設定されるスリット列61を示す模式図である。
【図29】図25のステップS31における相対速度V’PTN の検出方法を説明するための模式図である。
【図30】従来のモニター装置において表示される4フレーム分の表示画像Id1〜Id4を示す模式図である。
【符号の説明】
1,2,3…運転支援装置
10,20,30…画像作成装置
101…プロセッサ
102…メインメモリ
103…プログラムメモリ
S1 ,S2 ,S3 …ソフトウェア
C1 ,C2 ,C3 …コンピュータプログラム
11…入力装置
111,112、113…操作ボタン
12…撮像装置
13…操舵角センサ
14…車速センサ
15…ヨーレートセンサ
16…表示装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image creating apparatus, and more particularly to an image creating apparatus that creates an image for driving support of a vehicle based on a captured image obtained from an in-vehicle imaging device.
[0002]
[Prior art]
Conventionally, the above-described image creating apparatuses have been actively researched and developed. As such an image creating apparatus, in the section of the prior art, a monitor apparatus disclosed in Japanese Patent Application Laid-Open No. 59-114139 will be described. In this monitor device, an in-vehicle camera creates an image (hereinafter referred to as a captured image) obtained by capturing a scene behind the host vehicle. Based on the steering angle from the steering angle sensor, the CPU creates a figure (hereinafter simply referred to as an “anticipated traveling locus”) indicating an expected traveling locus that the vehicle is supposed to follow. The CPU superimposes the created predicted travel locus on the captured image to create a display image. The display device receives and displays the above display image.
[0003]
Now, assume that the driver actually puts the vehicle in the parking space. Here, FIG. 30 shows the display image I for four frames displayed on the display device from the start of parking until the end of parking.d1~ Id4It is a schematic diagram which shows. In FIG. 30, display image Id1At the start of parking (time td1Displayed on the display device. Furthermore, the display image Id2Is the time td1Later time td2Display image Id3Is the time td3Later time td3Is displayed. The display image Id4Is the time td3Later andSelfTime t when vehicle and parking space are alignedd4Is displayed. Display image Id1~ Id4The above-mentioned predicted travel locus ET is superimposed on any of the above. In addition, the predicted travel locus ET is the time td1~ Td4The display image I is determined from the steering angle of the host vehicle atd1~ Id4The vehicle M has a predetermined length from the vehicle M. Display image Id1~ Id4By looking at, the driver can check how the vehicle will proceed with the current steering wheel operation.
[0004]
[Problems to be solved by the invention]
Next, the problems that the above monitor device has will be described. At the time of parking, most drivers first move their vehicle to a place (hereinafter referred to as an initial position) where it is easy to enter the parking space, and then move the vehicle toward the parking space. During the movement of the host vehicle, the driver is concerned whether the host vehicle is correctly heading to the stop position in the parking space. However, the conventional display image (see FIG. 30) shows only the trajectory that the host vehicle is supposed to follow by the current steering wheel operation. Therefore, if the steering wheel operation is mistaken, the predicted traveling locus will deviate from the parking space. In such a case, there is a problem that it is difficult for the driver to understand how much the steering operation is corrected and how the host vehicle goes to the stop position.
[0005]
Therefore, an object of the present invention is to provide an image creation device that creates an image that makes it easy to understand whether or not the host vehicle is correctly heading toward a stop position.
[0006]
[Means for Solving the Problems and Effects of the Invention]
The first aspect of the present invention is directed to an image creating apparatus for driving assistance of a vehicle. The present invention provides an imaging device installed in a vehicle, a steering angle sensor that detects the steering angle of the vehicle, an image captured by the imaging device, and a display image based on the steering angle detected by the steering angle sensor. A processor to create, a main memory assigned to a plurality of steering angles, and stores a plurality of objects that are graphic data for specifying the shape of a trajectory that the vehicle is supposed to follow while maintaining the steering angles; A display device for displaying a display image created by the processor;Accept operation input from vehicle driverAn input device, and a processorAn object assigned to a predetermined steering angle is selected from the main memory, and a scene represented by an image captured by the imaging device is displayed.An initial display image is created by superimposing, the display device displays the initial display image, and the input deviceHowever, due to the movement of the vehicleObject displayed in the initial display imageButEnter information that indicates the optimal trajectory that represents the optimal trajectory from the current position of the vehicle to the stop position.From the driverAcceptanceWhenThe processor determines the object displayed in the initial display image as the optimum locus based on the information received by the input device, and is stored in the main memory based on the steering angle detected by the steering angle sensor. Using the object, an expected traveling trajectory expected to be followed by the vehicle is created, and a display image in which the optimum trajectory and the predicted traveling trajectory are superimposed on a scene is created in the main memory.
[0007]
In this way, since an optimal trajectory and an expected travel trajectory can be created using an object prepared in advance, an image can be created quickly.
[0008]
Further, it is preferable that the processor transfers the display image created by being superimposed on the main memory to a display device connected to be communicable with the processor, and the display device displays the received display image from the main memory.
[0009]
The second aspect of the present invention is directed to an image creation method for driving support of a vehicle. The present inventionA plurality of objects, which are graphic data that are assigned to a plurality of steering angles and specify the shape of a trajectory that the vehicle is supposed to follow while maintaining the steering angles, are stored in the main memory.A steering angle detection step for detecting a steering angle of the vehicle, an image captured by the imaging device, a display image generation step for generating a display image based on the steering angle detected in the steering angle detection step, and a display image generation A display step for displaying the display image created in the step;An object assigned to a predetermined steering angle is selected from the main memory, and a scene represented by an image captured by the imaging device is displayed.An initial display image creation step for creating an initial display image by superimposing; an initial display image display step for displaying an initial display image;By moving the vehicleObject displayed in the initial display imageButEnter information that indicates the optimal trajectory that represents the optimal trajectory from the current position of the vehicle to the stop position.From the vehicle driverAn optimal trajectory input step, an optimal trajectory determination step for determining an object displayed in the initial display image as the optimal trajectory based on the information received in the optimal trajectory input step, and a steering angle detection step. Based on the steering angle, MeUsing the object stored in the in-memory, an expected traveling locus creating step for creating an expected traveling locus that the vehicle is expected to follow from now on, and a display image in which the optimum locus and the predicted traveling locus are superimposed on the scene are stored in the main memory. A creation step for creating.
[0010]
In this way, since an optimal trajectory and an expected travel trajectory can be created using an object prepared in advance, an image can be created quickly.
[0011]
And a transfer step of transferring a display image created by being superimposed on the main memory to a display device communicably connected to the main memory, and a received display image display step of displaying a received display image from the main memory. Is preferred.
[0012]
The third aspect of the present invention is directed to an image creation program executed by a computer of an image creation device for driving support of a vehicle. The present inventionA plurality of objects, which are graphic data that are assigned to a plurality of steering angles and specify the shape of a trajectory that the vehicle is supposed to follow while maintaining the steering angles, are stored in the main memory.A steering angle detection step for detecting a steering angle of the vehicle in the computer; an image captured by the imaging device; and a display image creation step for creating a display image based on the steering angle detected in the steering angle detection step; A display step for displaying the display image created in the display image creation step;An object assigned to a predetermined steering angle is selected from the main memory, and a scene represented by an image captured by the imaging device is displayed.An initial display image creation step for creating an initial display image by superimposing; an initial display image display step for displaying an initial display image;By moving the vehicleObject displayed in the initial display imageButEnter information that indicates the optimal trajectory that represents the optimal trajectory from the current position of the vehicle to the stop position.From the driverAn optimal trajectory input step, an optimal trajectory determination step for determining an object displayed in the initial display image as an optimal trajectory based on information received in the optimal trajectory input step, and steering detected in the steering angle detection step Based on corner, MeUsing the object stored in the in-memory, an expected traveling locus creating step for creating an expected traveling locus that the vehicle is expected to follow from now on, and a display image in which the optimum locus and the predicted traveling locus are superimposed on the scene are stored in the main memory. Let the creation step to create and run.
[0013]
In this way, since an optimal trajectory and an expected travel trajectory can be created using an object prepared in advance, an image can be created quickly.
[0014]
In addition, a transfer step of transferring a display image created by superimposing on the main memory to a display device connected to be communicable with the main memory and a reception display image display step of displaying a reception display image from the main memory are executed. It is preferable.
[0025]
DETAILED DESCRIPTION OF THE INVENTION
“First Embodiment”
FIG. 1 is a block diagram showing a hardware configuration of a
[0026]
The
[0027]
The
[0028]
The
[0029]
The
ω1= Β / T (1)
[0030]
Further, a vehicle coordinate system necessary for the following description will be described with reference to FIG. In FIG. 4, the vehicle coordinate system is X1Axis, Y1Axis and Z1It is a three-dimensional orthogonal coordinate system composed of axes. First, Z1The axis is the current center of gravity position P of the vehicle MBYCThe vertical direction is shown with reference to. X1The axis is the center of gravity PBYCIndicates the traveling direction of the vehicle M. Y1The axis is the center of gravity position P of the vehicle MBYCWith reference to X above1Axis and Z1Indicates the direction perpendicular to the axis. The above-mentioned first yaw rate ω1X above1It is also the amount of rotation per time T of the shaft.
[0031]
Further, the
[0032]
1 is mainly used as a working area for the
[0033]
Next, referring to FIGS. 7A and 7B, the object BNAn exemplary data structure will be described. In FIG. 7A, object BNIs r coordinate values P (r is a predetermined natural number).v1~ PvrConsists of. Where the coordinate value Pv1~ PvrIs a coordinate value of the above-described vehicle coordinate system (see FIG. 4). The above coordinate value Pv1~ PvrBy connecting the steering angle α as shown in FIG.NThe trajectory of the vehicle M at the time is expressed. In FIGS. 7A and 7B, four coordinate values P are shown for convenience.v1, Pvj, PvkAnd PvrOnly shown. Where the coordinate value Pv1And PvrAre the coordinate values of the right rear wheel and the left rear wheel of the vehicle M, and the start line L of the trajectory of the vehicle MSTIdentify both ends of. Also, the coordinate value PvjAnd PvkIs the end line L of the trajectory of the vehicle MTMIdentify both ends of.
[0034]
Other object B1~ B(N-1)The steering angle α1~ Α(N-1)Since the shape of the trajectory of the vehicle M according to the above is expressed by the same data structure as described above, detailed description thereof will be omitted.
[0035]
Next, operation | movement of the driving
[0036]
Here, FIG. 8 and FIG.1It is a flowchart which shows the operation | movement procedure of the driving
[0037]
Next, the
[0038]
Next, the initial display image I shown in FIG.D0Is created and displayed (step S3). More specifically, in step S3, first, the selected object BNCoordinate value P constitutingv1~ PvrIs converted into a coordinate sequence of the image coordinate system by the
[0039]
Next, the
[0040]
And the termination line LTMIs the stop position PSP, The initial display image I as shown in FIG.D0The selected object BNIs the current position P of the vehicle MCPTo stop position PSPRepresents the optimum route LT up to. Here, in the following description, the termination line LTMIs the stop position PSPCurrent position P of vehicle M whenCPParking start position PstCalled. At this time, the driver operates the
[0041]
Next, the
[0042]
Reference time t aboveREFThe world coordinate system is defined by setting. Next, the world coordinate system will be described with reference to FIG. In FIG. 12, the world coordinate system indicates the reference time t.REF Center of gravity P of vehicle M atBYCAs the origin and XThreeAxis, YThreeAxis and ZThreeIt is a three-dimensional orthogonal coordinate system composed of axes. XThreeThe axis indicates the traveling direction of the vehicle M with respect to the origin. ZThreeThe axis indicates the vertical direction with respect to the origin. YThreeThe axis is XThreeAxis and ZThreeOrthogonal to the axis. The above world coordinate system differs from the vehicle coordinate system described above in the following points. That is, the vehicle coordinate system moves with the vehicle M as shown in FIG.REF Center of gravity P of vehicle M atBYCIt is fixed with. That is, the world coordinate system does not move even when the vehicle M moves.
[0043]
Next, referring to FIG. 12, the second yaw rate ω2Will be explained. In FIG. 12, the vehicle M has a reference time tREFAnd the above XThreeIt is retracting in the axial direction. Also, the reference time tREFTo current time tCPIn the meantime, the vehicle M moves backward diagonally to the right as indicated by two dotted arrows. During this time, the traveling direction of the vehicle M is XThreeArrow A from the axial direction2The direction is changing. The current time tCPCenter of gravity P of vehicle M atBYCTo XThreeAuxiliary line L parallel to the axisa2pull. In addition, auxiliary line La2And arrow A2If the angle formed by the direction of γ is γ, the second yaw rate ω2Is represented by the following equation (2).
ω2= Γ / (tCP-TREF) ... (2)
The first yaw rate ω1Is the yaw rate of the vehicle M on the vehicle coordinate system, whereas the above-mentioned second yaw rate ω2Is different on the world coordinate system. In addition, the above initial value ω20Is the reference time tREFSecond yaw rate at2And 0.
[0044]
In addition, the current position PCPIs the current time tCPCenter of gravity P of vehicle M atBYCAnd the coordinate value of the world coordinate system (xCP, YCP, ZCP). In addition, the initial position P0Is the reference time tREFCenter of gravity P of vehicle M atBYCAnd the coordinate value of the world coordinate system (xCP0, YCP0, ZCP0). That is, the initial position P0Is (0, 0, 0) since it is the origin of the world coordinate system.
[0045]
Next, the
[0046]
Next, the
[Expression 1]
Next, the
[Expression 2]
In the above equations (4) and (5), δ is the skid angle of the center of gravity of the vehicle M, and can be regarded as 0 when the vehicle M is traveling at a low speed as in parking. Coordinate value xCPAnd yCPAfter the calculation, the
[0047]
After step S11, the
[0048]
For example, as shown in FIG.REFAt the time of the optimal trajectory LT (selected object BN) Starting line LSTCoordinate value Pv1And PvrIs necessary. However, with time, the vehicle MREFSince it feels like moving on the optimal locus LT at the time of, the reference time tREFIf the time passes, the coordinate value Pv1And PvrIs no longer needed. Therefore, in step S12 that is executed for the first time, the
[0049]
In step S12 executed after the second time as well, as in the first time, the
[0050]
Next, the
[0051]
Following step S13, the display image I shown in FIG.DPYIs created and displayed (step S14). Step S14 will be described more specifically. First, the coordinate sequence of the vehicle coordinate system that forms the optimum route LT created in step S12 is converted into the coordinate sequence of the image coordinate system. Furthermore, the coordinate sequence of the vehicle coordinate system that constitutes the predicted travel locus ET created in step S13 is converted into the coordinate sequence of the image coordinate system. Such coordinate transformation is disclosed in, for example, International Publication No. WO 00-07373, and detailed description thereof is omitted here. The coordinate-converted optimum route LT and the predicted traveling locus ET are captured image I stored in the frame memory in step S7.CPTIs superimposed on the current time tCPDisplay image IDPYIs completed. Next, the completed display image I is controlled under the control of the processor 101.DPYIs transferred to the
[0052]
Next, the
[0053]
Here, FIG. 14 shows the reference time t.REFTo end instruction DTDDisplay image I displayed on the
[0054]
Furthermore, the display image Id In addition to the optimal trajectory LT, the predicted travel trajectory ET is also synthesized. If the driver performs an appropriate steering wheel operation, the vehicle M is correctly stopped.SP14, the predicted traveling locus ET is displayed on the screen of the
[0055]
Further, in the above embodiment, both the optimal trajectory LT and the predicted travel trajectory ET are taken as the captured image I.CPTIt was described as being superimposed on. However, in order to solve the problem set in the present application, at least the optimum trajectory LT may be superimposed. In addition, the captured image I in which distortion generated in the lens of the
[0056]
In the above embodiment, the driver performs the initial display image I.D0While looking at this termination line LTMIs the stop position PSPAs described above, the vehicle M has been described as being moved. As a result, the optimum trajectory LT is the current position P of the vehicle M.CPTo its stop position PSPIt was supposed to represent up to. However, the present invention is not limited to this, and the driving
[0057]
In the above embodiment, the captured image ICPTIs an image of the rear of the vehicle M viewed from the position of the
[0058]
Moreover, although the
[0059]
In the above embodiment, the captured image ICPTAs will be apparent from the above description, the situation in which the vehicle M is parked from the diagonally right front of the parking space between the two vehicles arranged in the left-right direction has been described as an example. However, the present
[0060]
In the above embodiment, the optimal trajectory LT and the predicted travel trajectory ET are expressed by planar figures. However, the present invention is not limited to this and may be expressed by simple lines.
[0061]
“Second Embodiment”
By the way, in 1st Embodiment, in step S10 of FIG. 9, the
[0062]
FIG. 17 is a block diagram illustrating a hardware configuration of the driving
[0063]
Next, operation | movement of the driving
[0064]
Here, FIG. 19 and FIG.2It is a flowchart which shows the operation | movement procedure of the driving
[0065]
Hereinafter, before the specific description of step S10, parameters and theories required there will be described with reference to the drawings. First, FIG. 21 shows a vehicle M whose mass is m. Further, the center of gravity position P of the vehicle MBYCTo the line connecting the rotation centers of both front wheelsfIn addition, the distance to the line segment connecting the rotation centers of both rear wheels is Drfar. If the wheel base of the vehicle M is L, L = (Df+ Dr). Further, although not shown in FIG. 21, the yawing moment of inertia of the vehicle M is expressed as ImThe front wheel cornering power of vehicle Mf, Rear wheel cornering power KrAnd Mass m above, yawing moment of inertia Im, Wheelbase L, distance Df, Distance DrFront wheel cornering power Kf, And rear wheel cornering power KrIs a known value that is unique to the vehicle M.
[0066]
In FIG. 21, the actual steering angle of the front wheels of the vehicle M is set to ε. Here, the actual steering angle ε is the steering angle α of the steering wheel α of the vehicle M.iIt can be calculated by the following equation (6).
ε = B × αi... (6)
Here, B is a known constant specific to the vehicle M.
Further, FIG. 21 shows the traveling direction of the vehicle M (vector of the speed V) and the first yaw rate ω.1And the side slip angle δ are shown. However, since these are described in the first embodiment, the description thereof is omitted here.
[0067]
The equation of motion of the vehicle M having the above parameters is expressed by the following equation (7).
[Equation 3]
Further, the center of gravity position P of the vehicle MBYCThe yaw motion equation around the vertical axis is expressed by the following equation (8).
[Expression 4]
By arranging the above equations (7) and (8), the following equations (9) and (10) are obtained.
[Equation 5]
[0068]
Furthermore, when the above equations (9) and (10) are Laplace transformed, the equation of motion and the yawing equation of motion of the vehicle M are expressed as the following equation (11).
[Formula 6]
Here, s is a Laplace operator.
[0069]
In step S21 in FIG. 20, the
[0070]
In the next step S11, the
As described above, according to the present embodiment, since the
[0071]
“Third Embodiment”
In the first embodiment, the
[0072]
FIG. 22 is a block diagram illustrating a hardware configuration of the driving
[0073]
Next, operation | movement of the driving
[0074]
Here, FIG. 24 and FIG.ThreeIt is a flowchart which shows the operation | movement procedure of the driving
[0075]
Hereinafter, measurement of the vehicle speed by the spatial filtering necessary therefor will be described before specific description of step S31. The spatial filtering is described in detail in, for example, the spatial filter and its application [I] (Journal of the Society of Instrument and Control Engineers “Measurement and Control” Vol. 19, No. 4). FIG. 26 is a schematic diagram showing the basic principle of spatial filtering. In FIG. 26, a
[0076]
Further, as shown in FIG. 26, the above-described spot light L is located at a position where the point
[0077]
In addition, the above-described captured image ICPTIt can be considered that a large number of point light sources having many light intensities are randomly arranged in the general optical pattern as described above. In addition, it can be considered that a large number of point light sources included in the optical pattern are simultaneously moved in a certain direction without changing the positional relationship with each other. When such an optical pattern is replaced with the point
[0078]
Next, from the narrowband random signal having the waveform as described above, the relative velocity V ′ of the optical pattern itself.PTNThe calculation method of will be described. FIG. 27 shows the relative speed V ′.PTNIt is a schematic diagram of the model used for calculation. In FIG. 27, an
[0079]
[Expression 7]
Where x0And y0Is the origin P of the
[0080]
In the above model, the
x0= V ’PTN ・ T + c1... (13)
y0= C2... (14)
Where t is time and c1And c2Is a constant.
[0081]
Now y0And g (x0, Y0) For displacement x0When the power spectral density function Ψ (μ) in the spatial region in the x-axis direction is expressed as the following expression (15):
[Equation 8]
Here, μ and ν are spatial frequencies in the x-axis direction and the y-axis direction. H (μ, ν) is expressed by the following equation (16). Φ (μ, ν) is a two-dimensional power spectral density function in the spatial domain with respect to f (x, y).
[Equation 9]
[0082]
Further, the above equation (15) is approximately expressed as the following equation (17) assuming that the transmittance distribution h (x, y) is constant in the y-axis direction.
[Expression 10]
Here, H (μ) is expressed by the following equation (18).
## EQU11 ##
[0083]
Here, the speed V ′ of the
[Expression 12]
Here, f is a temporal frequency.
[0084]
In the above formulas (15) to (19), | H (μ) |2Is μ = μ0Φ (μ0, 0) = 0, unless Ψ (μ) is μ = μ0And has a steep spectrum. Therefore, for Ω (f), f = Vμ0A prominent spectrum appears at. Therefore, the speed V ′PTN A sine wave signal with a frequency proportional to the instantaneous output g (x0, Y0, T), and by performing frequency measurement represented by Fourier transform or wavelet transform on the sine wave signal, the velocity V ′PTN Can be detected.
[0085]
In order to apply the above spatial filtering to the driving
[0086]
More specifically, generally, the captured image ICPTIn the case of black and white, it includes data indicating the luminance value of each pixel constituting the black and white. In the case of color, the captured image ICPTIncludes data indicating the luminance values of the three primary colors of light for each pixel, but can be converted into monochrome luminance values by a well-known method. First, the
[0087]
As described above, according to the present embodiment, the
[0088]
In the above first to third embodiments, the program C1~ CThreeIs stored in the
[0089]
In addition to the method described in the above embodiment, there is a method using a well-known Ackermann model as a method for deriving the current optimum route LT. In the Ackermann model, the optimum path LT is the steering angle α.iAnd the speed V.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of a driving
FIG. 2 is a schematic diagram showing a fixed position of the
3 is a captured image I generated by the
4 is a first yaw rate ω detected by the
5 is a display image I created by the
6 is software S stored in the
7 is an object B shown in FIG.NIt is a schematic diagram for demonstrating.
8 is a first half of a flowchart showing an operation procedure of the driving
9 is the latter half of the flowchart showing the operation procedure of the driving
10 is a notification of confirmation I in step S3 of FIG.NTInitial display image I created before arrivalD0It is a schematic diagram which shows.
11 is an initial display image I displayed at the time of step S5 in FIG.D0It is a schematic diagram which shows.
12 is a second yaw rate ω calculated in step S11 of FIG. 9;2It is a schematic diagram for demonstrating.
FIG. 13 is a schematic diagram for explaining the processing content of the
14 is a schematic diagram showing a change of the display screen of the
15 is a display image I displayed on the
FIG. 16 is an object B shown in FIG.NObject B, an alternative toSIt is a schematic diagram for demonstrating.
FIG. 17 is a block diagram showing a hardware configuration of a driving
18 shows software S stored in the
FIG. 19 is a first half of a flowchart showing an operation procedure of the driving
20 is the latter half of the flowchart showing the operation procedure of the driving
FIG. 21 is a schematic diagram showing parameters of the vehicle M required in step S21 of FIG.
FIG. 22 is a block diagram showing a hardware configuration of a driving
23 shows software S stored in the
24 is a first half portion of a flowchart showing an operation procedure of the driving
25 is the latter half of the flowchart showing the operation procedure of the driving
26 is a schematic diagram showing a basic concept of spatial filtering applied to the driving
FIG. 27 shows the relative velocity V ′ of the
FIG. 28 is a schematic diagram showing
FIG. 29 shows the relative speed V ′ in step S31 of FIG.PTNIt is a schematic diagram for demonstrating the detection method.
FIG. 30 is a display image I for four frames displayed on a conventional monitor device.d1~ Id4It is a schematic diagram which shows.
[Explanation of symbols]
1, 2, 3 ... Driving support device
10, 20, 30 ... Image creation device
101. Processor
102 ... Main memory
103 ... Program memory
S1, S2, SThree…software
C1, C2, CThree... Computer program
11 ... Input device
111, 112, 113 ... operation buttons
12 ... Imaging device
13. Steering angle sensor
14 ... Vehicle speed sensor
15 ... Yaw rate sensor
16 ... Display device
Claims (6)
車両に設置された撮像装置と、
前記車両の操舵角を検出する操舵角センサと、
前記撮像装置で撮像された画像、および、前記操舵角センサで検出された操舵角にもとづいて表示画像を作成するプロセッサと、
複数の操舵角に割り当てられた、当該操舵角を保った状態で前記車両が辿ると想定される軌跡の形状を特定する図形データである複数のオブジェクトを格納するメインメモリと、
前記プロセッサによって作成された前記表示画像を表示する表示装置と、
前記車両のドライバの操作入力を受付ける入力装置とを備え、
前記プロセッサは、
予め定められた操舵角に割当てられた前記オブジェクトを前記メインメモリの中から選択し、前記撮像装置によって撮像された画像が表す光景に、重畳して初期表示画像を作成し、
前記表示装置は、前記初期表示画像を表示し、
前記入力装置が、前記車両の移動により前記初期表示画像に表示されたオブジェクトが前記車両の現在位置から停止位置までの最適な軌跡を表す最適軌跡であることを示す情報の入力を、前記ドライバから受付けると、
前記プロセッサは、
前記入力装置で入力を受付けた前記情報に基づいて、前記初期表示画像に表示されたオブジェクトを前記最適軌跡として決定し、
前記操舵角センサで検出された操舵角に基づいて、前記メインメモリに記憶されたオブジェクトを用いて、前記車両がこれから辿ると予想される予想走行軌跡を作成し、
前記光景に、前記最適軌跡および前記予想走行軌跡を重畳した表示画像を、前記メインメモリに作成する、画像作成装置。An image creation device for driving support of a vehicle,
An imaging device installed in the vehicle;
A steering angle sensor for detecting a steering angle of the vehicle;
A processor that creates a display image based on an image captured by the imaging device and a steering angle detected by the steering angle sensor;
A main memory assigned to a plurality of steering angles and storing a plurality of objects which are graphic data for specifying the shape of a trajectory that the vehicle is supposed to follow while maintaining the steering angles;
A display device for displaying the display image created by the processor;
An input device for receiving an operation input of a driver of the vehicle ,
The processor is
The object assigned to a predetermined steering angle is selected from the main memory, and an initial display image is created by superimposing on the scene represented by the image captured by the imaging device ,
The display device displays the initial display image;
Wherein the input device, the input of the information indicating that the object displayed on the initial display image by the movement of the vehicle is optimal locus representing the optimal trajectory to the stop position from the current position of the vehicle, from the driver If accepted Ru,
The processor is
Based on the information received by the input device, the object displayed in the initial display image is determined as the optimal locus,
Based on the steering angle detected by the steering angle sensor, using the object stored in the main memory, create an expected traveling locus that the vehicle is expected to follow from now on,
An image creation device that creates a display image in which the optimum trajectory and the predicted travel trajectory are superimposed on the scene in the main memory.
前記表示装置は、前記メインメモリからの受信表示画像を表示する、請求項1に記載の画像作成装置。The processor transfers the display image created by being superimposed on the main memory to a display device connected to be communicable with the processor,
The image creation device according to claim 1, wherein the display device displays a received display image from the main memory.
車両の操舵角を検出する操舵角検出ステップと、
撮像装置で撮像された画像、および、前記操舵角検出ステップで検出された操舵角にもとづいて表示画像を作成する表示画像作成ステップと、
前記表示画像作成ステップで作成された前記表示画像を表示する表示ステップと、
予め定められた操舵角に割り当てられた前記オブジェクトを前記メインメモリの中から選択し、前記撮像装置によって撮像された画像が表す光景に、重畳して初期表示画像を作成する初期表示画像作成ステップと、
前記初期表示画像を表示する初期表示画像表示ステップと、
前記車両の移動により前記初期表示画像に表示されたオブジェクトが前記車両の現在位置から停止位置までの最適な軌跡を表す最適軌跡であることを示す情報の入力を、前記車両のドライバから受付ける最適軌跡入力ステップと、
前記最適軌跡入力ステップで入力を受付けた前記情報に基づいて、前記初期表示画像に表示されたオブジェクトを前記最適軌跡として決定する最適軌跡決定ステップと、
前記操舵角検出ステップで検出された操舵角に基づいて、前記メインメモリに記憶されたオブジェクトを用いて、前記車両がこれから辿ると予想される予想走行軌跡を作成する予想走行軌跡作成ステップと、
前記光景に、前記最適軌跡および前記予想走行軌跡を重畳した表示画像を前記メインメモリに作成する作成ステップとを備える、画像作成方法。An image creation method for driving support of a vehicle, wherein a plurality of graphic data is assigned to a plurality of steering angles and specifies a shape of a trajectory that the vehicle is supposed to follow while maintaining the steering angles. The object is stored in the main memory,
A steering angle detecting step for detecting a steering angle of the vehicle;
A display image creation step of creating a display image based on the image captured by the imaging device and the steering angle detected in the steering angle detection step;
A display step for displaying the display image created in the display image creation step;
An initial display image creation step of creating an initial display image by selecting the object assigned to a predetermined steering angle from the main memory and superimposing the object on a scene represented by the image captured by the imaging device ; ,
An initial display image display step for displaying the initial display image;
Optimal trajectory input of information indicating that the object displayed on the initial display image by the movement of the vehicle is optimal trajectory representing the optimal trajectory to the stop position from the current position of the vehicle receives from the vehicle driver An input step;
An optimal trajectory determining step for determining an object displayed in the initial display image as the optimal trajectory based on the information received in the optimal trajectory input step;
The steering angle detected based on the steering angle detected in step, with the objects stored in said main memory, a predicted travel locus generating step of generating a predicted traveling locus in which the vehicle is expected to follow from this,
And a creation step of creating, in the main memory, a display image in which the optimal trajectory and the predicted travel trajectory are superimposed on the scene.
前記メインメモリからの受信表示画像を表示する受信表示画像表示ステップとを備える、請求項3に記載の画像作成方法。A transfer step of transferring a display image created by being superimposed on the main memory to a display device connected to be communicable with itself;
The image creation method according to claim 3, further comprising: a received display image display step for displaying a received display image from the main memory.
前記コンピュータに、
車両の操舵角を検出する操舵角検出ステップと、
撮像装置で撮像された画像、および、前記操舵角検出ステップで検出された操舵角にもとづいて表示画像を作成する表示画像作成ステップと、
前記表示画像作成ステップで作成された前記表示画像を表示する表示ステップと、
予め定められた操舵角に割り当てられた前記オブジェクトを前記メインメモリの中から選択し、前記撮像装置によって撮像された画像が表す光景に、重畳して初期表示画像を作成する初期表示画像作成ステップと、
前記初期表示画像を表示する初期表示画像表示ステップと、
前記車両の移動により前記初期表示画像に表示されたオブジェクトが前記車両の現在位置から停止位置までの最適な軌跡を表す最適軌跡であることを示す情報の入力を、前記車両のドライバから受付ける最適軌跡入力ステップと、
前記最適軌跡入力ステップで入力を受付けた前記情報に基づいて、前記初期表示画像に表示されたオブジェクトを前記最適軌跡として決定する最適軌跡決定ステップと、
前記操舵角検出ステップで検出された操舵角に基づいて、前記メインメモリに記憶されたオブジェクトを用いて、前記車両がこれから辿ると予想される予想走行軌跡を作成する予想走行軌跡作成ステップと、
前記光景に、前記最適軌跡および前記予想走行軌跡を重畳した表示画像を前記メインメモリに作成する作成ステップと実行させる、画像作成プログラム。An image creation program executed by a computer of an image creation device for driving support of a vehicle, which is assigned to a plurality of steering angles, and a shape of a trajectory assumed to be followed by the vehicle while maintaining the steering angles Multiple objects that are graphic data that identify
In the computer,
A steering angle detecting step for detecting a steering angle of the vehicle;
A display image creation step of creating a display image based on the image captured by the imaging device and the steering angle detected in the steering angle detection step;
A display step for displaying the display image created in the display image creation step ;
An initial display image creation step of creating an initial display image by selecting the object assigned to a predetermined steering angle from the main memory and superimposing the object on a scene represented by the image captured by the imaging device ; ,
An initial display image display step for displaying the initial display image;
Optimal trajectory input of information indicating that the object displayed on the initial display image by the movement of the vehicle is optimal trajectory representing the optimal trajectory to the stop position from the current position of the vehicle receives from the vehicle driver An input step;
An optimal trajectory determining step for determining an object displayed in the initial display image as the optimal trajectory based on the information received in the optimal trajectory input step;
The steering angle detected based on the steering angle detected in step, with the objects stored in said main memory, a predicted travel locus generating step of generating a predicted traveling locus in which the vehicle is expected to follow from this,
An image creation program for executing a creation step of creating a display image in which the optimum trajectory and the predicted travel trajectory are superimposed on the scene in the main memory.
前記メインメモリからの受信表示画像を表示する受信表示画像表示ステップとを実行させる、請求項5に記載の画像作成プログラム。A transfer step of transferring a display image created by being superimposed on the main memory to a display device connected to be communicable with itself;
The image creation program according to claim 5, wherein a reception display image display step of displaying a reception display image from the main memory is executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001347623A JP4034548B2 (en) | 2001-11-13 | 2001-11-13 | Image creation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001347623A JP4034548B2 (en) | 2001-11-13 | 2001-11-13 | Image creation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003146161A JP2003146161A (en) | 2003-05-21 |
JP4034548B2 true JP4034548B2 (en) | 2008-01-16 |
Family
ID=19160600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001347623A Expired - Fee Related JP4034548B2 (en) | 2001-11-13 | 2001-11-13 | Image creation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4034548B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3977368B2 (en) * | 2004-09-30 | 2007-09-19 | クラリオン株式会社 | Parking assistance system |
JP5472026B2 (en) | 2010-06-29 | 2014-04-16 | トヨタ自動車株式会社 | Parking assistance device |
-
2001
- 2001-11-13 JP JP2001347623A patent/JP4034548B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003146161A (en) | 2003-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6675448B2 (en) | Vehicle position detecting method and device | |
US6539288B2 (en) | Vehicle rendering device for generating image for drive assistance | |
EP2416570B1 (en) | Calibration device, method, and program for onboard camera | |
EP2739050B1 (en) | Vehicle surroundings monitoring system | |
JP5077307B2 (en) | Vehicle surrounding image display control device | |
JP2004297808A (en) | Moving object periphery monitoring device | |
JP6425991B2 (en) | Towing vehicle surrounding image generating apparatus and method for generating towing vehicle surrounding image | |
JP7156937B2 (en) | Image processing device and image processing method | |
JP4797877B2 (en) | VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD | |
JP5045172B2 (en) | Vehicle driving support device | |
WO2018159017A1 (en) | Vehicle display control device, vehicle display system, vehicle display control method and program | |
JP2004240480A (en) | Operation support device | |
JPH10175482A (en) | Vehicle rear view field support device | |
JP2007168560A (en) | Parking support apparatus | |
JP4466963B2 (en) | Vehicle front image display apparatus and method | |
JPH0717328A (en) | Circumference recognition auxiliary device for vehicle | |
WO2011013813A1 (en) | In-vehicle device and image processing program | |
JP2010183234A (en) | Drawing apparatus | |
JP2019054439A (en) | Image processing system | |
JP2006160194A (en) | Parking support device | |
JP4034548B2 (en) | Image creation device | |
JP3830025B2 (en) | Drawing device | |
JP2002079881A (en) | Plotter | |
KR101861523B1 (en) | Apparatus and method for supporting driving of vehicle | |
JP4545485B2 (en) | Stop position detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040701 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070620 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070809 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070827 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070910 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071002 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071025 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101102 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111102 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121102 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121102 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131102 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |