JP4034548B2 - Image creation device - Google Patents

Image creation device Download PDF

Info

Publication number
JP4034548B2
JP4034548B2 JP2001347623A JP2001347623A JP4034548B2 JP 4034548 B2 JP4034548 B2 JP 4034548B2 JP 2001347623 A JP2001347623 A JP 2001347623A JP 2001347623 A JP2001347623 A JP 2001347623A JP 4034548 B2 JP4034548 B2 JP 4034548B2
Authority
JP
Japan
Prior art keywords
vehicle
display image
steering angle
image
main memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001347623A
Other languages
Japanese (ja)
Other versions
JP2003146161A (en
Inventor
崇 吉田
明 石田
篤 飯阪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2001347623A priority Critical patent/JP4034548B2/en
Publication of JP2003146161A publication Critical patent/JP2003146161A/en
Application granted granted Critical
Publication of JP4034548B2 publication Critical patent/JP4034548B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、画像作成装置に関し、より特定的には、車載の撮像装置から得られる撮影画像を基礎として、車両の運転支援用の画像を作成する画像作成装置に関する。
【0002】
【従来の技術】
従来から、上述のような画像作成装置が盛んに研究・開発されている。このような画像作成装置として、本従来の技術の節では、特開昭59−114139号公報のモニター装置について説明する。このモニター装置において、車載のカメラは、自車両の後方の光景を撮影した画像(以下、撮影画像と称す)を作成する。CPUは、操舵角センサからの操舵角に基づいて、自車両がこれから辿ると想定される予想走行軌跡を示す図形(以下、単に予想走行軌跡と称する)を作成する。作成した予想走行軌跡を、CPUは撮影画像に重畳して、表示画像を作成する。以上の表示画像を、表示装置は受け取り表示する。
【0003】
今、ドライバが実際に車両を駐車スペースに入れる場面を想定する。ここで、図30は、駐車開始時から駐車終了時までに、上述の表示装置に表示される4フレーム分の表示画像Id1〜Id4を示す模式図である。図30において、表示画像Id1は、駐車開始時(時刻td1とする)に表示装置に表示される。さらに、表示画像Id2は、時刻td1よりも後の時刻td2に、表示画像Id3は、時刻td3よりも後の時刻td3に表示される。また、表示画像Id4は、時刻td3より後でありかつ車両と駐車スペースの向きが揃う時刻td4に表示される。以上の表示画像Id1〜Id4のいずれにも、上述の予想走行軌跡ETが重畳される。また、予想走行軌跡ETはいずれも、時刻td1〜td4での自車両の操舵角から決まり、表示画像Id1〜Id4における車両Mから予め定められた長さを有する。以上の表示画像Id1〜Id4を見ることで、ドライバは、現在のハンドル操作で、自車両がこれからどのように進むかを確認できる。
【0004】
【発明が解決しようとする課題】
次に、以上のモニター装置が抱えている問題点について説明する。駐車時において、大抵のドライバは、最初に、自車両を駐車スペースに入れやすい場所(以下、初期位置と称する)に移動させ、その後、駐車スペースに向けて自車両を移動させる。自車両の移動中、ドライバは、駐車スペースにおける停止位置に自車両が正しく向かっているかどうか気になるものである。しかしながら、従来の表示画像(図30参照)は、現在のハンドル操作で自車両が辿ると想定される軌跡のみを示す。従って、ハンドル操作を誤った場合、予想走行軌跡は、駐車スペースから外れてしまう。このような場合、ドライバは、どの程度ハンドル操作を修正すれば、自車両が停止位置に向かうかが理解しづらいという問題点があった。
【0005】
それ故に、本発明は、自車両が停止位置に正しく向かっているか否かを理解しやすい画像を作成する画像作成装置を提供することを目的とする。
【0006】
【課題を解決するための手段および発明の効果】
本発明の第1の局面は、車両の運転支援のための画像作成装置に向けられている。本発明は、車両に設置された撮像装置と、車両の操舵角を検出する操舵角センサと、撮像装置で撮像された画像、および、操舵角センサで検出された操舵角にもとづいて表示画像を作成するプロセッサと、複数の操舵角に割り当てられた、当該操舵角を保った状態で前記車両が辿ると想定される軌跡の形状を特定する図形データである複数のオブジェクトを格納するメインメモリと、プロセッサによって作成された表示画像を表示する表示装置と、車両のドライバの操作入力を受付ける入力装置とを備え、プロセッサは、予め定められた操舵角に割り当てられたオブジェクトをメインメモリの中から選択し、撮像装置によって撮像された画像が表す光景に、重畳して初期表示画像を作成し、表示装置は、初期表示画像を表示し、入力装置が、前記車両の移動により前記初期表示画像に表示されたオブジェクト車両の現在位置から停止位置までの最適な軌跡を表す最適軌跡であることを示す情報の入力を、前記ドライバから受付けると、プロセッサは、入力装置で入力を受付けた情報に基づいて、初期表示画像に表示されたオブジェクトを最適軌跡として決定し、操舵角センサで検出された操舵角に基づいて、メインメモリに記憶されたオブジェクトを用いて、車両がこれから辿ると予想される予想走行軌跡を作成し、光景に、前記最適軌跡および前記予想走行軌跡を重畳した表示画像を、メインメモリに作成する。
【0007】
このようにすれば、予め準備されたオブジェクトを用いて、最適軌跡、及び予想走行軌跡を作成できるため、迅速に画像を作成することができる。
【0008】
また、プロセッサは、メインメモリに重畳して作成した表示画像を、自身と通信可能に接続された表示装置に転送し、表示装置は、前記メインメモリからの受信表示画像を表示することが好ましい。
【0009】
本発明の第2の局面は、車両の運転支援のための画像作成方法に向けられている。本発明は、複数の操舵角に割り当てられ、当該操舵角を保った状態で車両が辿ると想定される軌跡の形状を特定する図形データである複数のオブジェクトがメインメモリに格納されており、車両の操舵角を検出する操舵角検出ステップと、撮像装置で撮像された画像、および、操舵角検出ステップで検出された操舵角にもとづいて表示画像を作成する表示画像作成ステップと、表示画像作成ステップで作成された表示画像を表示する表示ステップと、予め定められた操舵角に割り当てられたオブジェクトをメインメモリの中から選択し、撮像装置によって撮像された画像が表す光景に、重畳して初期表示画像を作成する初期表示画像作成ステップと、初期表示画像を表示する初期表示画像表示ステップと、車両の移動により初期表示画像に表示されたオブジェクト車両の現在位置から停止位置までの最適な軌跡を表す最適軌跡であることを示す情報の入力を、車両のドライバから受付ける最適軌跡入力ステップと、最適軌跡入力ステップで入力を受付けた前記情報に基づいて、初期表示画像に表示されたオブジェクトを前記最適軌跡として決定する最適軌跡決定ステップと、操舵角検出ステップで検出された操舵角に基づいて、メインメモリに記憶されたオブジェクトを用いて、車両がこれから辿ると予想される予想走行軌跡を作成する予想走行軌跡作成ステップと、光景に、最適軌跡および予想走行軌跡を重畳した表示画像をメインメモリに作成する作成ステップとを備える。
【0010】
このようにすれば、予め準備されたオブジェクトを用いて、最適軌跡、及び予想走行軌跡を作成できるため、迅速に画像を作成することができる。
【0011】
また、メインメモリに重畳して作成した表示画像を、自身と通信可能に接続された表示装置に転送する転送ステップと、メインメモリからの受信表示画像を表示する受信表示画像表示ステップとを備えることが好ましい。
【0012】
本発明の第3の局面は、車両の運転支援のための画像作成装置のコンピュータで実行される画像作成プログラムに向けられている。本発明は、複数の操舵角に割り当てられ、当該操舵角を保った状態で車両が辿ると想定される軌跡の形状を特定する図形データである複数のオブジェクトがメインメモリに格納されており、コンピュータに、車両の操舵角を検出する操舵角検出ステップと、撮像装置で撮像された画像、および、操舵角検出ステップで検出された操舵角にもとづいて表示画像を作成する表示画像作成ステップと、表示画像作成ステップで作成された表示画像を表示する表示ステップと、予め定められた操舵角に割り当てられたオブジェクトをメインメモリの中から選択し、撮像装置によって撮像された画像が表す光景に、重畳して初期表示画像を作成する初期表示画像作成ステップと、初期表示画像を表示する初期表示画像表示ステップと、車両の移動により初期表示画像に表示されたオブジェクト車両の現在位置から停止位置までの最適な軌跡を表す最適軌跡であることを示す情報の入力をドライバから受付ける最適軌跡入力ステップと、最適軌跡入力ステップで入力を受付けた情報に基づいて、初期表示画像に表示されたオブジェクトを最適軌跡として決定する最適軌跡決定ステップと、操舵角検出ステップで検出された操舵角に基づいて、メインメモリに記憶されたオブジェクトを用いて、車両がこれから辿ると予想される予想走行軌跡を作成する予想走行軌跡作成ステップと、光景に、最適軌跡および予想走行軌跡を重畳した表示画像をメインメモリに作成する作成ステップと実行させる。
【0013】
このようにすれば、予め準備されたオブジェクトを用いて、最適軌跡、及び予想走行軌跡を作成できるため、迅速に画像を作成することができる。
【0014】
また、メインメモリに重畳して作成した表示画像を、自身と通信可能に接続された表示装置に転送する転送ステップと、メインメモリからの受信表示画像を表示する受信表示画像表示ステップとを実行させることが好ましい。
【0025】
【発明の実施の形態】
「第1の実施形態」
図1は、本発明の第1の実施形態に係る画像作成装置10を組み込んだ運転支援装置1のハードウェア構成を示すブロック図である。図1において、画像作成装置10は、少なくとも、プロセッサ101と、メインメモリ102と、プログラムメモリ103とから構成される。運転支援装置1は、車両M(図2参照)に搭載され、画像作成装置10以外に、入力装置11と、少なくとも1台の撮像装置12と、操舵角センサ13と、車速センサ14と、ヨーレートセンサ15と、表示装置16とを備えている。
【0026】
入力装置11は、車両Mのドライバにより操作され、本実施形態では、3つの操作ボタン111〜113から構成される。操作ボタン111には、画像表示処理(図8,図9参照)の開始機能が割り当てられている。この操作ボタン111を、ドライバは、その右斜め前方から駐車スペースへ車両Mを入れる時に操作する。この操作に応答して、入力装置11は、画像表示処理の開始を指示するための情報(以下、開始指示と称する)DSDを、プロセッサ101に出力する。また、操作ボタン112には、最適軌跡LT(図5参照)の確定機能が割り当てられている。この操作ボタン112をドライバが操作した時、入力装置11は、最適軌跡LTが確定したことを通知するための情報(以下、確定通知と称する)DNTをプロセッサ101に出力する。操作ボタン113には、画像表示処理の終了機能が割り当てられている。この操作ボタン113を、ドライバは、車両Mが駐車スペースに完全に収まった時に操作する。この操作に応答して、入力装置11は、画像表示処理の終了を指示するための情報(以下、終了指示と称する)DTDを、プロセッサ101に出力する。
【0027】
図1の撮像装置12は、図2に示すように、車両Mの両側面から等距離であって、車両Mの後端に固定される。より具体的には、撮像装置12の光軸OAが縦中心面SC 内を車両Mの後方に向かって延び、かつ当該光軸OAが路面SR と交差するように、撮像装置12は固定される。ここで、縦中心面SC は、車両Mの両前輪(または両後輪)の回転中心同士を結ぶ線分を垂直二等分する鉛直面である。以上のように固定される撮像装置12は、車両Mの後方において、自身の視野内の光景を撮影して、図3に示すような撮影画像ICPT を生成する。ここで、撮影画像ICPT には、車両Mの後端が映っていることが好ましい。
【0028】
図1の操舵角センサ13は、車両Mに取り付けられているハンドルが所定の基準位置から回転した角度(つまり、操舵角)を検出し、検出結果を示す操舵角αi をプロセッサ101に送信する。ここで、iは、1からNまでの自然数のいずれかである。Nは、運転支援装置1の設計要件に応じて決まるが、本実施形態では便宜上、奇数と仮定する。また、上述の基準位置は、好ましくは、車両Mの直進時におけるハンドルの位置である。また、本実施形態では、便宜上、操舵角α1 =−αL ,α2 =−αL +Δα,α3 =−αL +2×Δα,…,α(N-1)/2+1 =0,α(N-1) =αL −Δα,αN =αL であると仮定する。ここで、−αL およびαL は、ハンドルが左方向および右方向に最大限切れた時の操舵角であり、車両Mに固有かつ既知の値である。また、Δαは2×αL /Nである。
【0029】
車速センサ14は、車両Mの現在の走行速度(以下、単に速度と称する)Vを検出し、プロセッサ101に送信する。また、ヨーレートセンサ15は、第1のヨーレートω1 を検出し、プロセッサ101に送信する。ここで、図4は、第1のヨーレートω1 を説明するための模式図である。図4において、車両M(図示は外形線のみ)は、ある時刻t0 に、矢印A0 で示す方向に後退している。また、時刻t0 から時間Tまでの間、車両Mは、2本の点線矢印で示すように、右斜め後方に後退する。この時間Tの間に、車両Mの進行方向は、矢印A0 から矢印A1 で示す方向に変化している。今、矢印A0 およびA1 の方向同士がなす角をβとおくと、第1のヨーレートω1 は、次式(1)で表される。
ω1 =β/T…(1)
【0030】
さらに、図4を参照して、以下の説明で必要となる車両座標系について説明する。図4において、車両座標系は、X1 軸、Y1 軸およびZ1 軸からなる3次元直交座標系である。まず、Z1 軸は、車両Mの現在の重心位置PBYC を基準として鉛直方向を示す。また、X1 軸は、この重心位置PBYC を基準として車両Mの進行方向を示す。さらに、Y1 軸は、車両Mの重心位置PBYC を基準として、上述のX1 軸およびZ1 軸に垂直な方向を示す。上述の第1のヨーレートω1 は、以上のX1 軸の時間T当たりの回転量でもある。
【0031】
また、図1の表示装置16は、後で説明する表示画像IDPY (図5参照)を表示する。プロセッサ101は、上述の撮影画像ICPT を使って、表示画像IDPY を作成する。ここで、図5は、表示画像IDPY の一例を示す模式図である。図5において、表示画像IDPY は、撮影画像ICPT と、それに重畳される最適軌跡LTおよび予想走行軌跡ETとから構成される。最適軌跡LTは、好ましくは、車両Mの現在位置PCPからその停止位置PSPまでの最適な軌跡を表す図形である。また、予想走行軌跡ETは、現在の操舵角αi を保った場合に車両Mが現在位置PCPから今後辿ると想定される軌跡を表す図形である。なお、停止位置PSP、現在位置PCPについては、運転支援装置1の動作説明で詳説するので、ここではそれらの説明を省略する。
【0032】
また、図1のメインメモリ102は、主として、プロセッサ101のワーキングエリアとして使われる。特に、メインメモリ102において、表示画像IDPY そのものが作成される記憶領域をフレームメモリと称する。また、プログラムメモリ103は、典型的にはROM(Read Only Memory)から構成され、本運転支援装置1の動作に必要なソフトウェアS1 を格納する。ソフトウェアS1 は、図6に示すように、コンピュータプログラム(以下、単にプログラムと称する)C1 と、所定個数のオブジェクトBとから構成される。プログラムC1 は、本運転支援装置1の動作を規定する。各オブジェクトBは、上述の最適軌跡LTまたは予想走行軌跡ETの基礎となる。つまり、プロセッサ101は、オブジェクトBから最適軌跡LTおよび予想走行軌跡ETを作成する。ここで、上述のように、操舵角センサ13が検出できる操舵角はN個であるから、所定個数のオブジェクトBとして、N個のオブジェクトB1 〜BN が準備される。オブジェクトB1 〜BN は、操舵角α1 〜αN に割り当てられており、より具体的には、操舵角α1 〜αN を保った状態で車両Mが辿ると想定される軌跡の形状を特定する図形データである。なお、オブジェクトB(N-1)/2+1 を除くオブジェクトB1 〜BN は実質的に、部分環状(つまり、円弧状かつ帯状)のような形状を有する。しかし、操舵角α(N-1)/2+1 は0であるから、オブジェクトB(N-1)/2+1 だけは矩形状の図形となる。
【0033】
次に、図7(a)および(b)を参照して、オブジェクトBN のデータ構造を例示的に説明する。図7(a)において、オブジェクトBN は、r個(rは予め定められた自然数である)の座標値Pv1〜Pvrからなる。ここで、座標値Pv1〜Pvrは、上述の車両座標系(図4参照)の座標値である。以上の座標値Pv1〜Pvrをつなぐことで、図7(b)に示すように、操舵角αN 時の車両Mの軌跡が表現される。なお、図7(a)および(b)では、便宜上、4個の座標値Pv1、Pvj、PvkおよびPvrのみが示されている。ここで、座標値Pv1およびPvrは、車両Mの右後輪および左後輪の座標値であり、さらに、車両Mの軌跡の開始線LSTの両端を特定する。また、座標値PvjおよびPvkは、車両Mの軌跡の終端線LTMの両端を特定する。
【0034】
他のオブジェクトB1 〜B(N-1) も、操舵角α1 〜α(N-1) に応じた車両Mの軌跡の形状を、上述と同様のデータ構造で表現しているので、それらの詳細な説明を省略する。
【0035】
次に、以上の構成を有する運転支援装置1の動作を説明する。まず、運転支援装置1の電源が投入されると、プロセッサ101は、プログラムメモリ103からソフトウェアS1 をメインメモリ102に読み出す。さらに、今、車両Mは駐車スペースの右斜め前方に現在位置しており、ドライバが今からその駐車スペースに車両Mを入れようとしていると仮定する。この時、操作ボタン111がドライバにより操作され、その結果、プロセッサ101には、前述の開始指示DSDが送信される。プロセッサ101は、受信開始指示DSDに応答して、メインメモリ102上のプログラムC1 の実行、つまり画像表示処理を開始する。
【0036】
ここで、図8および図9は、プログラムC1 に記述されている運転支援装置1の動作手順を示すフローチャートである。図8において、プロセッサ101は、最初に、メインメモリ102上のオブジェクトB1 〜BN の中から、予め定められたオブジェクトBj を選択する(ステップS1)。現在、車両Mは駐車スペースの右斜め前方に位置する。このような状況では、ドライバは、車両Mを駐車スペースに入れるために、ハンドルを右方向に切る。以上のことから、ステップS1では、正の値を有する操舵角α(N-1)/2+2 〜αN のいずれかに割り当てられたオブジェクトBj が選ばれる。つまり、jは、(N−1)/2+2からNまでのいずれかの自然数である。なお、以降の実施形態では、便宜上、jはNと仮定し、さらに、ステップS1で選択されたオブジェクトBj を、選択オブジェクトBN と称する。
【0037】
次に、プロセッサ101は、撮像指示を生成し、撮像装置12に送信する。撮像装置12は、受信撮像指示に応答して、自身の視野に現在含まれる光景を表す撮影画像ICPT (図3参照)を生成して、メインメモリ102内のフレームメモリに格納する(ステップS2)。つまり、ステップS2で、画像作成装置10は撮像装置12から撮影画像ICPT を受け取る
【0038】
次に、図10に示す初期表示画像ID0が作成・表示される(ステップS3)。より具体的には、ステップS3において、まず、選択オブジェクトBN を構成する座標値Pv1〜Pvrが、プロセッサ101により、画像座標系の座標列に変換される。ここで、画像座標系は、図3に示すように、撮影画像ICPT の水平方向を示すX2 軸と、その鉛直方向を示すY2 軸とからなる。なお、このような座標変換については、例えば、国際公開WO00−07373号公報に開示されているので、ここではその詳細な説明を省略する。以上の座標変換された選択オブジェクトBN (斜線部分参照)が、フレームメモリ上の撮影画像ICPT に重畳され、これによって、図10のような初期表示画像ID0が完成する。ここで、図10にはさらに、ドライバが駐車スペースにおいて車両Mを停止させたいと考えている停止位置PSPが示されている。しかし、この停止位置PSPは、後の説明に必要になるため示されているだけであって、実際の撮影画像ICPT には重畳されない点には注意を要する。以上のようにして完成した初期表示画像ID0は、プロセッサ101の制御下で表示装置16に転送され、表示装置16は、受信初期表示画像ID0を表示する。
【0039】
次に、プロセッサ101は、入力装置11から、上述の確定通知DNTが到着しているか否かを判断する(ステップS4)。確定通知DNTが到着済であれば、プロセッサ101は、ステップS5に進み、そうでなければ、ステップS2に戻る。ここで、初めて実行されるステップS3では、単に、選択オブジェクトBN が重畳されるだけである。それゆえ、図10に示すように、初期表示画像ID0において、選択オブジェクトBN の終端線LTMは、ドライバが車両Mを停止させたいと考えている停止位置PSPを正確に示していない場合が多い。この場合、選択オブジェクトBN はまだ最適経路LTでない。そのため、ドライバは、初期表示画像ID0を見ながら、この終端線LTMが停止位置PSPに合うように、車両Mを移動させる。両者が合っていない場合には、ドライバは操作ボタン112を操作しないので、ステップS4では「No」と判断され、運転支援装置1では、ステップS1からS4までの一連の動作が繰り返される。この間、ステップS3が実行される度に、新しい初期表示画像ID0が作成され表示される。以上のことから、時間経過と共に、終端線LTMは停止位置PSPにだんだん近づいて行く。
【0040】
そして、終端線LTMが停止位置PSPに合った時、図11に示すように、初期表示画像ID0において、選択オブジェクトBN は、車両Mの現在位置PCPから停止位置PSPまでの最適経路LTを表す。ここで、以下の説明では、終端線LTMが停止位置PSPに合った時の車両Mの現在位置PCPを駐車開始位置Pstと称する。この時点で、ドライバは初めて、操作ボタン112を操作し、これによって、入力装置11からは、前述の確定通知DNTがプロセッサ101に送信される。上述のステップS4の実行時に確定通知DNTが到着済であれば、プロセッサ101は、選択オブジェクトBN を最適軌跡LTとして決定し、メインメモリ102で保持する(ステップS5)。また、ドライバは、操作ボタン112の操作後、車両Mを駐車開始位置Pstから停止位置PSPに向けて移動させ始める。
【0041】
次に、プロセッサ101は、初期設定を行う(ステップS6)。より具体的には、まず、プロセッサ101は、ステップS6の実行時刻を、基準時刻tREF として設定する。さらに、プロセッサ101は、車両Mの第2のヨーレートω2 を初期値ω20に設定し、車両Mの現在位置PCPを初期位置P0 に設定する。
【0042】
以上の基準時刻tREF の設定により、ワールド座標系が定義される。次に、図12を参照して、ワールド座標系について説明する。図12において、ワールド座標系は、基準時刻tREF での車両Mの重心位置PBYC を原点として有し、X3 軸、Y3 軸およびZ3 軸からなる3次元直交座標系である。X3 軸は、原点を基準として車両Mの進行方向を示す。Z3 軸は、原点を基準として鉛直方向を示す。Y3 軸は、上述のX3 軸およびZ3 軸に直交する。以上のワールド座標系は、前述の車両座標系と比較すると、以下の点で相違する。つまり、車両座標系は、図4に示すように車両Mと共に移動するが、ワールド座標系は、基準時刻tREF での車両Mの重心位置PBYC で固定される。つまり、ワールド座標系は、車両Mが移動しても移動しない。
【0043】
次に、図12を参照して、第2のヨーレートω2 を説明する。図12において、車両Mは、基準時刻tREF に、上述のX3 軸方向に後退している。また、基準時刻tREF から現在時刻tCPまでの間、車両Mは、2本の点線矢印で示すように、右斜め後方に後退する。この間に、車両Mの進行方向は、X3 軸方向から矢印A2 の方向に変化している。今、現在時刻tCPでの車両Mの重心位置PBYC からX3 軸と平行な補助線La2を引く。さらに、補助線La2および矢印A2 の方向がなす角をγとおくと、第2のヨーレートω2 は、次式(2)で表される。
ω2 =γ/(tCP−tREF )…(2)
なお、第1のヨーレートω1 が車両座標系上での車両Mのヨーレートであるのに対して、以上の第2のヨーレートω2 は、ワールド座標系上でのものである点で相違する。また、上述の初期値ω20は、基準時刻tREF での第2のヨーレートω2 であり、0である。
【0044】
また、現在位置PCPは、現在時刻tCPでの車両Mの重心位置PBYC であり、ワールド座標系の座標値(xCP,yCP,zCP)で表される。また、初期位置P0 は、基準時刻tREFでの車両Mの重心位置PBYC であり、ワールド座標系の座標値(xCP0 ,yCP0 ,zCP0 )で表される。つまり、初期位置P0 は、ワールド座標系の原点であるから、(0,0,0)となる。
【0045】
次に、プロセッサ101は、ステップS1と同様にして、撮像装置12から撮影画像ICPT を受け取る(図8;ステップS7)。次に、プロセッサ101は、操舵角センサ13、車速センサ14およびヨーレートセンサ15から、車両Mの操舵角αi 、速度Vおよび第1のヨーレートω1 を受け取る(ステップS8〜10)。
【0046】
次に、プロセッサ101は、受信した速度Vおよび第1のヨーレートω1 を使って、車両Mの移動量TAを求める(ステップS11)。より具体的には、プロセッサ101はまず、受信した第1のヨーレートω1 を次式(3)に代入して、第2のヨーレートω2 を算出する。なお、プロセッサ101が上式(2)を使えないのは、本実施形態では、角度γを検出することができないからである。
【数1】

Figure 0004034548
次に、プロセッサ101は、算出した第2のヨーレートω2 および受信した速度Vを次式(4)および(5)に代入して、座標値xCPおよびyCPを算出する。なお、本実施形態では、座標値zCPは、時間に対して一定値(つまり、zCP0 )とみなせるので、算出しない。
【数2】
Figure 0004034548
上式(4)および(5)において、δは車両Mの重心の横滑り角であり、駐車時のように車両Mが低速走行している場合には、0とみなせる。座標値xCPおよびyCPの算出後、プロセッサ101は、初期位置P0 から現在位置Pまでの移動量TA(xCP−xCP0 ,yCP−yCP0 )を算出する。
【0047】
ステップS11の次に、プロセッサ101は、以上の移動量TAを使って、現在保持している最適軌跡LTを変形して、現在の最適軌跡LTを作成し保持する(ステップS12)。より具体的には、車両Mは基準時刻tREF から現在時刻tCPの間に上述の移動量TAだけ移動している。最適軌跡LTは、上述のように、現在位置PCPから始まる性質を有するから、保持中の最適軌跡LTにおいて、この移動量TAに相当する分は不必要となる。
【0048】
例えば、図13に示すように、基準時刻tREF の時点では、最適軌跡LT(選択オブジェクトBN )の開始線LSTを規定する座標値Pv1およびPvrは必要である。しかしながら、時間経過と共に、車両Mは、基準時刻tREF の時点の最適軌跡LT上を移動していくような感じになるので、基準時刻tREF が過ぎてしまえば、座標値Pv1およびPvrは不要になる。そのため、初めて実行されるステップS12では、プロセッサ101は、保持中の最適経路LTを構成する座標列Pv1〜Pvrから、車両Mが基準時刻tREF から現在時刻tCPまでに移動した領域RM1に含まれる座標値を削除して、現在の最適軌跡LTを作成する。ここで、移動領域RM1は、xv1以上xv1+(xCP−xCP0 )以下の範囲である。
【0049】
また、2回目以降に実行されるステップS12においても、初回の場合と同様に、プロセッサ101は、保持中の最適経路LTを構成する座標列から、車両Mが基準時刻tREF から現在時刻tCPまでに移動した領域RM1に含まれる座標値を削除して、現在の最適軌跡LTを作成する。
【0050】
次に、プロセッサ101は、予想走行軌跡ETを作成する(ステップS13)。より具体的には、プロセッサ101は最初に、メインメモリ102上のオブジェクトB1 〜BN の中から、ステップS8で得た現在の操舵角αi に割り当てられているオブジェクトBq を選択する。ここで、qは、1からNのいずれかの自然数である。次に、プロセッサ101は、オブジェクトBq を構成する座標列から少なくとも4個の座標値を選択する。この時、オブジェクトBq の開始線LST(図7参照)を示す2個の座標値を必ず含む。
【0051】
ステップS13の次に、図5に示す表示画像IDPY が作成・表示される(ステップS14)。ステップS14をより具体的に説明すると、まず、ステップS12で作成された最適経路LTを構成する車両座標系の座標列が、画像座標系の座標列に変換される。さらに、ステップS13で作成された予想走行軌跡ETを構成する車両座標系の座標列が、画像座標系の座標列に変換される。なお、このような座標変換については、例えば、国際公開WO00−07373号公報に開示されているので、ここではその詳細な説明を省略する。以上の座標変換された最適経路LTおよび予想走行軌跡ETが、ステップS7でフレームメモリに格納された撮影画像ICPT に重畳され、これによって、現在時刻tCPでの表示画像IDPY が完成する。次に、プロセッサ101の制御下で、完成した表示画像IDPY が表示装置16に転送され、表示装置16は、受信表示画像IDPY を表示する。
【0052】
次に、プロセッサ101は、入力装置11から、上述の終了指示DTDが到着しているか否かを判断する(ステップS15)。終了指示DTDが到着済であれば、プロセッサ101は、車両Mが停止位置PSPに到達したと見なして、画像表示処理を終了し、そうでなければ、次の表示画像IDPY を作成するために、ステップS7に戻る。
【0053】
ここで、図14は、基準時刻tREF から終了指示DTDの到着時までに、表示装置16で表示される表示画像Id がどのように遷移するかを示す模式図である。図14には、4フレーム分の表示画像IDPY が示されている。最上段の表示画像Id は、運転支援装置1が基準時刻tREF に上述の処理を実行することで表示される。また、その下段の表示画像IDPY は、時刻(tREF +Δt)に表示される。さらに、時刻(tREF +Δt)および(tREF +2×Δt)に表示される表示画像IDPY が示されている。また、図14の最下段には、時刻(tREF +3×Δt)に表示され、終了指示DTDの到着直前の表示画像IDPY が示されている。以上の表示画像IDPY の時間に対する変化を見れば分かるように、終了指示DTDの到着時に近づくに連れて、表示装置16の画面上において、最適軌跡LTの形状は、車両Mの動きに応じて変化し、より具体的には、車両Mの停止位置PSPに向かって縮んでいく最適軌跡LTが表示される。また、車両Mは、縮んでいく最適軌跡LTに追従するように表示される。これによって、ドライバは、従来よりも、駐車スペースにおける停止位置PSPに車両Mが正しく向かっているかどうかを確認しやすくなる。
【0054】
さらに、表示画像Id には、最適軌跡LTだけでなく予想走行軌跡ETも合成される。もし、ドライバが適切なハンドル操作を行い、車両Mが正しく停止位置PSPに向かっている場合には、図14に示すように、表示装置16の画面上において、予想走行軌跡ETは、最適軌跡LT上を動くように表示される。しかしながら、もし、ドライバが不適切なハンドル操作を行った場合には、図15に示す表示画像IDPY のように、予想走行軌跡ETは、最適軌跡LTから外れてしまう。これによって、ドライバは、瞬時に、ハンドル操作の誤りに気づくことが可能となり、さらに使い勝手の良い運転支援装置1を提供することが可能になる。
【0055】
また、以上の実施形態では、最適軌跡LTおよび予想走行軌跡ETの双方が撮影画像ICPT に重畳されるとして説明した。しかし、本願で設定された課題を解決するには、少なくとも、最適軌跡LTが重畳されれば良い。また、撮像装置12のレンズに生じる歪みを補正された撮影画像ICPT に、最適軌跡LTおよび予想走行軌跡ETの双方が重畳されても良い。
【0056】
なお、以上の実施形態では、ドライバは、初期表示画像ID0を見ながら、この終端線LTMが停止位置PSPに合うように、車両Mを移動させるとして説明した。その結果、最適軌跡LTは、車両Mの現在位置PCPからその停止位置PSPまでを表すようにしていた。しかし、これに限らず、運転支援装置1は、プログラムC1 の実行を開始直後、予め定められたオブジェクトBj を最適経路LTとして選択してもよい。この場合、初期表示画像ID0において、オブジェクトBj (つまり、最適経路LT)の終端線LTMは、大抵の場合、停止位置PSPを指示しない。このような最適経路LTであっても、ドライバは、停止位置PSPに至る途中までの最適経路が分かるという技術的効果を奏する。つまり、最適経路LTは、少なくとも、車両Mの現在位置PCPからの最適経路を表せば良い。
【0057】
また、以上の実施形態では、撮影画像ICPT は、撮像装置12の位置を視点として車両Mの後方を見た画像であった。しかし、これに限らず、撮影画像ICPT に対して視点変換処理を行って、撮像装置12の位置以外の視点(例えば、車両Mの上方)から車両Mの後方を見た画像(以下、視点変換画像と称する)を作成し、プロセッサ101は、作成した視点変換画像に、最適軌跡LTおよび/または予想走行軌跡ETを重畳して、表示画像(以下、視点変換表示画像と称する)を作成しても良い。さらに、プロセッサ101は、前述の表示画像IDPY および上述の視点変換表示画像を画像合成して、両者を同時に表示装置16に表示させても良い。
【0058】
また、以上の実施形態では、撮像装置12は1台として説明したが、複数台であっても良い。この場合、プロセッサ101は、複数台からの撮影画像ICPT を1枚の画像につなぎ合わせた後に、最適軌跡LTおよび/または予想走行軌跡ETを重畳して、表示画像を作成する。また、撮像装置12は必ずしも、車両Mの両側面から等距離に固定されるなくともよく、縦中心面SC から車両Mの左右方向にずれた位置に固定されても良い。なお、このように撮像装置12が設置されたとしても、上述の視点変換処理により、運転支援装置1は、車両Mの中心から見たときの表示画像IDPY を作成することができる。
【0059】
また、以上の実施形態では、撮影画像ICPT を参照すれば明らかなように、左右方向に並ぶ2台の車両の間の駐車スペースの右斜め前方から、車両Mを駐車するような状況を例に取り上げて説明した。しかし、このような例だけでなく、駐車スペースの左斜め前方から駐車するような状況にも、本画像作成装置10は簡単に応用できる。さらに、前後方向に並ぶ2台の車両の間に駐車する場合にも応用することができる。ただし、この場合には、車両Mは、図16に示すように、、S字を描くように駐車スペースに向かって移動するので、このような形状を表すオブジェクトBS を予め準備する必要がある。
【0060】
また、以上の実施形態では、最適軌跡LTおよび予想走行軌跡ETは平面的な図形で表現されていたが、これに限らず、単なる線で表現されても良い。
【0061】
「第2の実施形態」
ところで、第1の実施形態では、図9のステップS10において、プロセッサ101は、ヨーレートセンサ15から第1のヨーレートω1 を受信していた。しかし、第2の実施形態では、第1のヨーレートω1 を算出できる運転支援装置2を提供することを目的とする。
【0062】
図17は、第2の実施形態に係る画像作成装置20を組み込んだ運転支援装置2のハードウェア構成を示すブロック図である。図17において、運転支援装置2は、図1に示す運転支援装置1と比較すると、ヨーレートセンサ15が不要である点と、プログラムメモリ103にソフトウェアS1 の代わりに、図17に示すようなソフトウェアS2 が格納される点で相違する。それ以外に相違点は無いので、図17において、図1の構成に相当するものには、同一の参照符号を付けて、その説明を省略する。また、ソフトウェアS2 は、図18に示すように、ソフトウェアS1 (図6参照)と比較すると、プログラムC1 の代わりに、コンピュータプログラム(以下、単にプログラムと称する)C2 を含む点で相違する。オブジェクトBについては、第1の実施形態と同様であるため、本実施形態では説明を省略する。プログラムC2 は、本運転支援装置2の動作を規定する。
【0063】
次に、以上の構成を有する運転支援装置2の動作を説明する。運転支援装置2の電源投入後、プロセッサ101はまず、プログラムメモリ103からソフトウェアS2 をメインメモリ102に読み出す。プロセッサ101は、入力装置11からの開始指示DSDの受信に応答して、メインメモリ102上のプログラムC2 の実行、つまり画像表示処理を開始する。
【0064】
ここで、図19および図20は、プログラムC2 に記述されている運転支援装置2の動作手順を示すフローチャートである。図19および図20のフローチャートは、図8および図9のフローチャートと比較すると、ステップS10がステップS21に代わる点で相違する。それ以外に、両フローチャートの間に相違点はないので、図19および図20において、図8および図9のステップに相当するものには、同じステップ番号を付け、それらの説明を省略する。
【0065】
以下、ステップS10の具体的な説明の前に、そこで必要となる各パラメータおよび理論を、図面を参照して説明する。まず、図21には、その質量がmの車両Mが示されている。また、車両Mの重心位置PBYC から、その両前輪の回転中心同士を結ぶ線分までの距離をDf 、また、その両後輪の回転中心同士を結ぶ線分までの距離をDr とおく。また、車両MのホイールベースをLとすると、L=(Df +Dr )である。さらに、図21には示していないが、車両Mのヨーイング慣性モーメントをIm 、車両Mの前輪コーナリングパワーをKf 、その後輪コーナリングパワーをKr とする。以上の質量m、ヨーイング慣性モーメントIm 、ホイールベースL、距離Df 、距離Dr 、前輪コーナリングパワーKf 、および後輪コーナリングパワーKr の値は、車両Mに固有で既知の値である。
【0066】
また、図21において、車両Mの前輪の実舵角をεとおく。ここで、実舵角εは、車両Mのハンドル操舵角αi に比例する値であり、次式(6)で算出することができる。
ε=B×αi …(6)
ここで、Bは、車両Mに固有で既知の定数である。
さらに、図21には、車両Mの進行方向(速度Vのベクトル)と、第1のヨーレートω1 および横滑り角δとが図示されている。しかし、これらについては、第1の実施形態で説明しているので、ここではその説明を省略する。
【0067】
以上のパラメータを有する車両Mの運動方程式は次式(7)で表される。
【数3】
Figure 0004034548
また、車両Mの重心位置PBYC の鉛直軸周りのヨーイング運動方程式は、次式(8)で表される。
【数4】
Figure 0004034548
上式(7)および(8)を整理すると、次式(9)および(10)が得られる。
【数5】
Figure 0004034548
【0068】
さらに、上式(9)および(10)をラプラス変換すると、車両Mの運動方程式およびヨーイング運動方程式は、次式(11)のように表現される。
【数6】
Figure 0004034548
ここで、sはラプラス演算子である。
【0069】
さて、図20のステップS21において、プロセッサ101は、ステップS8およびS9で受信した操舵角αi および速度Vを使って、車両Mの移動量TAを求める。より具体的には、プロセッサ101は、受信した操舵角αi を、前式(6)に代入して、実舵角εを算出する。それゆえ、上式(11)において、未知数は、第1のヨーレートω1 のみとなる。なお、δは横滑り角であるが、駐車時のように車両Mが低速走行している場合には、0とみなせるので既知の値である。実舵角εの算出後、プロセッサ101は、受信した速度Vおよび算出した実舵角εを使って、上式(11)を解き、第1のヨーレートω1 を算出する(ステップS21)。
【0070】
次のステップS11において、プロセッサ101はまず、ステップS21で算出した第1のヨーレートω1 を前式(3)に代入して、第2のヨーレートω2 を算出する。以降、プロセッサ101は、第1の実施形態で説明したようにして、移動量TA(xCP−xCP0 ,yCP−yCP0 )を算出する。
以上のように、本実施形態によれば、運転支援装置1のようにヨーレートセンサ15が不要になるので、本運転支援装置2の構成を簡素化できるという技術的効果を得ることができる。
【0071】
「第3の実施形態」
また、第1の実施形態では、図9のステップS9において、プロセッサ101は、車速センサ14から速度Vを受信していた。しかし、第3の実施形態では、速度Vを算出できる運転支援装置3を提供することを目的とする。
【0072】
図22は、第2の実施形態に係る画像作成装置30を組み込んだ運転支援装置3のハードウェア構成を示すブロック図である。図22において、運転支援装置3は、図1に示す運転支援装置1と比較すると、車速センサ14が不要である点と、プログラムメモリ103にソフトウェアS1 の代わりに、図23に示すようなソフトウェアS3 が格納される点である。それ以外に相違点は無いので、図22において、図1の構成に相当するものには、同一の参照符号を付けて、その説明を省略する。また、図23において、ソフトウェアS3 は、ソフトウェアS1 (図6参照)と比較すると、プログラムC1 の代わりに、コンピュータプログラム(以下、単にプログラムと称する)C3 を含む点で相違する。オブジェクトBについては、第1の実施形態と同様であるため、本実施形態では説明を省略する。プログラムC3 は、本運転支援装置3の動作を規定する。
【0073】
次に、以上の構成を有する運転支援装置3の動作を説明する。運転支援装置3の電源投入後、プロセッサ101はまず、プログラムメモリ103からソフトウェアS3 をメインメモリ102に読み出す。プロセッサ101は、入力装置11からの開始指示DSDの受信に応答して、メインメモリ102上のプログラムC3 の実行、つまり画像表示処理を開始する。
【0074】
ここで、図24および図25は、プログラムC3 に記述されている運転支援装置3の動作手順を示すフローチャートである。図24および図25のフローチャートは、図8および図9のフローチャートと比較すると、ステップS9がステップS31に代わる点で相違する。それ以外に、両フローチャートの間に相違点はないので、図24および図25において、図8および図9のステップに相当するものには、同じステップ番号を付け、それらの説明を省略する。
【0075】
以下、ステップS31の具体的な説明の前に、そこで必要となる空間フィルタリングによる車速の測定について説明する。なお、空間フィルタリングについては、例えば、空間フィルタとその応用〔I〕(計測自動制御学会誌「計測と制御」Vol.19,No.4 )に詳しく記載されている。図26は、空間フィルタリングの基本原理を示す模式図である。図26には、スリット列41と、点光源42と、光学系43とが示されている。スリット列41は、同一平面SSLT 上に一定ピッチpで同一方向に配列された複数のスリットである。また、点光源42は、スリット列41に対し相対速度V’で、スリット列41上をその配列方向に移動しながら、スリット列41に向けて光を出射する。光学系43は、スリット列41および点光源42の間に置かれ、点光源42からの光を通過させる。光学系43の通過光は、スリット列41上で焦点を結ぶ。このようにして、スリット列41上には、スポット光LSPT が投影される。
【0076】
また、図26に示すように、このスリット列41を間において点光源42を見るような位置で、上述のスポット光LSPT を観測した場合、スリット列41を通過中のスポット光LSPT の光強度は、スリットの配列方向の変位p毎に、1つのパルスが表れる信号になる。このような信号(パルス)の周期TCYL は、p/V’となる。また、信号の周波数fSPT はV’/pとなり、相対速度V’に比例することが分かる。つまり、スポット光LSPT の相対速度V’は時間的に変動する場合、その時間変動に応じて、周波数fSPT も変化する。しかし、スポット光LSPT が平面SSLT 上を変位pだけ移動する度に、光信号には1つのパルスが現れるという性質は不変である。
【0077】
また、上述の撮影画像ICPT のような一般的な光学的パターンには、多くの光強度を有する多数の点光源がランダムに配置されていると考えることができる。また、光学的パターンに含まれる多数の点光源は、互いの位置関係を変えることなく、一定方向に同時に並行移動していると考えることができる。このような光学的パターンを、図26における点光源42と置き換えて、点光源と同様に移動させた場合、スリット列41を間において点光源42を見るような位置では、互いに同一周波数fSPT を有するが、その位相および振幅が相違する多数の信号を加算(合成)した信号が観測される。以下、観測された信号を、狭帯域ランダム信号と称する。この狭帯域ランダム信号の平均的な周波数fAVE は、上述のV’/pであり、その位相および振幅は、時間的に不規則かつゆっくりと変動する。
【0078】
次に、以上のような波形を有する狭帯域ランダム信号から、光学的パターン自体の相対速度V’PTN の算出方法を説明する。図27は、相対速度V’PTN の算出に使用されるモデルの模式図である。図27には、光学パターン51と、空間フィルタ52と、光学系53と、光検出器54とが示されている。光学パターン51は、ランダムな光強度分布f(x,y)を有する。空間フィルタ52は、光学パターン51の直上に密接して配置される。また、空間フィルタ52は、2次元直交座標系における点PFLT を原点として、x軸方向の長さがXFLT で、y軸方向の長さがYFLT の矩形形状を有しており、予め定められた透過率分布h(x,y)を持つ空間荷重関数である。以上の空間フィルタ52は、光学パターン51から発する光を通過させる。光学系53は、空間フィルタ52を通過した光を集束する。光検出器54は、光学系53により集められた光を電気に変換して、瞬時出力g(x0 ,y0 )を生成する。ここで、瞬時出力g(x0 ,y0 )は、比例定数を無視した場合、次式(12)で表される。
【0079】
【数7】
Figure 0004034548
ここで、x0 およびy0 は、空間フィルタ52の原点PFLT 上に位置する光学パターン51のx座標値およびy座標値である。
【0080】
以上のようなモデルにおいて、光学パターン51がx軸方向に一定速度V’PTN で平行移動している時には、x0 およびy0 は、次式(13)および(14)で表される。
0 =V’PTN ・t+c1 …(13)
0 =c2 …(14)
ここで、tは時間であり、c1 およびc2 は定数である。
【0081】
今、y0 を固定し、g(x0 ,y0 )を変位x0 の関数と考えると、x軸方向の空間領域でのパワースペクトル密度関数Ψ(μ)は、次式(15)のように表される。
【数8】
Figure 0004034548
ここで、μおよびνは、x軸方向およびy軸方向の空間周波数である。また、H(μ,ν)は、次式(16)で示される。また、Φ(μ,ν)は、f(x,y)に関する空間領域での2次元的パワースペクトル密度関数である。
【数9】
Figure 0004034548
【0082】
また、上式(15)は、透過率分布h(x,y)がy軸方向に一定であると仮定すると、近似的に次式(17)のように表される。
【数10】
Figure 0004034548
ここで、H(μ)は、次式(18)で示される。
【数11】
Figure 0004034548
【0083】
ここで、光学パターン51の速度V’PTN による影響を考慮するために、瞬時出力g(x0 ,y0 )を時間tの関数g(x0 ,y0 ,t)とすると、時間領域でのパワースペクトル密度関数Ω(f)は、次式(19)で表される。
【数12】
Figure 0004034548
ここで、fは、時間的周波数である。
【0084】
上式(15)〜(19)において、|H(μ)|2 が、μ=μ0 のみを選択する特性を持つと仮定すると、Φ(μ0 ,0)=0でない限り、Ψ(μ)は、μ=μ0 で急峻なスペクトルを持つ。したがって、Ω(f)にも、f=Vμ0 のところに際だったスペクトルが現れる。したがって、速度V’PTN に比例する周波数の正弦波信号が瞬時出力g(x0 ,y0 ,t)として得られることになり、この正弦波信号に対して、フーリエ変換またはウェーブレット変換に代表される周波数測定を行うことにより、速度V’PTN を検出することが可能になる。
【0085】
以上の空間フィルタリングを運転支援装置3に応用するために、図28に示すように、メインメモリ102における撮影画像ICPT の記憶領域には、仮想的なスリット列61が予め設定されている。スリット列61は、メインメモリ102のメモリ空間に、一定ピッチpで同一方向に配列された複数のスリットであり、撮影画像ICPT において路面SR が映っていると想定されるところに配置される。各スリットの位置および形状は、第1の実施形態で説明した画像座標系の座標値で指定される。プロセッサ101は、ステップS31において、メインメモリ102内の撮影画像ICPT においてスリット列61に含まれる複数の画素を、上述の光学パターン51とみなし、この光学パターン51に対して空間フィルタリングを実行する。
【0086】
より具体的には、一般的に、撮影画像ICPT は、白黒の場合には、それを構成する各画素の輝度値を示すデータを含んでいる。また、カラーの場合、撮影画像ICPT は、各画素毎に、光の3原色の輝度値を示すデータを含んでいるが、周知の方法で、白黒の輝度値に変換することが可能である。プロセッサ101はまず、今回格納された撮影画像ICPT を使って、そのスリット列61に含まれる全ての画素の白黒の輝度値を加算する。それによって、プロセッサ101は、輝度の合計値を求め、メインメモリ102上に蓄積する。ここで、メインメモリ102には、今回の合計値を含む、過去数フレーム分の撮影画像ICPT から求められた合計値を格納するための記録領域が予約されている。従って、メインメモリ102には、図29(a)に示すような時間軸上での合計値の変化を示すデータが格納されることになる。次に、プロセッサ101は、時間軸上で表された合計値の変化を、図29(b)に示すような周波数軸上のものに変換した後、得られた周波数軸上の合計値から、ピーク値を検出する。さらに、プロセッサ101は、検出したピーク値に対応する周波数成分fを検出する。その後、プロセッサ101は、検出した周波数成分fと、上述のピッチpとから、光学パターン51、つまり路面SR の車両Mに対する相対速度V’PTN (=p/f)を算出する。プロセッサ101は、このようにして得られた相対速度V’PTN の極性を反転させ、車両Mの速度Vを導出する(ステップS31)。
【0087】
以上のように、本実施形態によれば、運転支援装置1のように車速センサ14が不要になるので、運転支援装置3の構成を簡素化できるという技術的効果を得ることができる。
【0088】
なお、以上の第1〜第3の実施形態では、プログラムC1 〜C3 は、プログラムメモリ103に格納されていた。しかし、これに限らず、プログラムC1 〜C3 は、CD−ROMに代表される記録媒体に記録された状態で頒布されてもよいし、インターネットに代表される通信ネットワークを通じて頒布されてもよい。
【0089】
また、現在の最適経路LTの導出方法には、上述の実施形態で説明したもの以外に、周知のアッカーマンモデルを使う方法もある。アッカーマンモデルでは、最適経路LTは、操舵角αi および速度Vに基づいて導出される。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る運転支援装置1のハードウェア構成を示すブロック図である。
【図2】図1の撮像装置12の固定位置を示す模式図である。
【図3】図1の撮像装置12により生成される撮影画像ICPT の一例を示す模式図である。
【図4】図1のヨーレートセンサ15で検出される第1のヨーレートω1 を説明するための模式図である。
【図5】図1のプロセッサ101により作成される表示画像IDPY の一例を示す模式図である。
【図6】図1のプログラムメモリ103に格納されるソフトウェアS1 の詳細な構成を示す模式図である。
【図7】図6に示すオブジェクトBN を説明するための模式図である。
【図8】図1の運転支援装置1の動作手順を示すフローチャートの前半部分である。
【図9】図1の運転支援装置1の動作手順を示すフローチャートの後半部分である。
【図10】図8のステップS3で確定通知INTの到着前に作成される初期表示画像ID0を示す模式図である。
【図11】図8のステップS5の時点で表示されている初期表示画像ID0を示す模式図である。
【図12】図9のステップS11において算出される第2のヨーレートω2 を説明するための模式図である。
【図13】図9のステップS12におけるプロセッサ101の処理内容を説明するための模式図である。
【図14】図1の表示装置16の表示画面の時間に対する変化を示す模式図である。
【図15】ドライバがハンドル操作を誤った時、図1の表示装置16に表示される表示画像IDPY を示す模式図である。
【図16】図6に示すオブジェクトBN をの代替例であるオブジェクトBS を説明するための模式図である。
【図17】本発明の第2の実施形態に係る運転支援装置2のハードウェア構成を示すブロック図である。
【図18】図17のプログラムメモリ103に格納されるソフトウェアS2 の詳細な構成を示す模式図である。
【図19】図17の運転支援装置2の動作手順を示すフローチャートの前半部分である。
【図20】図17の運転支援装置2の動作手順を示すフローチャートの後半部分である。
【図21】図20のステップS21で必要となる車両Mのパラメータを示す模式図である。
【図22】本発明の第3の実施形態に係る運転支援装置3のハードウェア構成を示すブロック図である。
【図23】図22のプログラムメモリ103に格納されるソフトウェアS3 の詳細な構成を示す模式図である。
【図24】図22の運転支援装置3の動作手順を示すフローチャートの前半部分である。
【図25】図22の運転支援装置3の動作手順を示すフローチャートの後半部分である。
【図26】図22の運転支援装置3に応用される空間フィルタリングの基本概念を示す模式図である。
【図27】図26の空間フィルタリングを使って、空間パターン51の相対速度V’PTN の算出に使用されるモデルの模式図である。
【図28】図22の運転支援装置3に予め設定されるスリット列61を示す模式図である。
【図29】図25のステップS31における相対速度V’PTN の検出方法を説明するための模式図である。
【図30】従来のモニター装置において表示される4フレーム分の表示画像Id1〜Id4を示す模式図である。
【符号の説明】
1,2,3…運転支援装置
10,20,30…画像作成装置
101…プロセッサ
102…メインメモリ
103…プログラムメモリ
1 ,S2 ,S3 …ソフトウェア
1 ,C2 ,C3 …コンピュータプログラム
11…入力装置
111,112、113…操作ボタン
12…撮像装置
13…操舵角センサ
14…車速センサ
15…ヨーレートセンサ
16…表示装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image creating apparatus, and more particularly to an image creating apparatus that creates an image for driving support of a vehicle based on a captured image obtained from an in-vehicle imaging device.
[0002]
[Prior art]
Conventionally, the above-described image creating apparatuses have been actively researched and developed. As such an image creating apparatus, in the section of the prior art, a monitor apparatus disclosed in Japanese Patent Application Laid-Open No. 59-114139 will be described. In this monitor device, an in-vehicle camera creates an image (hereinafter referred to as a captured image) obtained by capturing a scene behind the host vehicle. Based on the steering angle from the steering angle sensor, the CPU creates a figure (hereinafter simply referred to as an “anticipated traveling locus”) indicating an expected traveling locus that the vehicle is supposed to follow. The CPU superimposes the created predicted travel locus on the captured image to create a display image. The display device receives and displays the above display image.
[0003]
Now, assume that the driver actually puts the vehicle in the parking space. Here, FIG. 30 shows the display image I for four frames displayed on the display device from the start of parking until the end of parking.d1~ Id4It is a schematic diagram which shows. In FIG. 30, display image Id1At the start of parking (time td1Displayed on the display device. Furthermore, the display image Id2Is the time td1Later time td2Display image Id3Is the time td3Later time td3Is displayed. The display image Id4Is the time td3Later andSelfTime t when vehicle and parking space are alignedd4Is displayed. Display image Id1~ Id4The above-mentioned predicted travel locus ET is superimposed on any of the above. In addition, the predicted travel locus ET is the time td1~ Td4The display image I is determined from the steering angle of the host vehicle atd1~ Id4The vehicle M has a predetermined length from the vehicle M. Display image Id1~ Id4By looking at, the driver can check how the vehicle will proceed with the current steering wheel operation.
[0004]
[Problems to be solved by the invention]
Next, the problems that the above monitor device has will be described. At the time of parking, most drivers first move their vehicle to a place (hereinafter referred to as an initial position) where it is easy to enter the parking space, and then move the vehicle toward the parking space. During the movement of the host vehicle, the driver is concerned whether the host vehicle is correctly heading to the stop position in the parking space. However, the conventional display image (see FIG. 30) shows only the trajectory that the host vehicle is supposed to follow by the current steering wheel operation. Therefore, if the steering wheel operation is mistaken, the predicted traveling locus will deviate from the parking space. In such a case, there is a problem that it is difficult for the driver to understand how much the steering operation is corrected and how the host vehicle goes to the stop position.
[0005]
Therefore, an object of the present invention is to provide an image creation device that creates an image that makes it easy to understand whether or not the host vehicle is correctly heading toward a stop position.
[0006]
[Means for Solving the Problems and Effects of the Invention]
  The first aspect of the present invention is directed to an image creating apparatus for driving assistance of a vehicle. The present invention provides an imaging device installed in a vehicle, a steering angle sensor that detects the steering angle of the vehicle, an image captured by the imaging device, and a display image based on the steering angle detected by the steering angle sensor. A processor to create, a main memory assigned to a plurality of steering angles, and stores a plurality of objects that are graphic data for specifying the shape of a trajectory that the vehicle is supposed to follow while maintaining the steering angles; A display device for displaying a display image created by the processor;Accept operation input from vehicle driverAn input device, and a processorAn object assigned to a predetermined steering angle is selected from the main memory, and a scene represented by an image captured by the imaging device is displayed.An initial display image is created by superimposing, the display device displays the initial display image, and the input deviceHowever, due to the movement of the vehicleObject displayed in the initial display imageButEnter information that indicates the optimal trajectory that represents the optimal trajectory from the current position of the vehicle to the stop position.From the driverAcceptanceWhenThe processor determines the object displayed in the initial display image as the optimum locus based on the information received by the input device, and is stored in the main memory based on the steering angle detected by the steering angle sensor. Using the object, an expected traveling trajectory expected to be followed by the vehicle is created, and a display image in which the optimum trajectory and the predicted traveling trajectory are superimposed on a scene is created in the main memory.
[0007]
  In this way, since an optimal trajectory and an expected travel trajectory can be created using an object prepared in advance, an image can be created quickly.
[0008]
  Further, it is preferable that the processor transfers the display image created by being superimposed on the main memory to a display device connected to be communicable with the processor, and the display device displays the received display image from the main memory.
[0009]
  The second aspect of the present invention is directed to an image creation method for driving support of a vehicle. The present inventionA plurality of objects, which are graphic data that are assigned to a plurality of steering angles and specify the shape of a trajectory that the vehicle is supposed to follow while maintaining the steering angles, are stored in the main memory.A steering angle detection step for detecting a steering angle of the vehicle, an image captured by the imaging device, a display image generation step for generating a display image based on the steering angle detected in the steering angle detection step, and a display image generation A display step for displaying the display image created in the step;An object assigned to a predetermined steering angle is selected from the main memory, and a scene represented by an image captured by the imaging device is displayed.An initial display image creation step for creating an initial display image by superimposing; an initial display image display step for displaying an initial display image;By moving the vehicleObject displayed in the initial display imageButEnter information that indicates the optimal trajectory that represents the optimal trajectory from the current position of the vehicle to the stop position.From the vehicle driverAn optimal trajectory input step, an optimal trajectory determination step for determining an object displayed in the initial display image as the optimal trajectory based on the information received in the optimal trajectory input step, and a steering angle detection step. Based on the steering angle, MeUsing the object stored in the in-memory, an expected traveling locus creating step for creating an expected traveling locus that the vehicle is expected to follow from now on, and a display image in which the optimum locus and the predicted traveling locus are superimposed on the scene are stored in the main memory. A creation step for creating.
[0010]
  In this way, since an optimal trajectory and an expected travel trajectory can be created using an object prepared in advance, an image can be created quickly.
[0011]
  And a transfer step of transferring a display image created by being superimposed on the main memory to a display device communicably connected to the main memory, and a received display image display step of displaying a received display image from the main memory. Is preferred.
[0012]
  The third aspect of the present invention is directed to an image creation program executed by a computer of an image creation device for driving support of a vehicle. The present inventionA plurality of objects, which are graphic data that are assigned to a plurality of steering angles and specify the shape of a trajectory that the vehicle is supposed to follow while maintaining the steering angles, are stored in the main memory.A steering angle detection step for detecting a steering angle of the vehicle in the computer; an image captured by the imaging device; and a display image creation step for creating a display image based on the steering angle detected in the steering angle detection step; A display step for displaying the display image created in the display image creation step;An object assigned to a predetermined steering angle is selected from the main memory, and a scene represented by an image captured by the imaging device is displayed.An initial display image creation step for creating an initial display image by superimposing; an initial display image display step for displaying an initial display image;By moving the vehicleObject displayed in the initial display imageButEnter information that indicates the optimal trajectory that represents the optimal trajectory from the current position of the vehicle to the stop position.From the driverAn optimal trajectory input step, an optimal trajectory determination step for determining an object displayed in the initial display image as an optimal trajectory based on information received in the optimal trajectory input step, and steering detected in the steering angle detection step Based on corner, MeUsing the object stored in the in-memory, an expected traveling locus creating step for creating an expected traveling locus that the vehicle is expected to follow from now on, and a display image in which the optimum locus and the predicted traveling locus are superimposed on the scene are stored in the main memory. Let the creation step to create and run.
[0013]
  In this way, since an optimal trajectory and an expected travel trajectory can be created using an object prepared in advance, an image can be created quickly.
[0014]
  In addition, a transfer step of transferring a display image created by superimposing on the main memory to a display device connected to be communicable with the main memory and a reception display image display step of displaying a reception display image from the main memory are executed. It is preferable.
[0025]
DETAILED DESCRIPTION OF THE INVENTION
“First Embodiment”
FIG. 1 is a block diagram showing a hardware configuration of a driving support apparatus 1 incorporating an image creating apparatus 10 according to the first embodiment of the present invention. In FIG. 1, the image creating apparatus 10 includes at least a processor 101, a main memory 102, and a program memory 103. The driving support device 1 is mounted on a vehicle M (see FIG. 2), and in addition to the image creation device 10, an input device 11, at least one imaging device 12, a steering angle sensor 13, a vehicle speed sensor 14, and a yaw rate. A sensor 15 and a display device 16 are provided.
[0026]
The input device 11 is operated by a driver of the vehicle M, and is configured by three operation buttons 111 to 113 in the present embodiment. A start function for image display processing (see FIGS. 8 and 9) is assigned to the operation button 111. The driver operates the operation button 111 when entering the vehicle M into the parking space from diagonally forward to the right. In response to this operation, the input device 11 receives information (hereinafter referred to as a start instruction) D for instructing the start of the image display process.SDIs output to the processor 101. The operation button 112 is assigned a function for determining the optimum locus LT (see FIG. 5). When the driver operates this operation button 112, the input device 11 provides information for notifying that the optimum trajectory LT is confirmed (hereinafter referred to as a confirmation notice) D.NTIs output to the processor 101. The operation button 113 is assigned with an image display processing end function. The driver operates the operation button 113 when the vehicle M is completely in the parking space. In response to this operation, the input device 11 provides information for instructing the end of the image display process (hereinafter referred to as an end instruction) D.TDIs output to the processor 101.
[0027]
The imaging device 12 in FIG. 1 is fixed to the rear end of the vehicle M at an equal distance from both side surfaces of the vehicle M as shown in FIG. More specifically, the optical axis OA of the imaging device 12 is the longitudinal center plane S.CIt extends toward the rear of the vehicle M, and the optical axis OA is the road surface S.RThe imaging device 12 is fixed so that it intersects with. Here, the longitudinal center plane SCIs a vertical plane that bisects a line segment connecting the rotation centers of both front wheels (or both rear wheels) of the vehicle M. The imaging device 12 fixed as described above captures a scene in the field of view behind the vehicle M, and a captured image I as shown in FIG.CPTIs generated. Here, the captured image ICPTIt is preferable that the rear end of the vehicle M is reflected.
[0028]
The steering angle sensor 13 in FIG. 1 detects an angle (that is, a steering angle) by which a handle attached to the vehicle M is rotated from a predetermined reference position, and a steering angle α indicating a detection result.iIs sent to the processor 101. Here, i is any natural number from 1 to N. N is determined according to the design requirements of the driving support device 1, but is assumed to be an odd number in this embodiment for convenience. The reference position described above is preferably the position of the steering wheel when the vehicle M is traveling straight ahead. In the present embodiment, for the sake of convenience, the steering angle α1= -ΑL , Α2= -ΑL + Δα, αThree= -ΑL + 2 × Δα, ..., α(N-1) / 2 + 1= 0, α(N-1)= ΑL-Δα, αN= ΑLAssume that Where -αL And αL Is a steering angle when the steering wheel is cut to the maximum in the left direction and the right direction, and is a unique and known value for the vehicle M. Δα is 2 × αL/ N.
[0029]
The vehicle speed sensor 14 detects the current traveling speed (hereinafter simply referred to as speed) V of the vehicle M and transmits it to the processor 101. The yaw rate sensor 15 is connected to the first yaw rate ω1Is transmitted to the processor 101. Here, FIG. 4 shows the first yaw rate ω.1It is a schematic diagram for demonstrating. In FIG. 4, the vehicle M (only the outline is shown)0And arrow A0Retreats in the direction indicated by. Also, time t0From time to time T, the vehicle M moves backward diagonally to the right as indicated by two dotted arrows. During this time T, the traveling direction of the vehicle M is the arrow A0To arrow A1It has changed in the direction indicated by. Now arrow A0And A1If the angle formed by the directions of β is β, the first yaw rate ω1Is represented by the following equation (1).
ω1= Β / T (1)
[0030]
Further, a vehicle coordinate system necessary for the following description will be described with reference to FIG. In FIG. 4, the vehicle coordinate system is X1Axis, Y1Axis and Z1It is a three-dimensional orthogonal coordinate system composed of axes. First, Z1The axis is the current center of gravity position P of the vehicle MBYCThe vertical direction is shown with reference to. X1The axis is the center of gravity PBYCIndicates the traveling direction of the vehicle M. Y1The axis is the center of gravity position P of the vehicle MBYCWith reference to X above1Axis and Z1Indicates the direction perpendicular to the axis. The above-mentioned first yaw rate ω1X above1It is also the amount of rotation per time T of the shaft.
[0031]
Further, the display device 16 of FIG. 1 has a display image I described later.DPY(See FIG. 5) is displayed. The processor 101 performs the above-described captured image I.CPTTo display image IDPYCreate Here, FIG. 5 shows the display image I.DPYIt is a schematic diagram which shows an example. In FIG. 5, the display image IDPYIs the captured image ICPTAnd the optimum trajectory LT and the predicted travel trajectory ET superimposed on the trajectory. The optimal trajectory LT is preferably the current position P of the vehicle M.CPTo its stop position PSPIt is a figure showing the optimal locus until. In addition, the predicted travel locus ET is the current steering angle αiWhen the vehicle M keeps the current position PCPThis is a figure representing a trajectory assumed to be traced from now on. Stop position PSP, Current position PCPWill be described in detail in the description of the operation of the driving support device 1, so that the description thereof is omitted here.
[0032]
1 is mainly used as a working area for the processor 101. In particular, in the main memory 102, the display image IDPYThe storage area in which it is created is called a frame memory. The program memory 103 is typically composed of a ROM (Read Only Memory), and software S necessary for the operation of the driving support device 1 is provided.1Is stored. Software S1As shown in FIG. 6, a computer program (hereinafter simply referred to as a program) C1And a predetermined number of objects B. Program C1Defines the operation of the driving support device 1. Each object B is the basis of the above-mentioned optimum locus LT or predicted traveling locus ET. That is, the processor 101 creates an optimal trajectory LT and an expected travel trajectory ET from the object B. Here, since the steering angle that can be detected by the steering angle sensor 13 is N as described above, N objects B are used as the predetermined number of objects B.1~ BNIs prepared. Object B1~ BNIs the steering angle α1~ ΑNMore specifically, the steering angle α1~ ΑNThe figure data specifies the shape of the trajectory that the vehicle M is supposed to follow while maintaining Object B(N-1) / 2 + 1Object B except1~ BNSubstantially has a shape like a partial ring (that is, an arc shape and a belt shape). However, the steering angle α(N-1) / 2 + 1Is 0, so object B(N-1) / 2 + 1Only becomes a rectangular figure.
[0033]
Next, referring to FIGS. 7A and 7B, the object BNAn exemplary data structure will be described. In FIG. 7A, object BNIs r coordinate values P (r is a predetermined natural number).v1~ PvrConsists of. Where the coordinate value Pv1~ PvrIs a coordinate value of the above-described vehicle coordinate system (see FIG. 4). The above coordinate value Pv1~ PvrBy connecting the steering angle α as shown in FIG.NThe trajectory of the vehicle M at the time is expressed. In FIGS. 7A and 7B, four coordinate values P are shown for convenience.v1, Pvj, PvkAnd PvrOnly shown. Where the coordinate value Pv1And PvrAre the coordinate values of the right rear wheel and the left rear wheel of the vehicle M, and the start line L of the trajectory of the vehicle MSTIdentify both ends of. Also, the coordinate value PvjAnd PvkIs the end line L of the trajectory of the vehicle MTMIdentify both ends of.
[0034]
Other object B1~ B(N-1)The steering angle α1~ Α(N-1)Since the shape of the trajectory of the vehicle M according to the above is expressed by the same data structure as described above, detailed description thereof will be omitted.
[0035]
Next, operation | movement of the driving assistance apparatus 1 which has the above structure is demonstrated. First, when the driving support device 1 is turned on, the processor 101 reads the software S from the program memory 103.1Are read into the main memory 102. Further, it is assumed that the vehicle M is currently located diagonally to the right of the parking space and that the driver is about to put the vehicle M into the parking space. At this time, the operation button 111 is operated by the driver, and as a result, the above-described start instruction D is sent to the processor 101.SDIs sent. Processor 101 receives reception start instruction DSDIn response to the program C on the main memory 1021Execution, that is, image display processing is started.
[0036]
Here, FIG. 8 and FIG.1It is a flowchart which shows the operation | movement procedure of the driving assistance apparatus 1 described in (2). In FIG. 8, the processor 101 first starts the object B on the main memory 102.1~ BNA predetermined object BjIs selected (step S1). Currently, the vehicle M is located diagonally right forward of the parking space. In such a situation, the driver turns the steering wheel in the right direction in order to put the vehicle M into the parking space. From the above, in step S1, the steering angle α having a positive value.(N-1) / 2 + 2~ ΑNObject B assigned to one ofjIs selected. That is, j is any natural number from (N−1) / 2 + 2 to N. In the following embodiments, for convenience, it is assumed that j is N, and the object B selected in step S1.jThe selected object BNCalled.
[0037]
Next, the processor 101 generates an imaging instruction and transmits it to the imaging device 12. In response to the received imaging instruction, the imaging device 12 captures an image I representing a scene currently included in its field of view.CPT(See FIG. 3) is generated and stored in the frame memory in the main memory 102 (step S2). That is, in step S <b> 2, the image creation device 10 receives the captured image I from the imaging device 12.CPTReceive
[0038]
Next, the initial display image I shown in FIG.D0Is created and displayed (step S3). More specifically, in step S3, first, the selected object BNCoordinate value P constitutingv1~ PvrIs converted into a coordinate sequence of the image coordinate system by the processor 101. Here, the image coordinate system is a captured image I as shown in FIG.CPTX indicating the horizontal direction of2Y indicating the axis and its vertical direction2It consists of an axis. Such coordinate transformation is disclosed in, for example, International Publication No. WO 00-07373, and detailed description thereof is omitted here. The above-selected coordinate-selected object BN(See the shaded area) is the captured image I on the frame memory.CPTThus, the initial display image I as shown in FIG.D0Is completed. Here, FIG. 10 further shows a stop position P where the driver wants to stop the vehicle M in the parking space.SPIt is shown. However, this stop position PSPIs only shown because it is necessary for the following explanation, and the actual captured image ICPTNote that it is not superimposed on. Initial display image I completed as described aboveD0Is transferred to the display device 16 under the control of the processor 101, and the display device 16 receives the received initial display image I.D0Is displayed.
[0039]
Next, the processor 101 receives the confirmation notification D from the input device 11.NTIt is determined whether or not has arrived (step S4). Confirmation notification DNTHas arrived, the processor 101 proceeds to step S5, otherwise returns to step S2. Here, in step S3 executed for the first time, the selected object B is simply used.NIs simply superimposed. Therefore, as shown in FIG.D0The selected object BNTermination line LTMIs the stop position P where the driver wants to stop the vehicle M.SPIs often not shown accurately. In this case, selected object BNIs not yet the optimal path LT. Therefore, the driver is responsible for the initial display image ID0While looking at this termination line LTMIs the stop position PSPThe vehicle M is moved so that If the two do not match, the driver does not operate the operation button 112, so “No” is determined in step S 4, and the driving support device 1 repeats a series of operations from step S 1 to S 4. During this time, each time step S3 is executed, a new initial display image ID0Is created and displayed. From the above, with the passage of time, the termination line LTMIs the stop position PSPGet closer and closer.
[0040]
And the termination line LTMIs the stop position PSP, The initial display image I as shown in FIG.D0The selected object BNIs the current position P of the vehicle MCPTo stop position PSPRepresents the optimum route LT up to. Here, in the following description, the termination line LTMIs the stop position PSPCurrent position P of vehicle M whenCPParking start position PstCalled. At this time, the driver operates the operation button 112 for the first time, whereby the input device 11 receives the confirmation notification D described above.NTIs transmitted to the processor 101. Confirmation notification D when executing step S4 described aboveNTIs already arrived, the processor 101 determines that the selected object BNIs determined as the optimum trajectory LT and held in the main memory 102 (step S5). Further, after the operation button 112 is operated, the driver places the vehicle M in the parking start position P.stTo stop position PSPStart moving towards.
[0041]
Next, the processor 101 performs initial setting (step S6). More specifically, first, the processor 101 sets the execution time of step S6 to the reference time t.REFSet as. Further, the processor 101 determines the second yaw rate ω of the vehicle M.2Is the initial value ω20And the current position P of the vehicle MCPTo the initial position P0Set to.
[0042]
Reference time t aboveREFThe world coordinate system is defined by setting. Next, the world coordinate system will be described with reference to FIG. In FIG. 12, the world coordinate system indicates the reference time t.REF Center of gravity P of vehicle M atBYCAs the origin and XThreeAxis, YThreeAxis and ZThreeIt is a three-dimensional orthogonal coordinate system composed of axes. XThreeThe axis indicates the traveling direction of the vehicle M with respect to the origin. ZThreeThe axis indicates the vertical direction with respect to the origin. YThreeThe axis is XThreeAxis and ZThreeOrthogonal to the axis. The above world coordinate system differs from the vehicle coordinate system described above in the following points. That is, the vehicle coordinate system moves with the vehicle M as shown in FIG.REF Center of gravity P of vehicle M atBYCIt is fixed with. That is, the world coordinate system does not move even when the vehicle M moves.
[0043]
Next, referring to FIG. 12, the second yaw rate ω2Will be explained. In FIG. 12, the vehicle M has a reference time tREFAnd the above XThreeIt is retracting in the axial direction. Also, the reference time tREFTo current time tCPIn the meantime, the vehicle M moves backward diagonally to the right as indicated by two dotted arrows. During this time, the traveling direction of the vehicle M is XThreeArrow A from the axial direction2The direction is changing. The current time tCPCenter of gravity P of vehicle M atBYCTo XThreeAuxiliary line L parallel to the axisa2pull. In addition, auxiliary line La2And arrow A2If the angle formed by the direction of γ is γ, the second yaw rate ω2Is represented by the following equation (2).
ω2= Γ / (tCP-TREF) ... (2)
The first yaw rate ω1Is the yaw rate of the vehicle M on the vehicle coordinate system, whereas the above-mentioned second yaw rate ω2Is different on the world coordinate system. In addition, the above initial value ω20Is the reference time tREFSecond yaw rate at2And 0.
[0044]
In addition, the current position PCPIs the current time tCPCenter of gravity P of vehicle M atBYCAnd the coordinate value of the world coordinate system (xCP, YCP, ZCP). In addition, the initial position P0Is the reference time tREFCenter of gravity P of vehicle M atBYCAnd the coordinate value of the world coordinate system (xCP0, YCP0, ZCP0). That is, the initial position P0Is (0, 0, 0) since it is the origin of the world coordinate system.
[0045]
Next, the processor 101 performs the captured image I from the imaging device 12 in the same manner as in step S1.CPT(FIG. 8; step S7). Next, the processor 101 determines the steering angle α of the vehicle M from the steering angle sensor 13, the vehicle speed sensor 14, and the yaw rate sensor 15.i, Velocity V and first yaw rate ω1Is received (steps S8 to 10).
[0046]
Next, the processor 101 receives the received velocity V and the first yaw rate ω.1Is used to determine the movement amount TA of the vehicle M (step S11). More specifically, the processor 101 first receives the received first yaw rate ω.1Is substituted into the following equation (3) to obtain the second yaw rate ω2Is calculated. The processor 101 cannot use the above equation (2) because the angle γ cannot be detected in this embodiment.
[Expression 1]
Figure 0004034548
Next, the processor 101 calculates the calculated second yaw rate ω2And the received velocity V is substituted into the following equations (4) and (5), and the coordinate value xCPAnd yCPIs calculated. In this embodiment, the coordinate value zCPIs a constant value over time (ie zCP0) Is not calculated.
[Expression 2]
Figure 0004034548
In the above equations (4) and (5), δ is the skid angle of the center of gravity of the vehicle M, and can be regarded as 0 when the vehicle M is traveling at a low speed as in parking. Coordinate value xCPAnd yCPAfter the calculation, the processor 101 determines that the initial position P0Travel distance TA (xCP-XCP0, YCP-YCP0) Is calculated.
[0047]
After step S11, the processor 101 uses the above movement amount TA to deform the currently held optimum locus LT, and creates and holds the current optimum locus LT (step S12). More specifically, the vehicle M has a reference time tREFTo current time tCPIn the meantime, it has moved by the above-mentioned movement amount TA. As described above, the optimal trajectory LT is the current position P.CPTherefore, the amount corresponding to the amount of movement TA is unnecessary in the optimum trajectory LT that is being held.
[0048]
For example, as shown in FIG.REFAt the time of the optimal trajectory LT (selected object BN) Starting line LSTCoordinate value Pv1And PvrIs necessary. However, with time, the vehicle MREFSince it feels like moving on the optimal locus LT at the time of, the reference time tREFIf the time passes, the coordinate value Pv1And PvrIs no longer needed. Therefore, in step S12 that is executed for the first time, the processor 101 determines that the coordinate sequence P that constitutes the held optimum route LT.v1~ PvrFrom the vehicle M, the reference time tREFTo current time tCPRegion R moved up toM1Is deleted, and the current optimum locus LT is created. Here, moving region RM1Is xv1Xv1+ (XCP-XCP0) The following range.
[0049]
In step S12 executed after the second time as well, as in the first time, the processor 101 determines that the vehicle M is the reference time t from the coordinate sequence constituting the optimum route LT being held.REFTo current time tCPRegion R moved up toM1Is deleted, and the current optimum locus LT is created.
[0050]
Next, the processor 101 creates an expected traveling locus ET (step S13). More specifically, the processor 101 first sets the object B on the main memory 102.1~ BNFrom the current steering angle α obtained in step S8.iObject B assigned toqSelect. Here, q is any natural number from 1 to N. Next, the processor 101 determines that the object BqAt least four coordinate values are selected from the coordinate sequence that constitutes. At this time, object BqStarting line LSTAlways include two coordinate values indicating (see FIG. 7).
[0051]
Following step S13, the display image I shown in FIG.DPYIs created and displayed (step S14). Step S14 will be described more specifically. First, the coordinate sequence of the vehicle coordinate system that forms the optimum route LT created in step S12 is converted into the coordinate sequence of the image coordinate system. Furthermore, the coordinate sequence of the vehicle coordinate system that constitutes the predicted travel locus ET created in step S13 is converted into the coordinate sequence of the image coordinate system. Such coordinate transformation is disclosed in, for example, International Publication No. WO 00-07373, and detailed description thereof is omitted here. The coordinate-converted optimum route LT and the predicted traveling locus ET are captured image I stored in the frame memory in step S7.CPTIs superimposed on the current time tCPDisplay image IDPYIs completed. Next, the completed display image I is controlled under the control of the processor 101.DPYIs transferred to the display device 16, and the display device 16 receives the received display image I.DPYIs displayed.
[0052]
Next, the processor 101 receives the above-described end instruction D from the input device 11.TDIt is determined whether or not has arrived (step S15). End instruction DTDHas arrived, the processor 101 determines that the vehicle M is at the stop position PSPThe image display process is terminated, otherwise the next display image IDPYIn order to create the process, the process returns to step S7.
[0053]
Here, FIG. 14 shows the reference time t.REFTo end instruction DTDDisplay image I displayed on the display device 16 before the arrival ofd It is a schematic diagram which shows how is changed. FIG. 14 shows a display image I for four frames.DPYIt is shown. Uppermost display image Id Is the reference time tREFIs displayed by executing the above-described processing. The lower display image IDPY Is the time (tREF+ Δt). Furthermore, the time (tREF+ Δt) and (tREFDisplay image I displayed at (+ 2 × Δt)DPY It is shown. In addition, at the bottom of FIG.REF+ 3 × Δt) and the end instruction DTDImage I just before arrivalDPY It is shown. Display image IDPY As you can see from the change over time, the end instruction DTDAs the vehicle approaches, the shape of the optimum trajectory LT changes according to the movement of the vehicle M on the screen of the display device 16, and more specifically, the stop position P of the vehicle M.SPAn optimal locus LT that shrinks toward is displayed. Further, the vehicle M is displayed so as to follow the shrinking optimum trajectory LT. As a result, the driver can stop the parking position P in the parking space.SPIt becomes easy to confirm whether the vehicle M is heading correctly.
[0054]
Furthermore, the display image Id In addition to the optimal trajectory LT, the predicted travel trajectory ET is also synthesized. If the driver performs an appropriate steering wheel operation, the vehicle M is correctly stopped.SP14, the predicted traveling locus ET is displayed on the screen of the display device 16 so as to move on the optimum locus LT as shown in FIG. However, if the driver performs an inappropriate handle operation, the display image I shown in FIG.DPYAs described above, the predicted traveling locus ET deviates from the optimum locus LT. As a result, the driver can instantly notice an error in the steering wheel operation, and can provide a more convenient driving support device 1.
[0055]
Further, in the above embodiment, both the optimal trajectory LT and the predicted travel trajectory ET are taken as the captured image I.CPTIt was described as being superimposed on. However, in order to solve the problem set in the present application, at least the optimum trajectory LT may be superimposed. In addition, the captured image I in which distortion generated in the lens of the imaging device 12 is corrected is corrected.CPTBoth the optimal trajectory LT and the predicted travel trajectory ET may be superimposed on each other.
[0056]
In the above embodiment, the driver performs the initial display image I.D0While looking at this termination line LTMIs the stop position PSPAs described above, the vehicle M has been described as being moved. As a result, the optimum trajectory LT is the current position P of the vehicle M.CPTo its stop position PSPIt was supposed to represent up to. However, the present invention is not limited to this, and the driving support device 1 is not limited to1Immediately after starting execution of the object B, a predetermined object BjMay be selected as the optimum route LT. In this case, the initial display image ID0In object Bj(That is, the termination line L of the optimum route LT)TMIs usually the stop position PSPDo not instruct. Even in such an optimum route LT, the driver can stop at the stop position P.SPThere is a technical effect that the optimum route to the middle of the route can be understood. That is, the optimum route LT is at least the current position P of the vehicle M.CPThe optimal route from
[0057]
In the above embodiment, the captured image ICPTIs an image of the rear of the vehicle M viewed from the position of the imaging device 12 as a viewpoint. However, the present invention is not limited to this.CPTIs subjected to viewpoint conversion processing to create an image (hereinafter referred to as a viewpoint conversion image) in which the rear of the vehicle M is viewed from a viewpoint other than the position of the imaging device 12 (for example, above the vehicle M). May superimpose the optimal trajectory LT and / or the predicted travel trajectory ET on the generated viewpoint conversion image to generate a display image (hereinafter referred to as a viewpoint conversion display image). Further, the processor 101 performs the display image I described above.DPYAlternatively, the above-described viewpoint conversion display images may be combined and displayed on the display device 16 at the same time.
[0058]
Moreover, although the imaging device 12 was demonstrated as 1 unit | set in the above embodiment, multiple units | sets may be sufficient. In this case, the processor 101 uses the captured images I from a plurality of units.CPTAre connected to one image, and then the optimum trajectory LT and / or the predicted travel trajectory ET are superimposed to create a display image. Further, the imaging device 12 does not necessarily have to be fixed at an equal distance from both side surfaces of the vehicle M, and the longitudinal center plane SCThe vehicle M may be fixed at a position shifted in the left-right direction. Even if the imaging device 12 is installed in this way, the driving support device 1 displays the display image I when viewed from the center of the vehicle M by the viewpoint conversion process described above.DPYCan be created.
[0059]
In the above embodiment, the captured image ICPTAs will be apparent from the above description, the situation in which the vehicle M is parked from the diagonally right front of the parking space between the two vehicles arranged in the left-right direction has been described as an example. However, the present image creation apparatus 10 can be easily applied not only to such an example but also to a situation where parking is performed from the diagonally left front of the parking space. Furthermore, the present invention can also be applied when parking between two vehicles arranged in the front-rear direction. However, in this case, as shown in FIG. 16, the vehicle M moves toward the parking space so as to draw an S shape, and therefore the object B representing such a shape.SMust be prepared in advance.
[0060]
In the above embodiment, the optimal trajectory LT and the predicted travel trajectory ET are expressed by planar figures. However, the present invention is not limited to this and may be expressed by simple lines.
[0061]
“Second Embodiment”
By the way, in 1st Embodiment, in step S10 of FIG. 9, the processor 101 is 1st yaw rate (omega) from the yaw rate sensor 15.1Was receiving. However, in the second embodiment, the first yaw rate ω1An object of the present invention is to provide a driving support device 2 that can calculate the above.
[0062]
FIG. 17 is a block diagram illustrating a hardware configuration of the driving support apparatus 2 in which the image creation apparatus 20 according to the second embodiment is incorporated. In FIG. 17, the driving support device 2 does not require the yaw rate sensor 15 as compared with the driving support device 1 shown in FIG.1Instead of software S as shown in FIG.2Is different in that is stored. Since there is no difference other than that, in FIG. 17, the thing equivalent to the structure of FIG. 1 is attached with the same referential mark, and the description is abbreviate | omitted. Software S2As shown in FIG.1Compared to (see FIG. 6), program C1A computer program (hereinafter simply referred to as a program) C2It differs in that it includes. Since the object B is the same as that of the first embodiment, the description thereof is omitted in this embodiment. Program C2Defines the operation of the driving support device 2.
[0063]
Next, operation | movement of the driving assistance apparatus 2 which has the above structure is demonstrated. After the driving support device 2 is turned on, the processor 101 first starts the software S from the program memory 103.2Are read into the main memory 102. The processor 101 sends a start instruction D from the input device 11SDIn response to the reception of the program C on the main memory 1022Execution, that is, image display processing is started.
[0064]
Here, FIG. 19 and FIG.2It is a flowchart which shows the operation | movement procedure of the driving assistance apparatus 2 described in (2). The flowcharts of FIGS. 19 and 20 differ from the flowcharts of FIGS. 8 and 9 in that step S10 is replaced with step S21. Other than that, there is no difference between the two flowcharts. Therefore, in FIG. 19 and FIG. 20, the steps corresponding to the steps of FIG. 8 and FIG.
[0065]
Hereinafter, before the specific description of step S10, parameters and theories required there will be described with reference to the drawings. First, FIG. 21 shows a vehicle M whose mass is m. Further, the center of gravity position P of the vehicle MBYCTo the line connecting the rotation centers of both front wheelsfIn addition, the distance to the line segment connecting the rotation centers of both rear wheels is Drfar. If the wheel base of the vehicle M is L, L = (Df+ Dr). Further, although not shown in FIG. 21, the yawing moment of inertia of the vehicle M is expressed as ImThe front wheel cornering power of vehicle Mf, Rear wheel cornering power KrAnd Mass m above, yawing moment of inertia Im, Wheelbase L, distance Df, Distance DrFront wheel cornering power Kf, And rear wheel cornering power KrIs a known value that is unique to the vehicle M.
[0066]
In FIG. 21, the actual steering angle of the front wheels of the vehicle M is set to ε. Here, the actual steering angle ε is the steering angle α of the steering wheel α of the vehicle M.iIt can be calculated by the following equation (6).
ε = B × αi... (6)
Here, B is a known constant specific to the vehicle M.
Further, FIG. 21 shows the traveling direction of the vehicle M (vector of the speed V) and the first yaw rate ω.1And the side slip angle δ are shown. However, since these are described in the first embodiment, the description thereof is omitted here.
[0067]
The equation of motion of the vehicle M having the above parameters is expressed by the following equation (7).
[Equation 3]
Figure 0004034548
Further, the center of gravity position P of the vehicle MBYCThe yaw motion equation around the vertical axis is expressed by the following equation (8).
[Expression 4]
Figure 0004034548
By arranging the above equations (7) and (8), the following equations (9) and (10) are obtained.
[Equation 5]
Figure 0004034548
[0068]
Furthermore, when the above equations (9) and (10) are Laplace transformed, the equation of motion and the yawing equation of motion of the vehicle M are expressed as the following equation (11).
[Formula 6]
Figure 0004034548
Here, s is a Laplace operator.
[0069]
In step S21 in FIG. 20, the processor 101 determines that the steering angle α received in steps S8 and S9.iAnd the moving amount TA of the vehicle M is obtained using the speed V. More specifically, the processor 101 determines that the received steering angle αiIs substituted into the previous equation (6) to calculate the actual steering angle ε. Therefore, in the above equation (11), the unknown is the first yaw rate ω1It becomes only. Note that δ is a side slip angle, but is a known value because it can be regarded as 0 when the vehicle M is traveling at a low speed as in parking. After calculating the actual rudder angle ε, the processor 101 solves the above equation (11) using the received speed V and the calculated actual rudder angle ε to obtain the first yaw rate ω.1Is calculated (step S21).
[0070]
In the next step S11, the processor 101 starts with the first yaw rate ω calculated in step S21.1Is substituted into the previous equation (3) and the second yaw rate ω2Is calculated. Thereafter, the processor 101, as described in the first embodiment, moves the movement amount TA (xCP-XCP0, YCP-YCP0) Is calculated.
As described above, according to the present embodiment, since the yaw rate sensor 15 is not required as in the driving support device 1, the technical effect that the configuration of the driving support device 2 can be simplified can be obtained.
[0071]
“Third Embodiment”
In the first embodiment, the processor 101 receives the speed V from the vehicle speed sensor 14 in step S9 of FIG. However, an object of the third embodiment is to provide a driving support device 3 that can calculate the speed V.
[0072]
FIG. 22 is a block diagram illustrating a hardware configuration of the driving support device 3 in which the image creation device 30 according to the second embodiment is incorporated. In FIG. 22, the driving support device 3 does not require the vehicle speed sensor 14 as compared with the driving support device 1 shown in FIG.1Instead of software S as shown in FIG.ThreeIs the point where is stored. Since there is no difference other than that, in FIG. 22, the thing equivalent to the structure of FIG. 1 is attached with the same referential mark, and the description is abbreviate | omitted. In FIG. 23, software SThreeIs software S1Compared to (see FIG. 6), program C1A computer program (hereinafter simply referred to as a program) CThreeIt differs in that it includes. Since the object B is the same as that of the first embodiment, the description thereof is omitted in this embodiment. Program CThreeDefines the operation of the driving support device 3.
[0073]
Next, operation | movement of the driving assistance apparatus 3 which has the above structure is demonstrated. After the driving support device 3 is turned on, the processor 101 first starts the software S from the program memory 103.ThreeAre read into the main memory 102. The processor 101 sends a start instruction D from the input device 11SDIn response to the reception of the program C on the main memory 102ThreeExecution, that is, image display processing is started.
[0074]
Here, FIG. 24 and FIG.ThreeIt is a flowchart which shows the operation | movement procedure of the driving assistance apparatus 3 described in (2). The flowcharts of FIGS. 24 and 25 are different from the flowcharts of FIGS. 8 and 9 in that step S9 is replaced with step S31. Other than that, there is no difference between the flowcharts, and therefore, in FIG. 24 and FIG. 25, the steps corresponding to the steps in FIG. 8 and FIG.
[0075]
Hereinafter, measurement of the vehicle speed by the spatial filtering necessary therefor will be described before specific description of step S31. The spatial filtering is described in detail in, for example, the spatial filter and its application [I] (Journal of the Society of Instrument and Control Engineers “Measurement and Control” Vol. 19, No. 4). FIG. 26 is a schematic diagram showing the basic principle of spatial filtering. In FIG. 26, a slit row 41, a point light source 42, and an optical system 43 are shown. The slit row 41 has the same plane SSLTA plurality of slits arranged in the same direction at a constant pitch p. The point light source 42 emits light toward the slit row 41 while moving on the slit row 41 in the arrangement direction at a relative speed V ′ with respect to the slit row 41. The optical system 43 is placed between the slit row 41 and the point light source 42 and allows the light from the point light source 42 to pass therethrough. The light passing through the optical system 43 is focused on the slit row 41. Thus, on the slit row 41, the spot light LSPTIs projected.
[0076]
Further, as shown in FIG. 26, the above-described spot light L is located at a position where the point light source 42 is viewed with the slit row 41 interposed therebetween.SPT, The spot light L passing through the slit row 41SPTIs a signal in which one pulse appears for each displacement p in the arrangement direction of the slits. The period T of such a signal (pulse)CYLBecomes p / V '. Also, the frequency f of the signalSPTV ′ / p, which is proportional to the relative speed V ′. That is, the spot light LSPTWhen the relative speed V ′ of the motor fluctuates with time, the frequency f ′SPTAlso changes. However, spot light LSPTIs plane SSLTThe property that one pulse appears in the optical signal each time it moves by the displacement p is unchanged.
[0077]
In addition, the above-described captured image ICPTIt can be considered that a large number of point light sources having many light intensities are randomly arranged in the general optical pattern as described above. In addition, it can be considered that a large number of point light sources included in the optical pattern are simultaneously moved in a certain direction without changing the positional relationship with each other. When such an optical pattern is replaced with the point light source 42 in FIG. 26 and moved in the same manner as the point light source, at the position where the point light source 42 is viewed between the slit rows 41, the same frequency f is obtained.SPTHowever, a signal obtained by adding (synthesizing) a large number of signals having different phases and amplitudes is observed. Hereinafter, the observed signal is referred to as a narrowband random signal. Average frequency f of this narrowband random signalAVEIs V '/ p as described above, and its phase and amplitude vary irregularly and slowly over time.
[0078]
Next, from the narrowband random signal having the waveform as described above, the relative velocity V ′ of the optical pattern itself.PTNThe calculation method of will be described. FIG. 27 shows the relative speed V ′.PTNIt is a schematic diagram of the model used for calculation. In FIG. 27, an optical pattern 51, a spatial filter 52, an optical system 53, and a photodetector 54 are shown. The optical pattern 51 has a random light intensity distribution f (x, y). The spatial filter 52 is disposed in close contact with the optical pattern 51. The spatial filter 52 is a point P in the two-dimensional orthogonal coordinate system.FLTThe length in the x-axis direction is XFLTAnd the length in the y-axis direction is YFLTAnd a spatial load function having a predetermined transmittance distribution h (x, y). The spatial filter 52 described above passes light emitted from the optical pattern 51. The optical system 53 focuses the light that has passed through the spatial filter 52. The photodetector 54 converts the light collected by the optical system 53 into electricity, and outputs an instantaneous output g (x0, Y0) Is generated. Here, instantaneous output g (x0, Y0) Is expressed by the following equation (12) when the proportionality constant is ignored.
[0079]
[Expression 7]
Figure 0004034548
Where x0And y0Is the origin P of the spatial filter 52FLTIt is the x coordinate value and the y coordinate value of the optical pattern 51 located above.
[0080]
In the above model, the optical pattern 51 has a constant velocity V ′ in the x-axis direction.PTN X when moving in parallel0And y0Is represented by the following equations (13) and (14).
x0= V ’PTN ・ T + c1... (13)
y0= C2... (14)
Where t is time and c1And c2Is a constant.
[0081]
Now y0And g (x0, Y0) For displacement x0When the power spectral density function Ψ (μ) in the spatial region in the x-axis direction is expressed as the following expression (15):
[Equation 8]
Figure 0004034548
Here, μ and ν are spatial frequencies in the x-axis direction and the y-axis direction. H (μ, ν) is expressed by the following equation (16). Φ (μ, ν) is a two-dimensional power spectral density function in the spatial domain with respect to f (x, y).
[Equation 9]
Figure 0004034548
[0082]
Further, the above equation (15) is approximately expressed as the following equation (17) assuming that the transmittance distribution h (x, y) is constant in the y-axis direction.
[Expression 10]
Figure 0004034548
Here, H (μ) is expressed by the following equation (18).
## EQU11 ##
Figure 0004034548
[0083]
Here, the speed V ′ of the optical pattern 51.PTN In order to consider the influence of the instantaneous output g (x0, Y0) To a function g (x of time t0, Y0, T), the power spectral density function Ω (f) in the time domain is expressed by the following equation (19).
[Expression 12]
Figure 0004034548
Here, f is a temporal frequency.
[0084]
In the above formulas (15) to (19), | H (μ) |2Is μ = μ0Φ (μ0, 0) = 0, unless Ψ (μ) is μ = μ0And has a steep spectrum. Therefore, for Ω (f), f = Vμ0A prominent spectrum appears at. Therefore, the speed V ′PTN A sine wave signal with a frequency proportional to the instantaneous output g (x0, Y0, T), and by performing frequency measurement represented by Fourier transform or wavelet transform on the sine wave signal, the velocity V ′PTN Can be detected.
[0085]
In order to apply the above spatial filtering to the driving support device 3, as shown in FIG.CPTIn the storage area, a virtual slit row 61 is set in advance. The slit row 61 is a plurality of slits arranged in the same direction at a constant pitch p in the memory space of the main memory 102, and the captured image ICPTRoad surface SRIt is placed where it is assumed that is reflected. The position and shape of each slit are specified by the coordinate values of the image coordinate system described in the first embodiment. In step S31, the processor 101 determines the captured image I in the main memory 102.CPTThe plurality of pixels included in the slit row 61 are regarded as the optical pattern 51 described above, and spatial filtering is performed on the optical pattern 51.
[0086]
More specifically, generally, the captured image ICPTIn the case of black and white, it includes data indicating the luminance value of each pixel constituting the black and white. In the case of color, the captured image ICPTIncludes data indicating the luminance values of the three primary colors of light for each pixel, but can be converted into monochrome luminance values by a well-known method. First, the processor 101 stores the captured image I stored this time.CPTAre used to add the black and white luminance values of all the pixels included in the slit row 61. As a result, the processor 101 obtains the total luminance value and stores it on the main memory 102. Here, the main memory 102 stores the captured images I for the past several frames including the current total value.CPTA recording area for storing the total value obtained from the above is reserved. Accordingly, the main memory 102 stores data indicating changes in the total value on the time axis as shown in FIG. Next, the processor 101 converts the change of the total value represented on the time axis into that on the frequency axis as shown in FIG. 29B, and then, from the obtained total value on the frequency axis, Detect peak value. Further, the processor 101 detects a frequency component f corresponding to the detected peak value. Thereafter, the processor 101 determines the optical pattern 51, that is, the road surface S, from the detected frequency component f and the pitch p described above.RRelative speed V 'to vehicle MPTN(= P / f) is calculated. The processor 101 uses the relative velocity V ′ thus obtained.PTNIs reversed to derive the speed V of the vehicle M (step S31).
[0087]
As described above, according to the present embodiment, the vehicle speed sensor 14 is not required as in the driving support device 1, so that the technical effect that the configuration of the driving support device 3 can be simplified can be obtained.
[0088]
In the above first to third embodiments, the program C1~ CThreeIs stored in the program memory 103. However, the program C is not limited to this.1~ CThreeMay be distributed in a state of being recorded on a recording medium typified by a CD-ROM, or may be distributed through a communication network typified by the Internet.
[0089]
In addition to the method described in the above embodiment, there is a method using a well-known Ackermann model as a method for deriving the current optimum route LT. In the Ackermann model, the optimum path LT is the steering angle α.iAnd the speed V.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of a driving support apparatus 1 according to a first embodiment of the present invention.
FIG. 2 is a schematic diagram showing a fixed position of the image pickup apparatus 12 of FIG.
3 is a captured image I generated by the imaging device 12 of FIG.CPTIt is a schematic diagram which shows an example.
4 is a first yaw rate ω detected by the yaw rate sensor 15 of FIG.1It is a schematic diagram for demonstrating.
5 is a display image I created by the processor 101 of FIG.DPYIt is a schematic diagram which shows an example.
6 is software S stored in the program memory 103 of FIG.1It is a schematic diagram which shows the detailed structure of these.
7 is an object B shown in FIG.NIt is a schematic diagram for demonstrating.
8 is a first half of a flowchart showing an operation procedure of the driving support device 1 of FIG. 1;
9 is the latter half of the flowchart showing the operation procedure of the driving support device 1 of FIG. 1;
10 is a notification of confirmation I in step S3 of FIG.NTInitial display image I created before arrivalD0It is a schematic diagram which shows.
11 is an initial display image I displayed at the time of step S5 in FIG.D0It is a schematic diagram which shows.
12 is a second yaw rate ω calculated in step S11 of FIG. 9;2It is a schematic diagram for demonstrating.
FIG. 13 is a schematic diagram for explaining the processing content of the processor 101 in step S12 of FIG. 9;
14 is a schematic diagram showing a change of the display screen of the display device 16 of FIG. 1 with respect to time. FIG.
15 is a display image I displayed on the display device 16 of FIG. 1 when the driver makes a handle operation mistake.DPYIt is a schematic diagram which shows.
FIG. 16 is an object B shown in FIG.NObject B, an alternative toSIt is a schematic diagram for demonstrating.
FIG. 17 is a block diagram showing a hardware configuration of a driving support apparatus 2 according to a second embodiment of the present invention.
18 shows software S stored in the program memory 103 of FIG.2It is a schematic diagram which shows the detailed structure of these.
FIG. 19 is a first half of a flowchart showing an operation procedure of the driving support apparatus 2 of FIG. 17;
20 is the latter half of the flowchart showing the operation procedure of the driving support apparatus 2 of FIG.
FIG. 21 is a schematic diagram showing parameters of the vehicle M required in step S21 of FIG.
FIG. 22 is a block diagram showing a hardware configuration of a driving support apparatus 3 according to a third embodiment of the present invention.
23 shows software S stored in the program memory 103 of FIG.ThreeIt is a schematic diagram which shows the detailed structure of these.
24 is a first half portion of a flowchart showing an operation procedure of the driving support device 3 of FIG. 22;
25 is the latter half of the flowchart showing the operation procedure of the driving support device 3 of FIG.
26 is a schematic diagram showing a basic concept of spatial filtering applied to the driving support device 3 of FIG.
FIG. 27 shows the relative velocity V ′ of the spatial pattern 51 using the spatial filtering of FIG.PTNIt is a schematic diagram of the model used for calculation.
FIG. 28 is a schematic diagram showing slit rows 61 set in advance in the driving support device 3 of FIG. 22;
FIG. 29 shows the relative speed V ′ in step S31 of FIG.PTNIt is a schematic diagram for demonstrating the detection method.
FIG. 30 is a display image I for four frames displayed on a conventional monitor device.d1~ Id4It is a schematic diagram which shows.
[Explanation of symbols]
1, 2, 3 ... Driving support device
10, 20, 30 ... Image creation device
101. Processor
102 ... Main memory
103 ... Program memory
S1, S2, SThree…software
C1, C2, CThree... Computer program
11 ... Input device
111, 112, 113 ... operation buttons
12 ... Imaging device
13. Steering angle sensor
14 ... Vehicle speed sensor
15 ... Yaw rate sensor
16 ... Display device

Claims (6)

車両の運転支援のための画像作成装置であって、
車両に設置された撮像装置と、
前記車両の操舵角を検出する操舵角センサと、
前記撮像装置で撮像された画像、および、前記操舵角センサで検出された操舵角にもとづいて表示画像を作成するプロセッサと、
複数の操舵角に割り当てられた、当該操舵角を保った状態で前記車両が辿ると想定される軌跡の形状を特定する図形データである複数のオブジェクトを格納するメインメモリと、
前記プロセッサによって作成された前記表示画像を表示する表示装置と、
前記車両のドライバの操作入力を受付ける入力装置とを備え、
前記プロセッサは、
予め定められた操舵角に割当てられた前記オブジェクトを前記メインメモリの中から選択し、前記撮像装置によって撮像された画像が表す光景に、重畳して初期表示画像を作成し、
前記表示装置は、前記初期表示画像を表示し、
前記入力装置が、前記車両の移動により前記初期表示画像に表示されたオブジェクト前記車両の現在位置から停止位置までの最適な軌跡を表す最適軌跡であることを示す情報の入力を、前記ドライバから受付けると
前記プロセッサは、
前記入力装置で入力を受付けた前記情報に基づいて、前記初期表示画像に表示されたオブジェクトを前記最適軌跡として決定し、
前記操舵角センサで検出された操舵角に基づいて、前記メインメモリに記憶されたオブジェクトを用いて、前記車両がこれから辿ると予想される予想走行軌跡を作成し、
前記光景に、前記最適軌跡および前記予想走行軌跡を重畳した表示画像を、前記メインメモリに作成する、画像作成装置。
An image creation device for driving support of a vehicle,
An imaging device installed in the vehicle;
A steering angle sensor for detecting a steering angle of the vehicle;
A processor that creates a display image based on an image captured by the imaging device and a steering angle detected by the steering angle sensor;
A main memory assigned to a plurality of steering angles and storing a plurality of objects which are graphic data for specifying the shape of a trajectory that the vehicle is supposed to follow while maintaining the steering angles;
A display device for displaying the display image created by the processor;
An input device for receiving an operation input of a driver of the vehicle ,
The processor is
The object assigned to a predetermined steering angle is selected from the main memory, and an initial display image is created by superimposing on the scene represented by the image captured by the imaging device ,
The display device displays the initial display image;
Wherein the input device, the input of the information indicating that the object displayed on the initial display image by the movement of the vehicle is optimal locus representing the optimal trajectory to the stop position from the current position of the vehicle, from the driver If accepted Ru,
The processor is
Based on the information received by the input device, the object displayed in the initial display image is determined as the optimal locus,
Based on the steering angle detected by the steering angle sensor, using the object stored in the main memory, create an expected traveling locus that the vehicle is expected to follow from now on,
An image creation device that creates a display image in which the optimum trajectory and the predicted travel trajectory are superimposed on the scene in the main memory.
前記プロセッサは、前記メインメモリに重畳して作成した表示画像を、自身と通信可能に接続された表示装置に転送し、
前記表示装置は、前記メインメモリからの受信表示画像を表示する、請求項1に記載の画像作成装置。
The processor transfers the display image created by being superimposed on the main memory to a display device connected to be communicable with the processor,
The image creation device according to claim 1, wherein the display device displays a received display image from the main memory.
車両の運転支援のための画像作成方法であって、複数の操舵角に割り当てられ、当該操舵角を保った状態で前記車両が辿ると想定される軌跡の形状を特定する図形データである複数のオブジェクトがメインメモリに格納されており、
車両の操舵角を検出する操舵角検出ステップと、
撮像装置で撮像された画像、および、前記操舵角検出ステップで検出された操舵角にもとづいて表示画像を作成する表示画像作成ステップと、
前記表示画像作成ステップで作成された前記表示画像を表示する表示ステップと、
予め定められた操舵角に割り当てられた前記オブジェクトを前記メインメモリの中から選択し、前記撮像装置によって撮像された画像が表す光景に、重畳して初期表示画像を作成する初期表示画像作成ステップと、
前記初期表示画像を表示する初期表示画像表示ステップと、
前記車両の移動により前記初期表示画像に表示されたオブジェクト前記車両の現在位置から停止位置までの最適な軌跡を表す最適軌跡であることを示す情報の入力を、前記車両のドライバから受付ける最適軌跡入力ステップと、
前記最適軌跡入力ステップで入力を受付けた前記情報に基づいて、前記初期表示画像に表示されたオブジェクトを前記最適軌跡として決定する最適軌跡決定ステップと、
前記操舵角検出ステップで検出された操舵角に基づいて、前記メインメモリに記憶されたオブジェクトを用いて、前記車両がこれから辿ると予想される予想走行軌跡を作成する予想走行軌跡作成ステップと、
前記光景に、前記最適軌跡および前記予想走行軌跡を重畳した表示画像を前記メインメモリに作成する作成ステップとを備える、画像作成方法。
An image creation method for driving support of a vehicle, wherein a plurality of graphic data is assigned to a plurality of steering angles and specifies a shape of a trajectory that the vehicle is supposed to follow while maintaining the steering angles. The object is stored in the main memory,
A steering angle detecting step for detecting a steering angle of the vehicle;
A display image creation step of creating a display image based on the image captured by the imaging device and the steering angle detected in the steering angle detection step;
A display step for displaying the display image created in the display image creation step;
An initial display image creation step of creating an initial display image by selecting the object assigned to a predetermined steering angle from the main memory and superimposing the object on a scene represented by the image captured by the imaging device ; ,
An initial display image display step for displaying the initial display image;
Optimal trajectory input of information indicating that the object displayed on the initial display image by the movement of the vehicle is optimal trajectory representing the optimal trajectory to the stop position from the current position of the vehicle receives from the vehicle driver An input step;
An optimal trajectory determining step for determining an object displayed in the initial display image as the optimal trajectory based on the information received in the optimal trajectory input step;
The steering angle detected based on the steering angle detected in step, with the objects stored in said main memory, a predicted travel locus generating step of generating a predicted traveling locus in which the vehicle is expected to follow from this,
And a creation step of creating, in the main memory, a display image in which the optimal trajectory and the predicted travel trajectory are superimposed on the scene.
前記メインメモリに重畳して作成した表示画像を、自身と通信可能に接続された表示装置に転送する転送ステップと、
前記メインメモリからの受信表示画像を表示する受信表示画像表示ステップとを備える、請求項3に記載の画像作成方法。
A transfer step of transferring a display image created by being superimposed on the main memory to a display device connected to be communicable with itself;
The image creation method according to claim 3, further comprising: a received display image display step for displaying a received display image from the main memory.
車両の運転支援のための画像作成装置のコンピュータで実行される画像作成プログラムであって、複数の操舵角に割り当てられ、当該操舵角を保った状態で前記車両が辿ると想定される軌跡の形状を特定する図形データである複数のオブジェクトがメインメモリに格納されており、
前記コンピュータに、
車両の操舵角を検出する操舵角検出ステップと、
撮像装置で撮像された画像、および、前記操舵角検出ステップで検出された操舵角にもとづいて表示画像を作成する表示画像作成ステップと、
前記表示画像作成ステップで作成された前記表示画像を表示する表示ステップと
予め定められた操舵角に割り当てられた前記オブジェクトを前記メインメモリの中から選択し、前記撮像装置によって撮像された画像が表す光景に、重畳して初期表示画像を作成する初期表示画像作成ステップと、
前記初期表示画像を表示する初期表示画像表示ステップと、
前記車両の移動により前記初期表示画像に表示されたオブジェクト前記車両の現在位置から停止位置までの最適な軌跡を表す最適軌跡であることを示す情報の入力を、前記車両のドライバから受付ける最適軌跡入力ステップと、
前記最適軌跡入力ステップで入力を受付けた前記情報に基づいて、前記初期表示画像に表示されたオブジェクトを前記最適軌跡として決定する最適軌跡決定ステップと、
前記操舵角検出ステップで検出された操舵角に基づいて、前記メインメモリに記憶されたオブジェクトを用いて、前記車両がこれから辿ると予想される予想走行軌跡を作成する予想走行軌跡作成ステップと、
前記光景に、前記最適軌跡および前記予想走行軌跡を重畳した表示画像を前記メインメモリに作成する作成ステップと実行させる、画像作成プログラム。
An image creation program executed by a computer of an image creation device for driving support of a vehicle, which is assigned to a plurality of steering angles, and a shape of a trajectory assumed to be followed by the vehicle while maintaining the steering angles Multiple objects that are graphic data that identify
In the computer,
A steering angle detecting step for detecting a steering angle of the vehicle;
A display image creation step of creating a display image based on the image captured by the imaging device and the steering angle detected in the steering angle detection step;
A display step for displaying the display image created in the display image creation step ;
An initial display image creation step of creating an initial display image by selecting the object assigned to a predetermined steering angle from the main memory and superimposing the object on a scene represented by the image captured by the imaging device ; ,
An initial display image display step for displaying the initial display image;
Optimal trajectory input of information indicating that the object displayed on the initial display image by the movement of the vehicle is optimal trajectory representing the optimal trajectory to the stop position from the current position of the vehicle receives from the vehicle driver An input step;
An optimal trajectory determining step for determining an object displayed in the initial display image as the optimal trajectory based on the information received in the optimal trajectory input step;
The steering angle detected based on the steering angle detected in step, with the objects stored in said main memory, a predicted travel locus generating step of generating a predicted traveling locus in which the vehicle is expected to follow from this,
An image creation program for executing a creation step of creating a display image in which the optimum trajectory and the predicted travel trajectory are superimposed on the scene in the main memory.
前記メインメモリに重畳して作成した表示画像を、自身と通信可能に接続された表示装置に転送する転送ステップと、
前記メインメモリからの受信表示画像を表示する受信表示画像表示ステップとを実行させる、請求項5に記載の画像作成プログラム。
A transfer step of transferring a display image created by being superimposed on the main memory to a display device connected to be communicable with itself;
The image creation program according to claim 5, wherein a reception display image display step of displaying a reception display image from the main memory is executed.
JP2001347623A 2001-11-13 2001-11-13 Image creation device Expired - Fee Related JP4034548B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001347623A JP4034548B2 (en) 2001-11-13 2001-11-13 Image creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001347623A JP4034548B2 (en) 2001-11-13 2001-11-13 Image creation device

Publications (2)

Publication Number Publication Date
JP2003146161A JP2003146161A (en) 2003-05-21
JP4034548B2 true JP4034548B2 (en) 2008-01-16

Family

ID=19160600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001347623A Expired - Fee Related JP4034548B2 (en) 2001-11-13 2001-11-13 Image creation device

Country Status (1)

Country Link
JP (1) JP4034548B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3977368B2 (en) * 2004-09-30 2007-09-19 クラリオン株式会社 Parking assistance system
JP5472026B2 (en) 2010-06-29 2014-04-16 トヨタ自動車株式会社 Parking assistance device

Also Published As

Publication number Publication date
JP2003146161A (en) 2003-05-21

Similar Documents

Publication Publication Date Title
JP6675448B2 (en) Vehicle position detecting method and device
US6539288B2 (en) Vehicle rendering device for generating image for drive assistance
EP2416570B1 (en) Calibration device, method, and program for onboard camera
EP2739050B1 (en) Vehicle surroundings monitoring system
JP5077307B2 (en) Vehicle surrounding image display control device
JP2004297808A (en) Moving object periphery monitoring device
JP6425991B2 (en) Towing vehicle surrounding image generating apparatus and method for generating towing vehicle surrounding image
JP7156937B2 (en) Image processing device and image processing method
JP4797877B2 (en) VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD
JP5045172B2 (en) Vehicle driving support device
WO2018159017A1 (en) Vehicle display control device, vehicle display system, vehicle display control method and program
JP2004240480A (en) Operation support device
JPH10175482A (en) Vehicle rear view field support device
JP2007168560A (en) Parking support apparatus
JP4466963B2 (en) Vehicle front image display apparatus and method
JPH0717328A (en) Circumference recognition auxiliary device for vehicle
WO2011013813A1 (en) In-vehicle device and image processing program
JP2010183234A (en) Drawing apparatus
JP2019054439A (en) Image processing system
JP2006160194A (en) Parking support device
JP4034548B2 (en) Image creation device
JP3830025B2 (en) Drawing device
JP2002079881A (en) Plotter
KR101861523B1 (en) Apparatus and method for supporting driving of vehicle
JP4545485B2 (en) Stop position detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071025

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131102

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees