JP3726175B2 - Parking assistance device - Google Patents

Parking assistance device Download PDF

Info

Publication number
JP3726175B2
JP3726175B2 JP14815798A JP14815798A JP3726175B2 JP 3726175 B2 JP3726175 B2 JP 3726175B2 JP 14815798 A JP14815798 A JP 14815798A JP 14815798 A JP14815798 A JP 14815798A JP 3726175 B2 JP3726175 B2 JP 3726175B2
Authority
JP
Japan
Prior art keywords
parking
vehicle
steering
camera
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14815798A
Other languages
Japanese (ja)
Other versions
JPH11339194A (en
Inventor
啓司 葛谷
俊明 柿並
亮 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP14815798A priority Critical patent/JP3726175B2/en
Publication of JPH11339194A publication Critical patent/JPH11339194A/en
Application granted granted Critical
Publication of JP3726175B2 publication Critical patent/JP3726175B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は車両の縦列駐車や車庫入れ等の駐車を補助する駐車補助装置に関するものであり、特に、後方画像をカメラにより撮影し、駐車区画を認識して車内のモニタディスプレィに後方画像と共に走行予想軌跡(誘導路ともいう)を表示させたり、音声出力により駐車時の操作を補助する駐車補助装置に係わる。
【0002】
【従来の技術】
従来、縦列駐車や車庫入れ等の駐車に不慣れなドライバを対象として、駐車操作時に駐車を補助する方法が知られている。例えば、特開平7−17328号公報では車体の周囲にCCDカメラや距離測定を行う距離センサを設け、車両の周辺の様子を探知し、車両の室内に設けられたディスプレィ上に車両周辺の周辺画像を鳥瞰図的に表示してドライバに周囲の状況を提供している。
【0003】
また、特開昭59−201082号公報においては、ステアリング舵角をステアリングセンサにより検出し、検出した自車の位置と予め入力された駐車に関する所定のデータに基づき、駐車操作時のステアリング操舵角を計算して簡易なディスプレィに操舵角と操舵に必要な指示角を表示するものや、特開平8−2357号公報に示されるものでは車両の後方に設けられた物体検知用の測距センサにより、障害物(特に、駐車しようとする駐車スペースの隣りに駐車している車等)との距離をはかり、その距離に応じて最大舵角による転舵開始位置を検出し、転舵開始位置をドライバに報知する方法、および、特開平6−234341号公報においてはCCDエリアセンサやステアリングセンサを用いて自車を誘導する誘導路を算出し、求められた誘導路と現在位置に基づき、ドライバに舵角指示を音声メッセージにより与えるものが知られている。
【0004】
【本発明が解決しようとする課題】
しかしながら、車両を駐車させる場合には白線等で示される駐車区画に対して、所定位置までステアリングを転舵させ、中央付近で平行になるようにした状態で車両をバックさせることが望ましいが、上記した従来技術ではいずれの場合においても、駐車すべき区画自体を認識した上で駐車操作時に適切な指示をドライバに与えて、車両を正しく駐車させるものとはいえず、適切な状態で駐車を補助するものではない。
【0005】
そこで、本発明は上記の問題点に鑑みてなされたものであり、駐車区画自体を識別した上で、正位置に駐車するよう適切に駐車を補助することを技術的課題とする。
【0006】
【課題を解決するための手段】
上記の課題を解決するために講じた技術的手段は、車両の操舵状態を検出する操舵状態検出手段と、前記カメラからの映像を基に白線で区画され前記車両が駐車する駐車区画を画像認識により認識する駐車区画検出手段と、前記操舵状態検出手段からの操舵情報により前記車両の走行予想軌跡を算出する走行予想軌跡算出手段と、前記駐車区画の中心軸と前記車両の車両中心軸とのなす角度θm、前記駐車区画の中心軸の垂直方向において前記カメラの設けられるカメラ位置と前記駐車区画の中心軸との距離L、前記駐車区間の中心軸の方向において前記白線の車両側の端部と前記カメラ位置までの距離Dに基づく前記駐車区画と前記車両との相対位置関係により、前記車両が前記駐車区画に入れる基準半径R0を求め、該基準半径R0と前記走行予想軌跡を算出する前記操舵状態に応じた旋回半径Rとの比較を行い、比較結果に応じて駐車を補助する修正操舵情報をドライバに提供する報知手段とを備えたことである。
【0007】
上記の技術的手段により、カメラからの映像を基に白線で区画され車両が駐車する駐車区画を画像認識により検出し、操舵状態検出手段からの情報により車両の走行予想軌跡求め、走行予想軌跡と駐車区画の情報から、正しく駐車できるか否かを判断した上で、駐車を補助する情報を提供することが可能になる。
【0008】
この場合、駐車区画は、駐車区画を構成する白線を認識するようにすれば、画像認識により容易に検出される。
【0009】
また、駐車区画と車両との相対位置関係は、駐車区画の中心軸に対する車両中心軸の傾斜角度θm、カメラ位置と駐車区画の中心軸との距離L、駐車区画入口までの距離Dより表現でき、駐車区画と車両との相対位置の関係が正確に求まる。より具体的には、駐車区画と車両との相対位置関係は、駐車区画の中心軸と車両の車両中心軸とのなす角度θm、駐車区画の中心軸の垂直方向においてカメラの設けられるカメラ位置と駐車区画の中心軸との距離L、駐車区間の中心軸の方向において白線の車両側の端部とカメラ位置までの距離Dより表現できる。
【0011】
表示器にはカメラからの後方画像と走行予想軌跡が重ねて表示されるようにすれば、周囲の状況が正確に察知でき、舵角に対応した走行予想軌跡が後方画像のどこを通るかが適切にわかる。
【0012】
走行予想軌跡は駐車区画との相対位置関係により、走行予想軌跡の表示形態を表示器上で可変表示させるようにすれば、走行予想軌跡の表示形態(表示色等)の変化により、所定の駐車区画に対し駐車可能か否かが判断し易くなる。
報知手段は、特に音声により操舵タイミング、操舵方向、操舵量の少なくとも1つが報知されるようにすれば、ドライバに対して駐車に関する情報を、後方を目視しながらでも提供することが可能になる。
【0013】
【発明の実施の形態】
以下、本発明の実施形態を図面を参照して説明する。
【0014】
図1は、駐車補助装置1のシステム構成図である。この図において駐車補助装置1を制御するコントローラ16には車両の後方を撮影するCCDカメラ(以下、カメラと称す)17、ステアリングホイール(以下、ステアリングと称す)21の操舵角を検出するステアリングセンサ2、トランスミッションのシフトレバーのリバース(後退)状態を検出するシフトレバーリバーススイッチ3、駐車操作時に駐車アシスト機能を動作させる駐車スイッチ4、および、従動輪の左右の車輪速度を検出する車輪速センサ5,6からの信号が入力され、これらの信号を基にコントローラ16はディスプレィ13上に車両の後方画像と後述する走行予想軌跡20を重ねて表示できるようになっている。また、この装置1では音声合成回路7により音声合成出力がスピーカ8からドライバに対して、音声が発せられ駐車操作時の補助を行えるようになっている。
【0015】
コントローラ16の内部には制御を司るCPU11、ディスプレィ13にグラフィックスを描画するグラフィックス描画回路12、グラフィックス信号とカメラ17からの後方画像を重ね合わせるスーパーインポーズ回路9、カメラ画像から同期信号を抽出してグラフィックス描画回路12へ供給する同期分離回路10、カメラ17からの画像信号を受けて駐車区画30(特に、白線31)の画像認識を行う駐車区画検出用画像認識装置15等が具備されている。
【0016】
ディスプレィ13上にはステアリング21の舵角状態により点灯状態が変化する舵角状態表示(表示マーカー)14が左右対称に設けられ、ステアリング舵角が大きいときに表示マーカー14は転舵している方向に多く点灯したり、中立点では中央のマーカー14のみが点灯するようになっており、ステアリング21がどれだけ転舵されているかが後方画像と共ににわかるようになっている。つまり、表示マーカー14は駐車操作時の操舵タイミング、操舵方向、操舵量が表示され、ドライバに対して知らせることができる。
【0017】
図2は、駐車補助装置1を車両に取り付けた場合の取付図を示す。後方を撮像するカメラ17は車両後方のナンバープレートの上中央付近に取り付けられ、光軸を下方に向けて設置される。具体的には、図3および図14に示されるように、車両後方の中央に下方(約30度)に向けて取り付けられ、カメラ自体は広角レンズにより左右140度の視野を確保し、後方8m程度までの領域を撮影できるようになっている。
【0018】
また、車両の室内のセンターコンソールにはパネル面にディスプレィ13が備え付けられ、グローブボックス上方にはコントローラ16が内部に取り付けられている。更に、駐車を補助する要求を出す駐車スイッチ4は、ドライバが操作し易いセンターコンソール近傍に設けられる。
【0019】
ここで、ステアリングセンサ2について図4を参照して説明する。ステアリングセンサ2はステアリング21を転舵した場合の舵角(ステアリング舵角)を検出するものである。これはステアリングコラムシャフト23と一体回転するようにスリット板2aが取付けられており、90°の位相差がついた2組のフォトインタラプタ2c,2bが取付けられている。この構成において、ディスク板2aに円周状に設けられた複数のスリットの回転により、光を通過または遮断してフォトトランジスタをオン/オフさせることにより、A相、B相の2つの信号パルス(図4の(c)参照)を出力している。これは、ステアリング21の回転方向によりA相に対し、B相は90°位相が遅れるか、または、進んで出力されるようになっており、ここでは、ステアリング角度が1°/パルスのものを用いている。
【0020】
次に、図5を参照してコントローラ16の処理について説明する。コントローラ16は電源オン(アクセサリスイッチがオン)により図5に示すプログラムはスタートする。
【0021】
ステップS101ではこの処理に必要なメモリに各種初期値を設定する。その後、ステップS102でシフトリバーススイッチ3の状態をチャックし、リバースでないならば、ディスプレィ13の表示をステップS115でやめ、ステップS102に戻る。一方、シフトリバーススイッチ3がオン(リバースレバーの状態)になるとステップS103を行う。ステップS103ではディスプレィ13をカメラ画像モードに切り換えて、車両後方の画像を生画像で表示できるモードにする。つまり、後方の状態を生画像により正確に表示できるため、後方を横切る人や物等を確認できる。
【0022】
次に、ステップS104において駐車操作時に駐車を補助する駐車スイッチ4をチェックする。ここで、駐車スイッチ4の状態がオフ(駐車補助要求がない状態)であれば、ディスプレィ13のグラフィック画面をステップS112でクリヤしてディスプレィ13には後方の生画像表示のみ(図1において後述する走行予想軌跡20が表示されない状態)とし、ステップS102に戻る。
【0023】
一方、ステップS104において駐車スイッチ4がオン(駐車補助要求がある状態)であるならば、ステップS105に進み、ステップS105では音声合成回路7に予め決められた音声信号出力をし、スピーカ8より音声出力を行う。即ち、駐車操作を開始したことを状況に応じて、「駐車アシストします。軌跡を希望の位置に合わせて、周囲に注意しながらバックして下さい。」、「ただいまより、駐車ガイドを開始いたします。画面の緑(走行予想軌跡)の表示の先端が、駐車区画に向かうように、ハンドルを回して下さい。」、「右(左)にご注意下さい。」等の予め決められた音声メッセージで、ドライバに対して音声合成により案内を行う。この音声メッセージを聞いて、ドライバは駐車操作時の補助が開始されたことを知ることができる。
【0024】
次に、ステップS106においてステアリングセンサ2からステアリングセンサ値Nを読み込み、その値を基に駐車操作時の旋回半径Rの算出を行う。具体的には、ステアリングセンサ2の読み込みをA相信号の立ち上がりエッジ検出時にメインプログラムに割り込みを発生させ、図6に示す割り込み処理を実行する。つまり、図6のステップS201においてB相信号の状態をチェックし、B相信号がハイ(H:高電位)なら、ステップS202においてステアリングカウント値Nをインクリメントし、ロー(L:低電位)ならデクリメントしてその値をメモリに記憶する。この場合、ステアリングカウント値Nは、1パルスが1°のため、θ=Nとなる。しかし、上記に示すステアリング値Nのカウントのみではステアリング21の絶対舵角が不定となってしまうため、図7に示す方法によりステアリング舵角の中立点を検出し、N=0として中立点を決める。
【0025】
そこで、図7を参照して中立点決定について説明する。この処理では1秒周期のタイマ割り込みで実行される。ここでは、通常、車輪に備えつけられている公知の左右の車輪速センサ5,6からの信号により車体速度も算出する。ステップS301,ステップS302では左右の車輪速センサ5,6からの信号(パルス)はコントローラ内部のCPU11に内蔵されたハードウェアカウンタによりカウントされ、このタイマ割り込みルーチンで左右の車輪速が読み出され、車輪速センサ値が記憶されるメモリのNR,NLに記憶される。読み出しの後、カウンタ自体はクリアされ、NR,NLは1秒毎のパルス数を示すものとなる。
【0026】
次のステップS303においてNR,NLからその平均値(NR+NL)/2を演算し、この値にタイヤの周長を乗算し、公知の方法により容易に車速Vが求められる。次に、ステアリングセンサ2の基準設定であるが、ステップS304からステップS306では車速V、所定速度(10Km/h)以上の時に左右の車輪速センサ5,6のパルス差がほとんどない状態をもって車両が直進状態であるとみなし、ステップS306でステアリングカウンタNを零にしてリセットすることで、ステアリング舵角の中立点が求められる。
【0027】
ステアリング処理が終了すると、図5のメインルーチンに戻り、ステップS107において走行予想軌跡20のパラメータ演算を行う。走行軌跡パラメータ演算は図11に示される幾何学的な関係から旋回半径Rをステアリング角度θとホイールベースLとから求めるものである。
【0028】
その後、ステップS108においてカメラ17の画像を画像認識装置15に取り込み、ステップS109において区画線検出処理を行う。
【0029】
この区画線検出処理は図8に示される方法によりなされる。つまり、カメラ17より入力された画像は、例えば、白黒画像(640×480ドットサイズ)であり、各点は0〜255のグレースケールをもつものとする。この画像よりまずステップS401において公知の技術より駐車区画30の特徴点となる白線31のエッジ検出を行う。具体的には公知のソーベルフィルタにより白線31のエッジを検出し、適当なしきい値を上回っている部分のピークを検出して境界を構成するエッジ点を抽出する方法をとる。この場合、白線の認識が画像認識により駐車区画の特徴点を容易に検出できる。次に、ステップS402においては、これらエッジ点に対し図15に示される路面座標への変換を行なう。この座標系にてステップS403で直線検出を行っている。この直線を求める方法には、公知のHough変換を用いれば検出が可能となる。
【0030】
このHough変換による直線検出は、カメラ17により撮像された駐車区画30の白線31のエッジを検出した後、(X,Z)平面に逆変換されたエッジ点の集合から直線を検出する場合に使用する。つまり、これは公知の技術であり、簡単に説明するとその変換は、各エッジ点を(x,y)とすると、次のようになる。
【0031】
X=x・Hc/(fsinθ−ycosθ)・・・(1)
Z=Hc・(ycosθ+fcosθ)/(fsinθ−ycosθ)・・・(2)
u=X・・・(3)
v=−Z・・・(4)
p=ucosθ+vsinθ・・・(5)
による。即ち、この変換を行うために、先ず各エッジ点を(X,Z)座標で記述するために(1),(2)式の変換を行う。
【0032】
次に、Hough空間として、(ρ,θ)を使用し、各エッジ(X,Z)に対して(3)〜(5)式を使用してρを計算する。この時、(ρ,θ)空間上にθ=−π/2〜π/2の間で曲線を描画する。これは実際にはρ,θ空間を格子状に分割し、2次元マトリックスに対応付けて、θを変化させて対応する各マトリックス値をインクリメントする操作に対応する。
【0033】
このようにして、全ての候補エッジ点に対して、マトリックスへの描画を行わせると候補となる線分に対しては曲線の交点が集中する結果、マトリックス値が大きな値をもつようになり、あるしきい値等により適当なマトリックス位置(ρ,θ)が選定され、これに対応して各々1本の直線を抽出することができる。
【0034】
そこで、直線検出後、図8に戻りステップS404においてHough変換により検出された直線から駐車区画30を構成する候補となる線分を抽出する。具体的には図17に示されるように、Lm:車体長さ、Wm:車幅、lm:後輪車軸とカメラとの距離、Rmin:車両の最小回転半径とした場合、図10に示されるように車両後端部中心(カメラ位置)から駐車区画30の入口までの距離D、車両後端部中心(カメラ位置)の駐車場中心に対する横ずれ距離(センターずれ)L、車両と駐車区画との角度(車体角度)θmを幾何学的な関係から求めることができる。より具体的には、θm:駐車区画センターライン(駐車区画の中心軸)と車両の車両中心軸とのなす角度、L:駐車区画の中心軸の垂直方向においてカメラの設けられるカメラ位置と駐車区画の中心軸との距離、D:駐車区間の中心軸の方向において白線の車両側の端部(図17の左側の駐車白線)とカメラ位置までの距離を示す。
【0035】
ここでは、図17のC,D、E、Fの線分を角度および並びの順序、そして駐車区画幅W1と白線幅W2との比較で、許容範囲内のものを抽出する。
【0036】
次に、ステップS405においては、側線候補(白線)が見つかったか否かをチェックし、側線候補がない場合にはこの処理を終了するが、側線候補有りの場合にはステップS406において、側線に直交する直交成分の検出処理を行う。つまり、これは図17においては、A,Bの仮想線分の探索に対応する。
【0037】
次にステップS407において直交線分候補がない場合には、この処理を終了するが、直交成分候補が有りの場合は、ステップS408においてL,θm,Dを計算して求める。尚、このL,θm,Dを求める具体的な計算方法は図17から幾何学的な関係により算出することができるため、その求め方は省略する。
【0038】
次に、図9を参照して車両の状態判断について説明する。
【0039】
ステップS501において、駐車区画が検出されたか否かをチェックし、区画検出がされていない場合にはステップS512において不明と判断し、不明フラグをセットする。一方、区画検出がされた場合にはステップS502に進み、センターずれL,車体角度θmから、基準となる旋回半径R0を求める。これは図17に示した(条件1)式で示されるもので、駐車区画30の中心軸と車両中心軸とに共に接する円の半径を求めることになる。この場合には、車両の進行方向に向かって右側に旋回中心がある場合には、半径R0は正となる。
【0040】
次に、ステップS503において旋回半径R0を車両の最小回転半径であるRminと比較し、これより小さければ車両は駐車区画30に進入不能となるため、ステップS511において不能と判断し、駐車不能フラグをセットする。ここで、旋回半径R0がRmin以上で駐車可能であれば、ステップS504に進み、図17に図示したdを(条件2)式により計算する。これは旋回のための半径R0の軌跡より駐車区画30内の適切な位置で車両が平行になれるかを判断するものであり、ステップS505においてd<Lm−lmの条件下において駐車が可能であるかを判断する。尚、このステップS505に示す条件が成立しない場合には、車両は駐車区画30に入っても平行にはならないものとなる。
【0041】
次に、ステップS506に進み、条件3をチェックする。つまり、図17の条件3に示す関係式でRxを求める。これは車両が駐車区画30に進入する際に旋回の内側が駐車区画コーナー部と干渉しないかをチェックするものであり、ステップS507においてRx<|R0|−Wm/2の条件が成立すれば、車両の旋回の内側が隣りの車両等と接触する可能性が少なくなるとみなすことができる。しかし、これはあくまで計算上の基準であり、実際には隣接車両のはみ出し等も考えられ、目視での確認が必要となる。よって、以上の条件式(条件1から条件3)が成立すれば、ステップS508に進む。
【0042】
ステップS508においては現在のステアリング舵角に基づく旋回半径Rと基準半径R0とを比較して略一致していれば、ステップS509においてこのままのステアリング舵角で駐車可能とし、駐車可能フラグをセットする。一方、旋回半径Rと基準半径R0が略一致しない場合には、ステップS510においてステアリング修正は必要とみなし、ステアリング修正フラグをセットとする。但し、図20に示すようにR0>Rminの場合には自由度があり、状況によってはステアリング修正は不要となる。
【0043】
この結果を基に、図5のステップS111では音声出力2を行う。ここでの音声出力2は、ステップS110の状態判断によりセットされたフラグにより、予め定められた文章を発してドライバに対して報知するものである。具体的には、図19に示されるように状態判断により「不明」の場合には、「駐車区画を検出していません」、「不能」の場合には「前に進んでもう一度やり直して下さい」、このままの舵角で駐車が可能な場合には「周囲に注意してそのままバックして下さい」等の音声メッセージを、音声合成回路7からスピーカ8に対して出力する。この場合、走行予想軌跡20をディスプレィ13に表示する場合の場合の色の指定も図19に示される表示色に設定される。
【0044】
次に、ステップS112においてグラフィックス再描画処理を行う。ここでの処理は後方画像に走行予想軌跡20をディスプレィ上に重ねて表示させるものであり、この表示を行うためには路面座標をカメラ座標に変換しなければならないことから、以下に示す座標変換を行う。
【0045】
そこで、この座標変換は図16に示すように、(X,Y,Z):路面座標、(x,y):カメラ座標(CCD素子面)、f:レンズ焦点距離、(x’,y’,z’):レンズ座標(z’は光軸に一致)、θc:カメラ取り付け角度、Hc:路面からの取り付け高さとすると、以下のような関係式が成立する。つまり、
x=f・x’/z’・・・(1’)
y=f・y’/z’・・・(2’)
x’=X・・・(3’)
y’=Zsinθc+(Y−Hc)cosθc・・・(4’)
z’=Zcosθc−(Y−Hc)sinθc・・・(5’)
より、路面上の座標のみに限定すればY=0となり、x,yを求めれば、
x=f・X/(Zcosθc+Hcsinθc)・・(6’)
y=f・(Zsinθc−Hccosθc)/(Zcosθc+Hcsinθc)・・・(7’)
となる。よって、路面座標上の点(X,Z)をカメラで撮影した場合、グラフィックス画面上(カメラ座標)での座標(x,y)を(6’),(7’)式より求め、後方画像に重ね合せることができる。
【0046】
この場合、上記の方法により求めたx,yの走行予想軌跡20をディスプレィ上に表示するのであるが、その表示方法は図12に示されるように各種の方法が考えられる。つまり、図12の(a)では車両の左右輪が通過する予想轍による表示する方法、(b)では駐車時に車両が走行する走行エリアをベクトル表示する方法、(3)は一定距離間隔(はしご間隔:50cm)がわかるようにしたはしご状に表示する方法等があり、ここでは(c)を用いて、駐車操作時に距離感や各位置での車体の角度が分かり易い方法を採用している。尚、この場合、車両予想軌跡20の長さlは固定長(例えば、3m)にしたり、一定の角度分とし、旋回状態(緑色とする)と直進状態(青色とする)で色を変化させたり、更には、予想軌跡先端部のみを区別し易い表示にしたりする方法をとることもできる。
【0047】
図18はディスプレィ13上での走行予想軌跡20とステアリング舵角の状態を示した表示画面の一例であり、ステアリング舵角に応答して走行予想軌跡20が変化する状態を示したものである。これは車両の後方の生画像をモニタし、駐車スイッチ4がオンしている(駐車補助要求ありの状態)場合にのみ、ステアリング舵角に応じてはしご状になった走行予定軌跡20を重なり合って表示させるようにしている。この場合、後方画像に走行予想軌跡20を表示させることで、ステアリング21をどれだけ転舵しているかわかるようにディスプレィ13の一部に舵角状態を表示する表示マーカー14を一緒に表示させているので、実際にどれだけ転舵しているかがわかる。
【0048】
次のステップS113においては駐車スイッチ4がオン(駐車補助要求あり)されているかが判断される。ここで、駐車スイッチ4がオンされていない(駐車補助要求がない)場合にはステップS102に戻り、ステップS102からの処理を繰り返す。一方、駐車補助要求がありの場合には、ステップS114においてリバース状態であるかをシフトレバーリバーススイッチ3をチェックする。ここでリバース状態でない場合にはステップS102に戻るが、リバース状態の場合にはステップS106からステップS114までの同じ処理を繰り返す。
【0049】
つまり、リバース状態で駐車補助要求がある場合にはディスプレィ上に後方画像と一緒に走行予想軌跡も一緒に表示されるようになるため、ドライバはこれを見てステアリング21を回し、適切な位置に保持しバックすれば良い。駐車区画内に水平に入った段階でステアリングをまっすぐにし、最終端までバックすれば正しく駐車区画30に入ることができる。これらは音声により指示されるため、後方を見て安全確認しながらの操作が可能となる。
【0050】
【効果】
本発明によれば車両の操舵状態を検出する操舵状態検出手段と、カメラからの映像を基に画像認識により駐車区画を識別する駐車区画検出手段と、操舵状態検出手段からの情報により車両の走行予想軌跡を算出する走行予想軌跡算出手段と、走行予想軌跡と駐車区画からの情報により駐車を補助する情報をドライバに提供する報知手段とを備えたことにより、カメラからの映像を基に画像認識で駐車区画を検出し、操舵状態検出手段からの情報により車両の走行予想軌跡求め、走行予想軌跡と駐車区画の情報から、正しく駐車できるか否か判断した上で、駐車を正位置に駐車するよう駐車を適切に補助する情報を提供できる。
【0051】
この場合、駐車区画は駐車区画を構成する白線を認識するようにすれば、画像認識により容易に検出できる。
【0052】
また、駐車を補助する情報は駐車区画と車両との相対位置関係を利用し、駐車区画の中心軸に対する車両中心軸の傾斜角度θm、カメラ位置と駐車区画の中心軸との距離L、駐車区画入口までの距離Dにより表現でき、駐車区画と車両との相対位置関係が正確に求めることができる。
【0053】
更に、報知手段は表示器および特に音声により操舵タイミング、操舵方向、操舵量の少なくとも1つが報知されるようにすれば、ドライバに対して駐車に関する情報を、後方を目視確認しながらでも提供することができる。
【0054】
表示器にはカメラからの後方画像と走行予想軌跡が重ねて表示されるようにすれば、周囲の状況が正確に察知でき、舵角に対応した走行予想軌跡が後方画像のどこを通るかが適切にわかる。
【0055】
走行予想軌跡は駐車区画との位置関係により、走行予想軌跡の表示形態を可変させるようにすれば、走行予想軌跡の表示形態の変化により、所定の駐車区画に対し駐車可能か否かが判断し易くなる。
【図面の簡単な説明】
【図1】 本発明の一実施形態における駐車補助装置のシステム構成図である。
【図2】 本発明の一実施形態における駐車補助装置を車両へ取付けた場合の取付図である。
【図3】 本発明の一実施形態における駐車補助装置のカメラの検出範囲を示した図である。
【図4】 本発明の一実施形態におけるステアリングセンサを示し、(a)はステアリングコラムシャフトへ取り付けた場合のステアリングセンサの平面図、(b)はステアリングセンサのスリット板とフォトインタラプタの概要を示した斜視図、(c)はステアリングセンサのA相とB相の出力を示す図である。
【図5】 本発明の一実施形態におけるコントローラの処理を示すフローチャートである。
【図6】 本発明の一実施形態におけるコントローラのステアリングセンサ信号処理を示すフローチャートである。
【図7】 本発明の一実施形態におけるコントローラのステアリングセンサの中立点処理を示すフローチャートである。
【図8】 図5に示す区画線検出処理のフローチャートである。
【図9】 図5に示す状態判断のフローチャートである。
【図10】 本発明の一実施形態における駐車区画と車両との位置関係を示す説明図である。
【図11】 本発明の一実施形態における走行予想軌跡の算出に用いる説明図である。
【図12】 本発明の一実施形態における走行予想軌跡の表示例を示した図であり、(a)は予想轍による表示、(b)は車幅分の走行エリアベルト表示、(c)ははしご状表示を示す図である。
【図13】 本発明の一実施形態におけるカメラおよびディスプレィのグラフィックス表示座標である。
【図14】 本発明の一実施形態における駐車補助装置のカメラを車両へ取り付けた場合の取り付け状態を示した図である。
【図15】 本発明の一実施形態におけるHough変換による直線検出法を示す説明図である。
【図16】 本発明の一実施形態における駐車補助装置の座標変換方法を説明する説明図である。
【図17】 本発明の一実施形態における駐車補助装置の駐車区画の検出と車両位置の関係を示す説明図である。
【図18】 本発明の一実施形態における駐車補助装置のディスプレィ上での表示画面である。
【図19】 本発明の一実施形態における駐車補助装置の音声出力における案内メッセージおよびディスプレィ上での走行予想軌跡の表示色を示す図である。
【図20】 本発明の一実施形態における駐車補助装置の駐車区画への入り方を示した図である。
【符号の説明】
1 駐車補助装置
2 ステアリングセンサ(操舵状態検出手段)
3 シフトレバーリバーススイッチ
4 駐車スイッチ
5 右車輪速センサ
6 左車輪速センサ
8 スピーカ(報知手段)
11 CPU(走行予想算出手段)
13 ディスプレィ(表示器)
14 舵角状態表示(マーカー表示)
15 駐車区画検出用画像認識装置(駐車区画検出手段)
17 CCDカメラ(カメラ)
20 走行予想軌跡
30 駐車区画
31 白線
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a parking assist device that assists in parallel parking of a vehicle, parking in a garage, etc., and in particular, captures a rear image with a camera, recognizes a parking area, and predicts traveling along with a rear image on a monitor display in the vehicle. The present invention relates to a parking assist device that displays a trajectory (also referred to as a taxiway) or assists an operation during parking by voice output.
[0002]
[Prior art]
Conventionally, a method of assisting parking at the time of parking operation is known for drivers who are not accustomed to parking such as parallel parking or garage parking. For example, in Japanese Patent Application Laid-Open No. 7-17328, a CCD camera and a distance sensor for measuring distance are provided around the vehicle body, the situation around the vehicle is detected, and an image around the vehicle is displayed on a display provided in the vehicle interior. Is displayed in a bird's eye view to provide the driver with the surrounding situation.
[0003]
In JP-A-59-201082, the steering angle is detected by a steering sensor, and the steering angle at the time of parking operation is determined based on the detected position of the own vehicle and predetermined data relating to parking that has been input in advance. By calculating and displaying the steering angle and the instruction angle necessary for steering on a simple display, or in the one disclosed in JP-A-8-2357, a distance measuring sensor for object detection provided at the rear of the vehicle, Measure the distance from obstacles (especially cars parked next to the parking space to be parked), detect the steering start position with the maximum steering angle according to the distance, and turn the steering start position to the driver In Japanese Patent Application Laid-Open No. 6-234341, a taxiway for guiding the vehicle is calculated and obtained using a CCD area sensor or a steering sensor. Based on the taxiway and the current position is known what gives the voice message steering angle instruction to the driver.
[0004]
[Problems to be solved by the present invention]
However, when the vehicle is parked, it is desirable to turn the steering to a predetermined position with respect to the parking area indicated by a white line or the like and back the vehicle in a state of being parallel in the vicinity of the center. In any case, the conventional technology recognizes the area to be parked and gives an appropriate instruction to the driver at the time of parking operation, so that the vehicle cannot be parked correctly. Not what you want.
[0005]
Therefore, the present invention has been made in view of the above problems, and it is a technical problem to assist parking appropriately so as to park in a normal position after identifying the parking section itself.
[0006]
[Means for Solving the Problems]
  Technical measures taken to solve the above problems are:Steering state detection means for detecting the steering state of the vehicle, parking section detection means for recognizing a parking section that is partitioned by a white line based on the video from the camera and parked by the vehicle, and the steering state detection means A predicted travel trajectory calculating means for calculating a predicted travel trajectory of the vehicle based on the steering information, an angle θm between a central axis of the parking section and a vehicle central axis of the vehicle, and a direction perpendicular to the central axis of the parking section. The parking section based on the distance L between the camera position where the camera is provided and the central axis of the parking section, the distance D between the end of the white line on the vehicle side and the camera position in the direction of the central axis of the parking section, and Based on the relative positional relationship with the vehicle, a reference radius R0 that the vehicle enters into the parking area is obtained, and the reference radius R0 and the predicted travel locus are calculated. It compares with a radius R, and a notifying means for providing a corrective steering information to assist the parking according to the comparison result to the driverThat is.
[0007]
  Based on the video from the camera by the above technical meansRecognize the parking area where the vehicle is parked with white linesAnd providing information for assisting parking after determining whether or not the vehicle can be parked correctly based on the information on the predicted traveling track and the parking area based on the information from the steering state detecting means. Is possible.
[0008]
In this case, the parking section can be easily detected by image recognition if the white line constituting the parking section is recognized.
[0009]
  In addition, the relative positional relationship between the parking section and the vehicle is such that the inclination angle θm of the vehicle central axis with respect to the central axis of the parking section, the camera position and the parking sectioncenterIt can be expressed from the distance L to the shaft and the distance D to the entrance of the parking section, and the relationship between the relative position of the parking section and the vehicle can be accurately obtained.More specifically, the relative positional relationship between the parking section and the vehicle includes an angle θm between the central axis of the parking section and the vehicle central axis of the vehicle, and the camera position where the camera is provided in the direction perpendicular to the central axis of the parking section. It can be expressed by a distance L from the central axis of the parking section and a distance D from the end of the white line on the vehicle side to the camera position in the direction of the central axis of the parking section.
[0011]
If the display shows the rear image from the camera and the predicted driving trajectory superimposed, the surrounding situation can be accurately detected, and where the predicted driving trajectory corresponding to the steering angle passes in the rear image. I understand properly.
[0012]
  The predicted travel path is based on the relative positional relationship with the parking area,Variable display on the displayBy doing so, it becomes easier to determine whether or not parking is possible for a predetermined parking section due to a change in the display mode (display color or the like) of the predicted travel path.
  If at least one of the steering timing, the steering direction, and the steering amount is notified particularly by voice, the notification means can provide the driver with information about parking while viewing the rear.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0014]
FIG. 1 is a system configuration diagram of the parking assist device 1. In this figure, a controller 16 for controlling the parking assist device 1 includes a steering sensor 2 for detecting a steering angle of a CCD camera (hereinafter referred to as a camera) 17 and a steering wheel (hereinafter referred to as a steering) 21 for photographing the rear of the vehicle. , A shift lever reverse switch 3 for detecting the reverse (reverse) state of the transmission shift lever, a parking switch 4 for operating the parking assist function during parking operation, and a wheel speed sensor 5 for detecting the left and right wheel speeds of the driven wheels 6 is inputted, and based on these signals, the controller 16 can superimpose and display a rear image of the vehicle on the display 13 and a predicted traveling track 20 described later. Further, in this apparatus 1, a voice synthesis circuit 7 is configured so that a voice synthesis output is produced from a speaker 8 to a driver so that voice can be assisted.
[0015]
Inside the controller 16 is a CPU 11 that controls the graphics, a graphics drawing circuit 12 that draws graphics on the display 13, a superimpose circuit 9 that superimposes the graphics signal and the rear image from the camera 17, and a synchronization signal from the camera image. A synchronization separation circuit 10 that extracts and supplies to the graphics drawing circuit 12, a parking section detection image recognition device 15 that receives an image signal from the camera 17 and recognizes an image of the parking section 30 (particularly, the white line 31), and the like. Has been.
[0016]
A steering angle state display (display marker) 14 whose lighting state changes depending on the steering angle state of the steering wheel 21 is provided on the display 13 symmetrically, and the display marker 14 is steered when the steering angle is large. At the neutral point, only the center marker 14 is lit, and how much the steering 21 is steered can be seen along with the rear image. That is, the display marker 14 displays a steering timing, a steering direction, and a steering amount at the time of parking operation, and can notify the driver.
[0017]
FIG. 2 shows an attachment diagram when the parking assist device 1 is attached to the vehicle. A camera 17 that captures the rear is attached near the upper center of the license plate at the rear of the vehicle, and is installed with the optical axis facing downward. Specifically, as shown in FIG. 3 and FIG. 14, it is attached to the center at the rear of the vehicle facing downward (about 30 degrees), and the camera itself secures a field of view of 140 degrees to the left and right with a wide-angle lens, and 8 m behind It is possible to shoot the area up to about.
[0018]
In addition, a display 13 is provided on the panel surface of the center console in the vehicle interior, and a controller 16 is mounted inside the glove box. Furthermore, the parking switch 4 that issues a request to assist parking is provided in the vicinity of the center console that is easy for the driver to operate.
[0019]
Here, the steering sensor 2 will be described with reference to FIG. The steering sensor 2 detects a steering angle (steering steering angle) when the steering 21 is steered. The slit plate 2a is attached so as to rotate integrally with the steering column shaft 23, and two sets of photo interrupters 2c and 2b having a phase difference of 90 ° are attached. In this configuration, two signal pulses (A phase and B phase) are turned on and off by turning on / off the phototransistor by passing or blocking light by rotation of a plurality of slits provided circumferentially on the disk plate 2a. (See (c) of FIG. 4). This is because the phase of the B phase is delayed by 90 ° or advanced with respect to the A phase depending on the rotation direction of the steering wheel 21. Here, the steering angle is 1 ° / pulse. Used.
[0020]
Next, processing of the controller 16 will be described with reference to FIG. The controller 16 starts the program shown in FIG. 5 when the power is turned on (the accessory switch is turned on).
[0021]
In step S101, various initial values are set in the memory necessary for this processing. Thereafter, in step S102, the state of the shift reverse switch 3 is chucked. If not reverse, the display on the display 13 is stopped in step S115, and the process returns to step S102. On the other hand, when the shift reverse switch 3 is turned on (reverse lever state), step S103 is performed. In step S103, the display 13 is switched to the camera image mode so that the image behind the vehicle can be displayed as a raw image. That is, since the rear state can be accurately displayed by the raw image, it is possible to confirm a person or an object crossing the rear.
[0022]
Next, the parking switch 4 which assists parking at the time of parking operation is checked in step S104. If the parking switch 4 is off (no parking assistance is requested), the graphic screen of the display 13 is cleared in step S112, and only the rear raw image is displayed on the display 13 (described later in FIG. 1). The predicted traveling locus 20 is not displayed), and the process returns to step S102.
[0023]
On the other hand, if the parking switch 4 is on (in the state where there is a parking assistance request) in step S104, the process proceeds to step S105. In step S105, a predetermined voice signal is output to the voice synthesis circuit 7, and the voice is output from the speaker 8. Output. In other words, depending on the situation that the parking operation has started, “Parking assistance. Adjust the locus to the desired position, please back while paying attention to the surroundings.”, “The parking guide will start from now. Rotate the handle so that the tip of the green (predicted trajectory) display on the screen faces the parking area. Pre-determined voice messages such as "Please be careful about the right (left)." Then, guidance is given to the driver by voice synthesis. By hearing this voice message, the driver can know that assistance during parking operation has started.
[0024]
Next, in step S106, the steering sensor value N is read from the steering sensor 2, and the turning radius R at the time of parking operation is calculated based on the value. Specifically, the reading of the steering sensor 2 is interrupted to the main program when the rising edge of the A phase signal is detected, and the interruption process shown in FIG. 6 is executed. That is, the state of the B phase signal is checked in step S201 in FIG. 6, and if the B phase signal is high (H: high potential), the steering count value N is incremented in step S202, and decremented if low (L: low potential). The value is stored in the memory. In this case, the steering count value N is θ = N because one pulse is 1 °. However, since the absolute rudder angle of the steering wheel 21 becomes uncertain only by counting the steering value N shown above, the neutral point of the steering rudder angle is detected by the method shown in FIG. 7, and the neutral point is determined by setting N = 0. .
[0025]
The neutral point determination will be described with reference to FIG. This process is executed by a timer interrupt with a period of 1 second. Here, the vehicle body speed is also calculated based on signals from known left and right wheel speed sensors 5 and 6 that are usually provided on the wheels. In steps S301 and S302, signals (pulses) from the left and right wheel speed sensors 5 and 6 are counted by a hardware counter built in the CPU 11 inside the controller, and the left and right wheel speeds are read by this timer interruption routine. The speed sensor value is stored in NR and NL of the memory in which the speed sensor value is stored. After reading, the counter itself is cleared, and NR and NL indicate the number of pulses per second.
[0026]
In the next step S303, the average value (NR + NL) / 2 is calculated from NR and NL, and this value is multiplied by the tire circumference, and the vehicle speed V can be easily obtained by a known method. Next, the standard setting of the steering sensor 2 is performed. In steps S304 to S306, the vehicle has almost no pulse difference between the left and right wheel speed sensors 5 and 6 when the vehicle speed V is equal to or higher than a predetermined speed (10 Km / h). A neutral point of the steering angle is obtained by assuming that the vehicle is traveling straight and resetting the steering counter N to zero in step S306.
[0027]
When the steering process ends, the process returns to the main routine of FIG. 5, and parameter calculation of the predicted travel path 20 is performed in step S107. In the travel locus parameter calculation, the turning radius R is obtained from the steering angle θ and the wheel base L from the geometrical relationship shown in FIG.
[0028]
Thereafter, the image of the camera 17 is taken into the image recognition device 15 in step S108, and a lane marking detection process is performed in step S109.
[0029]
This lane marking detection process is performed by the method shown in FIG. That is, the image input from the camera 17 is, for example, a black and white image (640 × 480 dot size), and each point has a gray scale of 0 to 255. From this image, first, in step S401, the edge of the white line 31 that is a feature point of the parking section 30 is detected by a known technique. Specifically, a method is used in which the edge of the white line 31 is detected by a known Sobel filter, the peak of the portion exceeding the appropriate threshold is detected, and the edge points constituting the boundary are extracted. In this case, the recognition of the white line can easily detect the feature points of the parking area by image recognition. Next, in step S402, these edge points are converted into road surface coordinates shown in FIG. In this coordinate system, straight line detection is performed in step S403. As a method for obtaining this straight line, detection can be performed by using a known Hough transform.
[0030]
This straight line detection by the Hough transform is used when a straight line is detected from a set of edge points that are converted back to the (X, Z) plane after detecting the edge of the white line 31 of the parking section 30 imaged by the camera 17. To do. In other words, this is a known technique, and in brief, the conversion is as follows when each edge point is (x, y).
[0031]
X = x · Hc / (fsinθ−ycosθ) (1)
Z = Hc · (y cos θ + f cos θ) / (fsin θ−y cos θ) (2)
u = X (3)
v = −Z (4)
p = u cos θ + v sin θ (5)
by. That is, in order to perform this conversion, first, the conversion of the equations (1) and (2) is performed in order to describe each edge point in (X, Z) coordinates.
[0032]
Next, (ρ, θ) is used as the Hough space, and ρ is calculated using equations (3) to (5) for each edge (X, Z). At this time, a curve is drawn between θ = −π / 2 to π / 2 in the (ρ, θ) space. This actually corresponds to an operation of dividing the ρ, θ space into a lattice shape, associating it with a two-dimensional matrix, and changing each θ by changing θ.
[0033]
In this way, when drawing to the matrix for all candidate edge points, the intersection of the curves concentrates on the candidate line segments, and as a result, the matrix value has a large value, An appropriate matrix position (ρ, θ) is selected based on a certain threshold value, and one straight line can be extracted correspondingly.
[0034]
  Therefore, after detecting the straight line, returning to FIG. 8, a line segment as a candidate constituting the parking section 30 is extracted from the straight line detected by the Hough conversion in step S <b> 404. Specifically, as shown in FIG. 17, when Lm is the vehicle body length, Wm is the vehicle width, lm is the distance between the rear wheel axle and the camera, and Rmin is the minimum turning radius of the vehicle, it is shown in FIG. As described above, the distance D from the center of the rear end of the vehicle (camera position) to the entrance of the parking section 30, the lateral displacement distance (center deviation) L of the center of the rear end of the vehicle (camera position) from the center of the parking lot, and the distance between the vehicle and the parking section The angle (vehicle body angle) θm can be obtained from the geometric relationship.More specifically, θm: an angle formed by a parking section center line (parking section center axis) and the vehicle center axis of the vehicle, L: a camera position and a parking section provided with a camera in a direction perpendicular to the center axis of the parking section D: The distance from the end of the white line on the vehicle side (the left parking white line in FIG. 17) to the camera position in the direction of the central axis of the parking section.
[0035]
Here, the C, D, E, and F line segments in FIG. 17 are extracted within the allowable range by comparing the angle and arrangement order, and the parking section width W1 and the white line width W2.
[0036]
Next, in step S405, it is checked whether or not a side line candidate (white line) has been found. If there is no side line candidate, this process ends. If there is a side line candidate, in step S406, the process is orthogonal to the side line. The orthogonal component is detected. That is, this corresponds to the search for the virtual line segments A and B in FIG.
[0037]
Next, if there is no orthogonal line segment candidate in step S407, this process is terminated. If there is an orthogonal component candidate, L, θm, and D are calculated and obtained in step S408. Note that a specific calculation method for obtaining L, θm, and D can be calculated from the geometrical relationship from FIG.
[0038]
Next, vehicle state determination will be described with reference to FIG.
[0039]
In step S501, it is checked whether or not a parking area has been detected. If no area has been detected, it is determined in step S512 that it is unknown, and an unknown flag is set. On the other hand, if the section is detected, the process proceeds to step S502, and a reference turning radius R0 is obtained from the center deviation L and the vehicle body angle θm. This is expressed by the (condition 1) equation shown in FIG. 17, and the radius of a circle that is in contact with the central axis of the parking section 30 and the vehicle central axis is obtained. In this case, when the turning center is on the right side in the traveling direction of the vehicle, the radius R0 is positive.
[0040]
Next, in step S503, the turning radius R0 is compared with Rmin, which is the minimum turning radius of the vehicle. If the turning radius R0 is smaller than this, the vehicle cannot enter the parking section 30. set. If the turning radius R0 is equal to or greater than Rmin and parking is possible, the process proceeds to step S504, and d shown in FIG. This determines whether the vehicle can be parallel at an appropriate position in the parking section 30 from the trajectory of the radius R0 for turning, and parking is possible under the condition of d <Lm-lm in step S505. Determine whether. If the condition shown in step S505 is not satisfied, the vehicle will not be parallel even if it enters the parking section 30.
[0041]
Next, it progresses to step S506 and the condition 3 is checked. That is, Rx is obtained by the relational expression shown in condition 3 in FIG. This is to check whether the inside of the turn does not interfere with the parking section corner when the vehicle enters the parking section 30, and if the condition of Rx <| R0 | −Wm / 2 is satisfied in step S507, It can be considered that the inside of the turning of the vehicle is less likely to come into contact with the adjacent vehicle or the like. However, this is only a calculation standard, and in actuality, it may be considered that an adjacent vehicle protrudes, and visual confirmation is required. Therefore, if the above conditional expressions (condition 1 to condition 3) are satisfied, the process proceeds to step S508.
[0042]
In step S508, if the turning radius R based on the current steering rudder angle is substantially equal to the reference radius R0, the vehicle can be parked at the steering rudder angle as it is in step S509, and a parking feasible flag is set. On the other hand, if the turning radius R and the reference radius R0 do not substantially match, in step S510, it is considered that steering correction is necessary, and the steering correction flag is set. However, as shown in FIG. 20, there is a degree of freedom when R0> Rmin, and steering correction is not necessary depending on the situation.
[0043]
Based on this result, audio output 2 is performed in step S111 of FIG. Here, the audio output 2 is to notify the driver by issuing a predetermined sentence based on the flag set by the state determination in step S110. Specifically, as shown in FIG. 19, if it is “Unknown” by the state judgment, “Parking area is not detected”, and if it is not possible, “Go forward and try again. If the vehicle can be parked at the rudder angle as it is, a voice message such as “Please pay attention to the surroundings and back as it is” is output from the voice synthesis circuit 7 to the speaker 8. In this case, the color designation in the case where the predicted traveling locus 20 is displayed on the display 13 is also set to the display color shown in FIG.
[0044]
Next, graphics redrawing processing is performed in step S112. The processing here is to display the predicted traveling locus 20 in the rear image so as to be superimposed on the display, and in order to perform this display, the road surface coordinates must be converted into camera coordinates. I do.
[0045]
Therefore, as shown in FIG. 16, this coordinate conversion is performed as follows: (X, Y, Z): road surface coordinates, (x, y): camera coordinates (CCD element surface), f: lens focal length, (x ′, y ′) , Z ′): lens coordinates (z ′ coincides with the optical axis), θc: camera mounting angle, and Hc: mounting height from the road surface, the following relational expression is established. That means
x = f · x ′ / z ′ (1 ′)
y = f · y ′ / z ′ (2 ′)
x '= X (3')
y ′ = Zsin θc + (Y−Hc) cos θc (4 ′)
z '= Zcos [theta] c- (Y-Hc) sin [theta] c (5')
Therefore, if it is limited only to the coordinates on the road surface, Y = 0, and if x and y are obtained,
x = f.X / (Zcos .theta.c + Hcsin .theta.c) (6 ')
y = f · (Zsinθc−Hcosθc) / (Zcosθc + Hcsinθc) (7 ′)
It becomes. Therefore, when the point (X, Z) on the road surface coordinates is captured by the camera, the coordinates (x, y) on the graphics screen (camera coordinates) are obtained from the equations (6 ′) and (7 ′), and the rear Can be superimposed on the image.
[0046]
In this case, the predicted x and y travel trajectory 20 obtained by the above method is displayed on the display, and various display methods can be considered as shown in FIG. That is, in FIG. 12 (a), a method of displaying by the predicted kite through which the left and right wheels of the vehicle pass, (b), a method of vector display of the travel area where the vehicle travels when parked, (3) is a fixed distance interval (ladder) There is a method of displaying it in a ladder-like manner so that the distance (50 cm) can be understood, and here, using (c), a method that makes it easy to understand the sense of distance and the angle of the vehicle body at each position during parking operation is adopted. . In this case, the length l of the predicted vehicle trajectory 20 is set to a fixed length (for example, 3 m), or a certain angle, and the color is changed between a turning state (green) and a straight traveling state (blue). In addition, it is also possible to take a method that makes it easy to distinguish only the predicted trajectory tip.
[0047]
FIG. 18 is an example of a display screen showing the predicted travel locus 20 on the display 13 and the state of the steering rudder angle, and shows a state in which the predicted travel trajectory 20 changes in response to the steering rudder angle. This is because the raw image behind the vehicle is monitored, and only when the parking switch 4 is turned on (in the state where the parking assistance is requested), the scheduled travel path 20 which is ladder-like according to the steering angle is overlapped. It is made to display. In this case, by displaying the predicted traveling track 20 in the rear image, a display marker 14 for displaying the steering angle state is displayed together with a part of the display 13 so that it can be understood how much the steering 21 is steered. You can see how much you actually steer.
[0048]
In the next step S113, it is determined whether the parking switch 4 is turned on (the parking assistance is requested). Here, when the parking switch 4 is not turned on (there is no parking assistance request), the process returns to step S102, and the processes from step S102 are repeated. On the other hand, if there is a parking assistance request, the shift lever reverse switch 3 is checked to see if it is in the reverse state in step S114. If the reverse state is not set, the process returns to step S102. If the reverse state is set, the same processing from step S106 to step S114 is repeated.
[0049]
In other words, when there is a parking assistance request in the reverse state, the predicted driving trajectory is displayed along with the rear image on the display, so the driver turns the steering wheel 21 to see this and turns it to an appropriate position. Just hold and back. If the steering is straightened when entering the parking space horizontally, and the vehicle is moved back to the end, the parking space 30 can be correctly entered. Since these are instructed by voice, it is possible to operate while confirming safety by looking at the rear.
[0050]
【effect】
According to the present invention, the steering state detecting means for detecting the steering state of the vehicle, the parking section detecting means for identifying the parking section by image recognition based on the video from the camera, and the vehicle traveling by the information from the steering state detecting means. Image recognition based on video from the camera by providing a predicted travel trajectory calculating means for calculating an expected trajectory and an informing means for providing information to assist the parking with the predicted travel trajectory and information from the parking area. Detecting the parking area with the information from the steering state detecting means, obtaining the predicted travel path of the vehicle, determining whether the vehicle can be parked correctly based on the predicted travel path and the information on the parking area, and then parking the vehicle in the correct position. Information that assists parking properly can be provided.
[0051]
In this case, the parking section can be easily detected by image recognition if the white line constituting the parking section is recognized.
[0052]
  In addition, the information for assisting parking uses the relative positional relationship between the parking section and the vehicle, the inclination angle θm of the vehicle central axis with respect to the central axis of the parking section, the camera position and the parking sectioncenterIt can be expressed by the distance L from the shaft and the distance D to the entrance of the parking section, and the relative positional relationship between the parking section and the vehicle can be accurately obtained.
[0053]
In addition, if the notification means notifies at least one of the steering timing, the steering direction, and the steering amount by an indicator and particularly sound, it provides the driver with information on parking while visually confirming the rear. Can do.
[0054]
If the display shows the rear image from the camera and the predicted driving trajectory superimposed, the surrounding situation can be accurately detected, and where the predicted driving trajectory corresponding to the steering angle passes in the rear image. I understand properly.
[0055]
If the display form of the predicted travel path is variable depending on the positional relationship with the parking area, it is determined whether or not parking is possible for a predetermined parking area based on the change in the display form of the predicted travel path. It becomes easy.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram of a parking assistance device according to an embodiment of the present invention.
FIG. 2 is an attachment diagram when the parking assist device in one embodiment of the present invention is attached to a vehicle.
FIG. 3 is a diagram illustrating a detection range of a camera of the parking assist device according to the embodiment of the present invention.
4A and 4B show a steering sensor according to an embodiment of the present invention, in which FIG. 4A is a plan view of the steering sensor when attached to a steering column shaft, and FIG. (C) is a figure which shows the output of the A phase and B phase of a steering sensor.
FIG. 5 is a flowchart showing processing of a controller in an embodiment of the present invention.
FIG. 6 is a flowchart showing steering sensor signal processing of a controller in one embodiment of the present invention.
FIG. 7 is a flowchart showing neutral point processing of a steering sensor of a controller according to an embodiment of the present invention.
8 is a flowchart of lane marking detection processing shown in FIG.
FIG. 9 is a flowchart of state determination shown in FIG. 5;
FIG. 10 is an explanatory diagram showing a positional relationship between a parking section and a vehicle in an embodiment of the present invention.
FIG. 11 is an explanatory diagram used for calculation of a predicted traveling locus in an embodiment of the present invention.
FIGS. 12A and 12B are diagrams showing display examples of predicted travel trajectories according to an embodiment of the present invention, where FIG. 12A is a display with a predicted bag, FIG. 12B is a travel area belt display for the vehicle width, and FIG. It is a figure which shows ladder-like display.
FIG. 13 shows graphics display coordinates of a camera and a display according to an embodiment of the present invention.
FIG. 14 is a view showing an attachment state when the camera of the parking assistance device in one embodiment of the present invention is attached to a vehicle.
FIG. 15 is an explanatory diagram showing a straight line detection method using Hough transform in an embodiment of the present invention.
FIG. 16 is an explanatory diagram for explaining a coordinate conversion method of the parking assist device according to the embodiment of the present invention.
FIG. 17 is an explanatory diagram showing a relationship between detection of a parking section and a vehicle position in the parking assist device according to the embodiment of the present invention.
FIG. 18 is a display screen on the display of the parking assist device according to the embodiment of the present invention.
FIG. 19 is a diagram illustrating a display color of a guidance message and a predicted traveling locus on a display in audio output of the parking assist device according to the embodiment of the present invention.
FIG. 20 is a view showing how to enter the parking section of the parking assistance device according to the embodiment of the present invention.
[Explanation of symbols]
1 Parking assistance device
2 Steering sensor (steering state detection means)
3 Shift lever reverse switch
4 Parking switch
5 Right wheel speed sensor
6 Left wheel speed sensor
8 Speaker (notification means)
11 CPU (running prediction calculation means)
13 Display (display)
14 Rudder angle status display (marker display)
15 Parking area detection image recognition device (parking area detection means)
17 CCD camera (camera)
20 Expected trajectory
30 parking lot
31 White line

Claims (3)

車両の後方をカメラにより撮影し、該カメラからの映像を車内に設けられた表示器に後方画像表示し、ドライバの駐車時の操作を補助する駐車補助装置において、
車両の操舵状態を検出する操舵状態検出手段と、前記カメラからの映像を基に白線で区画され前記車両が駐車する駐車区画を画像認識により認識する駐車区画検出手段と、前記操舵状態検出手段からの操舵情報により前記車両の走行予想軌跡を算出する走行予想軌跡算出手段と、前記駐車区画の中心軸と前記車両の車両中心軸とのなす角度θm、前記駐車区画の中心軸の垂直方向において前記カメラの設けられるカメラ位置と前記駐車区画の中心軸との距離L、前記駐車区間の中心軸の方向において前記白線の車両側の端部と前記カメラ位置までの距離Dに基づく前記駐車区画と前記車両との相対位置関係により、前記車両が前記駐車区画に入れる基準半径R0を求め、該基準半径R0と前記走行予想軌跡を算出する前記操舵状態に応じた旋回半径Rとの比較を行い、比較結果に応じて駐車を補助する修正操舵情報をドライバに提供する報知手段とを備えたことを特徴とする駐車補助装置。
The rear of the vehicle taken by the camera, in the parking assist apparatus displays the rearward image an image on a display unit provided in the vehicle to aid in operation at the time the driver of the parking from the camera,
Steering state detection means for detecting the steering state of the vehicle, parking section detection means for recognizing a parking section that is partitioned by a white line based on the video from the camera and parked by the vehicle, and the steering state detection means of the predicted traveling locus calculating means by the steering information to calculate a predicted traveling locus of the vehicle, the angle θm of the parking center axis of the compartment and the vehicle center axis of the vehicle, the in the vertical direction of the central axis of the parking section The parking section based on the distance L between the camera position where the camera is provided and the central axis of the parking section, the distance D between the end of the white line on the vehicle side and the camera position in the direction of the central axis of the parking section, and Based on the relative positional relationship with the vehicle, a reference radius R0 that the vehicle enters into the parking area is obtained, and the reference radius R0 and the predicted travel locus are calculated. Compares with a radius R, a parking assist apparatus characterized by comprising a notification means for providing a corrective steering information to assist parking in accordance with the comparison result to the driver.
前記報知手段は、前記表示器に前記走行予想軌跡の表示形態を可変表示する請求項1に記載の駐車補助装置。The parking assistance device according to claim 1, wherein the notification unit variably displays a display form of the predicted travel path on the display . 前記報知手段は音声により操舵タイミング、操舵方向、操舵量の少なくとも1つが報知される請求項1に記載の駐車補助装置。The notification means, steering timing, a steering direction by the voice, the parking assist device according to claim 1 wherein at least one steering amount to be broadcast.
JP14815798A 1998-05-28 1998-05-28 Parking assistance device Expired - Fee Related JP3726175B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14815798A JP3726175B2 (en) 1998-05-28 1998-05-28 Parking assistance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14815798A JP3726175B2 (en) 1998-05-28 1998-05-28 Parking assistance device

Publications (2)

Publication Number Publication Date
JPH11339194A JPH11339194A (en) 1999-12-10
JP3726175B2 true JP3726175B2 (en) 2005-12-14

Family

ID=15446541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14815798A Expired - Fee Related JP3726175B2 (en) 1998-05-28 1998-05-28 Parking assistance device

Country Status (1)

Country Link
JP (1) JP3726175B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3624768B2 (en) * 1999-12-24 2005-03-02 株式会社豊田自動織機 Parallel parking assistance device
JP2001199297A (en) * 2000-01-14 2001-07-24 Mitsubishi Motors Corp Parking aiding device
US6476730B2 (en) 2000-02-29 2002-11-05 Aisin Seiki Kabushiki Kaisha Assistant apparatus and method for a vehicle in reverse motion
JP4491978B2 (en) * 2000-02-29 2010-06-30 アイシン精機株式会社 Vehicle reverse assist device and reverse assist method
JP4493885B2 (en) * 2000-06-30 2010-06-30 パナソニック株式会社 Driving support system
JP3700614B2 (en) * 2001-06-22 2005-09-28 株式会社豊田自動織機 Parking assistance device
JP4161573B2 (en) * 2001-06-29 2008-10-08 株式会社豊田自動織機 Parking assistance device
JP2003267171A (en) * 2002-03-13 2003-09-25 Nissan Motor Co Ltd Device for monitoring rear part of vehicle
DE10324812A1 (en) * 2003-06-02 2004-12-23 Robert Bosch Gmbh Display arrangement for a motor vehicle and method for outputting driver information, in particular for a parking aid
JP2007030700A (en) * 2005-07-27 2007-02-08 Aisin Seiki Co Ltd Parking support device
JP2009071659A (en) * 2007-09-14 2009-04-02 Alpine Electronics Inc Parking assistance system
JP4970516B2 (en) 2009-09-30 2012-07-11 日立オートモティブシステムズ株式会社 Surrounding confirmation support device
KR102213148B1 (en) * 2015-12-01 2021-02-05 현대자동차주식회사 Method and Apparatus for Supporting Parking Alignment Based on Recognition of Parking Line
JP6548593B2 (en) * 2016-02-27 2019-07-24 アルパイン株式会社 Parking assistance apparatus and parking assistance method
JP2018041270A (en) * 2016-09-07 2018-03-15 株式会社デンソー Travel information display system
CN112550286A (en) * 2020-12-10 2021-03-26 宜宾凯翼汽车有限公司 Vehicle parking prompting method and system

Also Published As

Publication number Publication date
JPH11339194A (en) 1999-12-10

Similar Documents

Publication Publication Date Title
JP3951465B2 (en) Parking assistance device
JP3575279B2 (en) Parking assistance device
JP3726175B2 (en) Parking assistance device
JP4096445B2 (en) Parking assistance device
EP1785336B1 (en) Steering assist apparatus
US7755511B2 (en) Parking assistance apparatus
JP5012914B2 (en) Vehicle reverse assist device and reverse assist method
JP5182545B2 (en) Parking assistance device
JP3592043B2 (en) Intersection warning device
US7375651B2 (en) Parking assistance apparatus
JP3562335B2 (en) Parking assistance device
WO2006016433A1 (en) Drive assisting device and drive assisting method
JP4563531B2 (en) Vehicle driving support device
KR100766596B1 (en) Vehicle steering control method for lane keeping
JP5012669B2 (en) Parking assistance device, parking assistance method, and computer program
JP2005276057A (en) Nose view monitoring device
JP4491978B2 (en) Vehicle reverse assist device and reverse assist method
JP2002205615A (en) Visual field auxiliary device for vehicle
JP5041983B2 (en) Obstacle warning device, obstacle warning method, and computer program
JP3395725B2 (en) Steering support device for parallel parking
JP5012670B2 (en) Parking assistance device, parking assistance method, and computer program
JP2001322519A (en) Vehicle backing aiding device during parking
JP3767610B2 (en) Parking assistance device
JP4323402B2 (en) Rudder angle correction device
JP3767600B2 (en) Parking assistance device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20030424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050912

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081007

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091007

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091007

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101007

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111007

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121007

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121007

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131007

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees