JP3726175B2 - Parking assistance device - Google Patents
Parking assistance device Download PDFInfo
- Publication number
- JP3726175B2 JP3726175B2 JP14815798A JP14815798A JP3726175B2 JP 3726175 B2 JP3726175 B2 JP 3726175B2 JP 14815798 A JP14815798 A JP 14815798A JP 14815798 A JP14815798 A JP 14815798A JP 3726175 B2 JP3726175 B2 JP 3726175B2
- Authority
- JP
- Japan
- Prior art keywords
- parking
- vehicle
- steering
- camera
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は車両の縦列駐車や車庫入れ等の駐車を補助する駐車補助装置に関するものであり、特に、後方画像をカメラにより撮影し、駐車区画を認識して車内のモニタディスプレィに後方画像と共に走行予想軌跡(誘導路ともいう)を表示させたり、音声出力により駐車時の操作を補助する駐車補助装置に係わる。
【0002】
【従来の技術】
従来、縦列駐車や車庫入れ等の駐車に不慣れなドライバを対象として、駐車操作時に駐車を補助する方法が知られている。例えば、特開平7−17328号公報では車体の周囲にCCDカメラや距離測定を行う距離センサを設け、車両の周辺の様子を探知し、車両の室内に設けられたディスプレィ上に車両周辺の周辺画像を鳥瞰図的に表示してドライバに周囲の状況を提供している。
【0003】
また、特開昭59−201082号公報においては、ステアリング舵角をステアリングセンサにより検出し、検出した自車の位置と予め入力された駐車に関する所定のデータに基づき、駐車操作時のステアリング操舵角を計算して簡易なディスプレィに操舵角と操舵に必要な指示角を表示するものや、特開平8−2357号公報に示されるものでは車両の後方に設けられた物体検知用の測距センサにより、障害物(特に、駐車しようとする駐車スペースの隣りに駐車している車等)との距離をはかり、その距離に応じて最大舵角による転舵開始位置を検出し、転舵開始位置をドライバに報知する方法、および、特開平6−234341号公報においてはCCDエリアセンサやステアリングセンサを用いて自車を誘導する誘導路を算出し、求められた誘導路と現在位置に基づき、ドライバに舵角指示を音声メッセージにより与えるものが知られている。
【0004】
【本発明が解決しようとする課題】
しかしながら、車両を駐車させる場合には白線等で示される駐車区画に対して、所定位置までステアリングを転舵させ、中央付近で平行になるようにした状態で車両をバックさせることが望ましいが、上記した従来技術ではいずれの場合においても、駐車すべき区画自体を認識した上で駐車操作時に適切な指示をドライバに与えて、車両を正しく駐車させるものとはいえず、適切な状態で駐車を補助するものではない。
【0005】
そこで、本発明は上記の問題点に鑑みてなされたものであり、駐車区画自体を識別した上で、正位置に駐車するよう適切に駐車を補助することを技術的課題とする。
【0006】
【課題を解決するための手段】
上記の課題を解決するために講じた技術的手段は、車両の操舵状態を検出する操舵状態検出手段と、前記カメラからの映像を基に白線で区画され前記車両が駐車する駐車区画を画像認識により認識する駐車区画検出手段と、前記操舵状態検出手段からの操舵情報により前記車両の走行予想軌跡を算出する走行予想軌跡算出手段と、前記駐車区画の中心軸と前記車両の車両中心軸とのなす角度θm、前記駐車区画の中心軸の垂直方向において前記カメラの設けられるカメラ位置と前記駐車区画の中心軸との距離L、前記駐車区間の中心軸の方向において前記白線の車両側の端部と前記カメラ位置までの距離Dに基づく前記駐車区画と前記車両との相対位置関係により、前記車両が前記駐車区画に入れる基準半径R0を求め、該基準半径R0と前記走行予想軌跡を算出する前記操舵状態に応じた旋回半径Rとの比較を行い、比較結果に応じて駐車を補助する修正操舵情報をドライバに提供する報知手段とを備えたことである。
【0007】
上記の技術的手段により、カメラからの映像を基に白線で区画され車両が駐車する駐車区画を画像認識により検出し、操舵状態検出手段からの情報により車両の走行予想軌跡求め、走行予想軌跡と駐車区画の情報から、正しく駐車できるか否かを判断した上で、駐車を補助する情報を提供することが可能になる。
【0008】
この場合、駐車区画は、駐車区画を構成する白線を認識するようにすれば、画像認識により容易に検出される。
【0009】
また、駐車区画と車両との相対位置関係は、駐車区画の中心軸に対する車両中心軸の傾斜角度θm、カメラ位置と駐車区画の中心軸との距離L、駐車区画入口までの距離Dより表現でき、駐車区画と車両との相対位置の関係が正確に求まる。より具体的には、駐車区画と車両との相対位置関係は、駐車区画の中心軸と車両の車両中心軸とのなす角度θm、駐車区画の中心軸の垂直方向においてカメラの設けられるカメラ位置と駐車区画の中心軸との距離L、駐車区間の中心軸の方向において白線の車両側の端部とカメラ位置までの距離Dより表現できる。
【0011】
表示器にはカメラからの後方画像と走行予想軌跡が重ねて表示されるようにすれば、周囲の状況が正確に察知でき、舵角に対応した走行予想軌跡が後方画像のどこを通るかが適切にわかる。
【0012】
走行予想軌跡は駐車区画との相対位置関係により、走行予想軌跡の表示形態を表示器上で可変表示させるようにすれば、走行予想軌跡の表示形態(表示色等)の変化により、所定の駐車区画に対し駐車可能か否かが判断し易くなる。
報知手段は、特に音声により操舵タイミング、操舵方向、操舵量の少なくとも1つが報知されるようにすれば、ドライバに対して駐車に関する情報を、後方を目視しながらでも提供することが可能になる。
【0013】
【発明の実施の形態】
以下、本発明の実施形態を図面を参照して説明する。
【0014】
図1は、駐車補助装置1のシステム構成図である。この図において駐車補助装置1を制御するコントローラ16には車両の後方を撮影するCCDカメラ(以下、カメラと称す)17、ステアリングホイール(以下、ステアリングと称す)21の操舵角を検出するステアリングセンサ2、トランスミッションのシフトレバーのリバース(後退)状態を検出するシフトレバーリバーススイッチ3、駐車操作時に駐車アシスト機能を動作させる駐車スイッチ4、および、従動輪の左右の車輪速度を検出する車輪速センサ5,6からの信号が入力され、これらの信号を基にコントローラ16はディスプレィ13上に車両の後方画像と後述する走行予想軌跡20を重ねて表示できるようになっている。また、この装置1では音声合成回路7により音声合成出力がスピーカ8からドライバに対して、音声が発せられ駐車操作時の補助を行えるようになっている。
【0015】
コントローラ16の内部には制御を司るCPU11、ディスプレィ13にグラフィックスを描画するグラフィックス描画回路12、グラフィックス信号とカメラ17からの後方画像を重ね合わせるスーパーインポーズ回路9、カメラ画像から同期信号を抽出してグラフィックス描画回路12へ供給する同期分離回路10、カメラ17からの画像信号を受けて駐車区画30(特に、白線31)の画像認識を行う駐車区画検出用画像認識装置15等が具備されている。
【0016】
ディスプレィ13上にはステアリング21の舵角状態により点灯状態が変化する舵角状態表示(表示マーカー)14が左右対称に設けられ、ステアリング舵角が大きいときに表示マーカー14は転舵している方向に多く点灯したり、中立点では中央のマーカー14のみが点灯するようになっており、ステアリング21がどれだけ転舵されているかが後方画像と共ににわかるようになっている。つまり、表示マーカー14は駐車操作時の操舵タイミング、操舵方向、操舵量が表示され、ドライバに対して知らせることができる。
【0017】
図2は、駐車補助装置1を車両に取り付けた場合の取付図を示す。後方を撮像するカメラ17は車両後方のナンバープレートの上中央付近に取り付けられ、光軸を下方に向けて設置される。具体的には、図3および図14に示されるように、車両後方の中央に下方(約30度)に向けて取り付けられ、カメラ自体は広角レンズにより左右140度の視野を確保し、後方8m程度までの領域を撮影できるようになっている。
【0018】
また、車両の室内のセンターコンソールにはパネル面にディスプレィ13が備え付けられ、グローブボックス上方にはコントローラ16が内部に取り付けられている。更に、駐車を補助する要求を出す駐車スイッチ4は、ドライバが操作し易いセンターコンソール近傍に設けられる。
【0019】
ここで、ステアリングセンサ2について図4を参照して説明する。ステアリングセンサ2はステアリング21を転舵した場合の舵角(ステアリング舵角)を検出するものである。これはステアリングコラムシャフト23と一体回転するようにスリット板2aが取付けられており、90°の位相差がついた2組のフォトインタラプタ2c,2bが取付けられている。この構成において、ディスク板2aに円周状に設けられた複数のスリットの回転により、光を通過または遮断してフォトトランジスタをオン/オフさせることにより、A相、B相の2つの信号パルス(図4の(c)参照)を出力している。これは、ステアリング21の回転方向によりA相に対し、B相は90°位相が遅れるか、または、進んで出力されるようになっており、ここでは、ステアリング角度が1°/パルスのものを用いている。
【0020】
次に、図5を参照してコントローラ16の処理について説明する。コントローラ16は電源オン(アクセサリスイッチがオン)により図5に示すプログラムはスタートする。
【0021】
ステップS101ではこの処理に必要なメモリに各種初期値を設定する。その後、ステップS102でシフトリバーススイッチ3の状態をチャックし、リバースでないならば、ディスプレィ13の表示をステップS115でやめ、ステップS102に戻る。一方、シフトリバーススイッチ3がオン(リバースレバーの状態)になるとステップS103を行う。ステップS103ではディスプレィ13をカメラ画像モードに切り換えて、車両後方の画像を生画像で表示できるモードにする。つまり、後方の状態を生画像により正確に表示できるため、後方を横切る人や物等を確認できる。
【0022】
次に、ステップS104において駐車操作時に駐車を補助する駐車スイッチ4をチェックする。ここで、駐車スイッチ4の状態がオフ(駐車補助要求がない状態)であれば、ディスプレィ13のグラフィック画面をステップS112でクリヤしてディスプレィ13には後方の生画像表示のみ(図1において後述する走行予想軌跡20が表示されない状態)とし、ステップS102に戻る。
【0023】
一方、ステップS104において駐車スイッチ4がオン(駐車補助要求がある状態)であるならば、ステップS105に進み、ステップS105では音声合成回路7に予め決められた音声信号出力をし、スピーカ8より音声出力を行う。即ち、駐車操作を開始したことを状況に応じて、「駐車アシストします。軌跡を希望の位置に合わせて、周囲に注意しながらバックして下さい。」、「ただいまより、駐車ガイドを開始いたします。画面の緑(走行予想軌跡)の表示の先端が、駐車区画に向かうように、ハンドルを回して下さい。」、「右(左)にご注意下さい。」等の予め決められた音声メッセージで、ドライバに対して音声合成により案内を行う。この音声メッセージを聞いて、ドライバは駐車操作時の補助が開始されたことを知ることができる。
【0024】
次に、ステップS106においてステアリングセンサ2からステアリングセンサ値Nを読み込み、その値を基に駐車操作時の旋回半径Rの算出を行う。具体的には、ステアリングセンサ2の読み込みをA相信号の立ち上がりエッジ検出時にメインプログラムに割り込みを発生させ、図6に示す割り込み処理を実行する。つまり、図6のステップS201においてB相信号の状態をチェックし、B相信号がハイ(H:高電位)なら、ステップS202においてステアリングカウント値Nをインクリメントし、ロー(L:低電位)ならデクリメントしてその値をメモリに記憶する。この場合、ステアリングカウント値Nは、1パルスが1°のため、θ=Nとなる。しかし、上記に示すステアリング値Nのカウントのみではステアリング21の絶対舵角が不定となってしまうため、図7に示す方法によりステアリング舵角の中立点を検出し、N=0として中立点を決める。
【0025】
そこで、図7を参照して中立点決定について説明する。この処理では1秒周期のタイマ割り込みで実行される。ここでは、通常、車輪に備えつけられている公知の左右の車輪速センサ5,6からの信号により車体速度も算出する。ステップS301,ステップS302では左右の車輪速センサ5,6からの信号(パルス)はコントローラ内部のCPU11に内蔵されたハードウェアカウンタによりカウントされ、このタイマ割り込みルーチンで左右の車輪速が読み出され、車輪速センサ値が記憶されるメモリのNR,NLに記憶される。読み出しの後、カウンタ自体はクリアされ、NR,NLは1秒毎のパルス数を示すものとなる。
【0026】
次のステップS303においてNR,NLからその平均値(NR+NL)/2を演算し、この値にタイヤの周長を乗算し、公知の方法により容易に車速Vが求められる。次に、ステアリングセンサ2の基準設定であるが、ステップS304からステップS306では車速V、所定速度(10Km/h)以上の時に左右の車輪速センサ5,6のパルス差がほとんどない状態をもって車両が直進状態であるとみなし、ステップS306でステアリングカウンタNを零にしてリセットすることで、ステアリング舵角の中立点が求められる。
【0027】
ステアリング処理が終了すると、図5のメインルーチンに戻り、ステップS107において走行予想軌跡20のパラメータ演算を行う。走行軌跡パラメータ演算は図11に示される幾何学的な関係から旋回半径Rをステアリング角度θとホイールベースLとから求めるものである。
【0028】
その後、ステップS108においてカメラ17の画像を画像認識装置15に取り込み、ステップS109において区画線検出処理を行う。
【0029】
この区画線検出処理は図8に示される方法によりなされる。つまり、カメラ17より入力された画像は、例えば、白黒画像(640×480ドットサイズ)であり、各点は0〜255のグレースケールをもつものとする。この画像よりまずステップS401において公知の技術より駐車区画30の特徴点となる白線31のエッジ検出を行う。具体的には公知のソーベルフィルタにより白線31のエッジを検出し、適当なしきい値を上回っている部分のピークを検出して境界を構成するエッジ点を抽出する方法をとる。この場合、白線の認識が画像認識により駐車区画の特徴点を容易に検出できる。次に、ステップS402においては、これらエッジ点に対し図15に示される路面座標への変換を行なう。この座標系にてステップS403で直線検出を行っている。この直線を求める方法には、公知のHough変換を用いれば検出が可能となる。
【0030】
このHough変換による直線検出は、カメラ17により撮像された駐車区画30の白線31のエッジを検出した後、(X,Z)平面に逆変換されたエッジ点の集合から直線を検出する場合に使用する。つまり、これは公知の技術であり、簡単に説明するとその変換は、各エッジ点を(x,y)とすると、次のようになる。
【0031】
X=x・Hc/(fsinθ−ycosθ)・・・(1)
Z=Hc・(ycosθ+fcosθ)/(fsinθ−ycosθ)・・・(2)
u=X・・・(3)
v=−Z・・・(4)
p=ucosθ+vsinθ・・・(5)
による。即ち、この変換を行うために、先ず各エッジ点を(X,Z)座標で記述するために(1),(2)式の変換を行う。
【0032】
次に、Hough空間として、(ρ,θ)を使用し、各エッジ(X,Z)に対して(3)〜(5)式を使用してρを計算する。この時、(ρ,θ)空間上にθ=−π/2〜π/2の間で曲線を描画する。これは実際にはρ,θ空間を格子状に分割し、2次元マトリックスに対応付けて、θを変化させて対応する各マトリックス値をインクリメントする操作に対応する。
【0033】
このようにして、全ての候補エッジ点に対して、マトリックスへの描画を行わせると候補となる線分に対しては曲線の交点が集中する結果、マトリックス値が大きな値をもつようになり、あるしきい値等により適当なマトリックス位置(ρ,θ)が選定され、これに対応して各々1本の直線を抽出することができる。
【0034】
そこで、直線検出後、図8に戻りステップS404においてHough変換により検出された直線から駐車区画30を構成する候補となる線分を抽出する。具体的には図17に示されるように、Lm:車体長さ、Wm:車幅、lm:後輪車軸とカメラとの距離、Rmin:車両の最小回転半径とした場合、図10に示されるように車両後端部中心(カメラ位置)から駐車区画30の入口までの距離D、車両後端部中心(カメラ位置)の駐車場中心に対する横ずれ距離(センターずれ)L、車両と駐車区画との角度(車体角度)θmを幾何学的な関係から求めることができる。より具体的には、θm:駐車区画センターライン(駐車区画の中心軸)と車両の車両中心軸とのなす角度、L:駐車区画の中心軸の垂直方向においてカメラの設けられるカメラ位置と駐車区画の中心軸との距離、D:駐車区間の中心軸の方向において白線の車両側の端部(図17の左側の駐車白線)とカメラ位置までの距離を示す。
【0035】
ここでは、図17のC,D、E、Fの線分を角度および並びの順序、そして駐車区画幅W1と白線幅W2との比較で、許容範囲内のものを抽出する。
【0036】
次に、ステップS405においては、側線候補(白線)が見つかったか否かをチェックし、側線候補がない場合にはこの処理を終了するが、側線候補有りの場合にはステップS406において、側線に直交する直交成分の検出処理を行う。つまり、これは図17においては、A,Bの仮想線分の探索に対応する。
【0037】
次にステップS407において直交線分候補がない場合には、この処理を終了するが、直交成分候補が有りの場合は、ステップS408においてL,θm,Dを計算して求める。尚、このL,θm,Dを求める具体的な計算方法は図17から幾何学的な関係により算出することができるため、その求め方は省略する。
【0038】
次に、図9を参照して車両の状態判断について説明する。
【0039】
ステップS501において、駐車区画が検出されたか否かをチェックし、区画検出がされていない場合にはステップS512において不明と判断し、不明フラグをセットする。一方、区画検出がされた場合にはステップS502に進み、センターずれL,車体角度θmから、基準となる旋回半径R0を求める。これは図17に示した(条件1)式で示されるもので、駐車区画30の中心軸と車両中心軸とに共に接する円の半径を求めることになる。この場合には、車両の進行方向に向かって右側に旋回中心がある場合には、半径R0は正となる。
【0040】
次に、ステップS503において旋回半径R0を車両の最小回転半径であるRminと比較し、これより小さければ車両は駐車区画30に進入不能となるため、ステップS511において不能と判断し、駐車不能フラグをセットする。ここで、旋回半径R0がRmin以上で駐車可能であれば、ステップS504に進み、図17に図示したdを(条件2)式により計算する。これは旋回のための半径R0の軌跡より駐車区画30内の適切な位置で車両が平行になれるかを判断するものであり、ステップS505においてd<Lm−lmの条件下において駐車が可能であるかを判断する。尚、このステップS505に示す条件が成立しない場合には、車両は駐車区画30に入っても平行にはならないものとなる。
【0041】
次に、ステップS506に進み、条件3をチェックする。つまり、図17の条件3に示す関係式でRxを求める。これは車両が駐車区画30に進入する際に旋回の内側が駐車区画コーナー部と干渉しないかをチェックするものであり、ステップS507においてRx<|R0|−Wm/2の条件が成立すれば、車両の旋回の内側が隣りの車両等と接触する可能性が少なくなるとみなすことができる。しかし、これはあくまで計算上の基準であり、実際には隣接車両のはみ出し等も考えられ、目視での確認が必要となる。よって、以上の条件式(条件1から条件3)が成立すれば、ステップS508に進む。
【0042】
ステップS508においては現在のステアリング舵角に基づく旋回半径Rと基準半径R0とを比較して略一致していれば、ステップS509においてこのままのステアリング舵角で駐車可能とし、駐車可能フラグをセットする。一方、旋回半径Rと基準半径R0が略一致しない場合には、ステップS510においてステアリング修正は必要とみなし、ステアリング修正フラグをセットとする。但し、図20に示すようにR0>Rminの場合には自由度があり、状況によってはステアリング修正は不要となる。
【0043】
この結果を基に、図5のステップS111では音声出力2を行う。ここでの音声出力2は、ステップS110の状態判断によりセットされたフラグにより、予め定められた文章を発してドライバに対して報知するものである。具体的には、図19に示されるように状態判断により「不明」の場合には、「駐車区画を検出していません」、「不能」の場合には「前に進んでもう一度やり直して下さい」、このままの舵角で駐車が可能な場合には「周囲に注意してそのままバックして下さい」等の音声メッセージを、音声合成回路7からスピーカ8に対して出力する。この場合、走行予想軌跡20をディスプレィ13に表示する場合の場合の色の指定も図19に示される表示色に設定される。
【0044】
次に、ステップS112においてグラフィックス再描画処理を行う。ここでの処理は後方画像に走行予想軌跡20をディスプレィ上に重ねて表示させるものであり、この表示を行うためには路面座標をカメラ座標に変換しなければならないことから、以下に示す座標変換を行う。
【0045】
そこで、この座標変換は図16に示すように、(X,Y,Z):路面座標、(x,y):カメラ座標(CCD素子面)、f:レンズ焦点距離、(x’,y’,z’):レンズ座標(z’は光軸に一致)、θc:カメラ取り付け角度、Hc:路面からの取り付け高さとすると、以下のような関係式が成立する。つまり、
x=f・x’/z’・・・(1’)
y=f・y’/z’・・・(2’)
x’=X・・・(3’)
y’=Zsinθc+(Y−Hc)cosθc・・・(4’)
z’=Zcosθc−(Y−Hc)sinθc・・・(5’)
より、路面上の座標のみに限定すればY=0となり、x,yを求めれば、
x=f・X/(Zcosθc+Hcsinθc)・・(6’)
y=f・(Zsinθc−Hccosθc)/(Zcosθc+Hcsinθc)・・・(7’)
となる。よって、路面座標上の点(X,Z)をカメラで撮影した場合、グラフィックス画面上(カメラ座標)での座標(x,y)を(6’),(7’)式より求め、後方画像に重ね合せることができる。
【0046】
この場合、上記の方法により求めたx,yの走行予想軌跡20をディスプレィ上に表示するのであるが、その表示方法は図12に示されるように各種の方法が考えられる。つまり、図12の(a)では車両の左右輪が通過する予想轍による表示する方法、(b)では駐車時に車両が走行する走行エリアをベクトル表示する方法、(3)は一定距離間隔(はしご間隔:50cm)がわかるようにしたはしご状に表示する方法等があり、ここでは(c)を用いて、駐車操作時に距離感や各位置での車体の角度が分かり易い方法を採用している。尚、この場合、車両予想軌跡20の長さlは固定長(例えば、3m)にしたり、一定の角度分とし、旋回状態(緑色とする)と直進状態(青色とする)で色を変化させたり、更には、予想軌跡先端部のみを区別し易い表示にしたりする方法をとることもできる。
【0047】
図18はディスプレィ13上での走行予想軌跡20とステアリング舵角の状態を示した表示画面の一例であり、ステアリング舵角に応答して走行予想軌跡20が変化する状態を示したものである。これは車両の後方の生画像をモニタし、駐車スイッチ4がオンしている(駐車補助要求ありの状態)場合にのみ、ステアリング舵角に応じてはしご状になった走行予定軌跡20を重なり合って表示させるようにしている。この場合、後方画像に走行予想軌跡20を表示させることで、ステアリング21をどれだけ転舵しているかわかるようにディスプレィ13の一部に舵角状態を表示する表示マーカー14を一緒に表示させているので、実際にどれだけ転舵しているかがわかる。
【0048】
次のステップS113においては駐車スイッチ4がオン(駐車補助要求あり)されているかが判断される。ここで、駐車スイッチ4がオンされていない(駐車補助要求がない)場合にはステップS102に戻り、ステップS102からの処理を繰り返す。一方、駐車補助要求がありの場合には、ステップS114においてリバース状態であるかをシフトレバーリバーススイッチ3をチェックする。ここでリバース状態でない場合にはステップS102に戻るが、リバース状態の場合にはステップS106からステップS114までの同じ処理を繰り返す。
【0049】
つまり、リバース状態で駐車補助要求がある場合にはディスプレィ上に後方画像と一緒に走行予想軌跡も一緒に表示されるようになるため、ドライバはこれを見てステアリング21を回し、適切な位置に保持しバックすれば良い。駐車区画内に水平に入った段階でステアリングをまっすぐにし、最終端までバックすれば正しく駐車区画30に入ることができる。これらは音声により指示されるため、後方を見て安全確認しながらの操作が可能となる。
【0050】
【効果】
本発明によれば車両の操舵状態を検出する操舵状態検出手段と、カメラからの映像を基に画像認識により駐車区画を識別する駐車区画検出手段と、操舵状態検出手段からの情報により車両の走行予想軌跡を算出する走行予想軌跡算出手段と、走行予想軌跡と駐車区画からの情報により駐車を補助する情報をドライバに提供する報知手段とを備えたことにより、カメラからの映像を基に画像認識で駐車区画を検出し、操舵状態検出手段からの情報により車両の走行予想軌跡求め、走行予想軌跡と駐車区画の情報から、正しく駐車できるか否か判断した上で、駐車を正位置に駐車するよう駐車を適切に補助する情報を提供できる。
【0051】
この場合、駐車区画は駐車区画を構成する白線を認識するようにすれば、画像認識により容易に検出できる。
【0052】
また、駐車を補助する情報は駐車区画と車両との相対位置関係を利用し、駐車区画の中心軸に対する車両中心軸の傾斜角度θm、カメラ位置と駐車区画の中心軸との距離L、駐車区画入口までの距離Dにより表現でき、駐車区画と車両との相対位置関係が正確に求めることができる。
【0053】
更に、報知手段は表示器および特に音声により操舵タイミング、操舵方向、操舵量の少なくとも1つが報知されるようにすれば、ドライバに対して駐車に関する情報を、後方を目視確認しながらでも提供することができる。
【0054】
表示器にはカメラからの後方画像と走行予想軌跡が重ねて表示されるようにすれば、周囲の状況が正確に察知でき、舵角に対応した走行予想軌跡が後方画像のどこを通るかが適切にわかる。
【0055】
走行予想軌跡は駐車区画との位置関係により、走行予想軌跡の表示形態を可変させるようにすれば、走行予想軌跡の表示形態の変化により、所定の駐車区画に対し駐車可能か否かが判断し易くなる。
【図面の簡単な説明】
【図1】 本発明の一実施形態における駐車補助装置のシステム構成図である。
【図2】 本発明の一実施形態における駐車補助装置を車両へ取付けた場合の取付図である。
【図3】 本発明の一実施形態における駐車補助装置のカメラの検出範囲を示した図である。
【図4】 本発明の一実施形態におけるステアリングセンサを示し、(a)はステアリングコラムシャフトへ取り付けた場合のステアリングセンサの平面図、(b)はステアリングセンサのスリット板とフォトインタラプタの概要を示した斜視図、(c)はステアリングセンサのA相とB相の出力を示す図である。
【図5】 本発明の一実施形態におけるコントローラの処理を示すフローチャートである。
【図6】 本発明の一実施形態におけるコントローラのステアリングセンサ信号処理を示すフローチャートである。
【図7】 本発明の一実施形態におけるコントローラのステアリングセンサの中立点処理を示すフローチャートである。
【図8】 図5に示す区画線検出処理のフローチャートである。
【図9】 図5に示す状態判断のフローチャートである。
【図10】 本発明の一実施形態における駐車区画と車両との位置関係を示す説明図である。
【図11】 本発明の一実施形態における走行予想軌跡の算出に用いる説明図である。
【図12】 本発明の一実施形態における走行予想軌跡の表示例を示した図であり、(a)は予想轍による表示、(b)は車幅分の走行エリアベルト表示、(c)ははしご状表示を示す図である。
【図13】 本発明の一実施形態におけるカメラおよびディスプレィのグラフィックス表示座標である。
【図14】 本発明の一実施形態における駐車補助装置のカメラを車両へ取り付けた場合の取り付け状態を示した図である。
【図15】 本発明の一実施形態におけるHough変換による直線検出法を示す説明図である。
【図16】 本発明の一実施形態における駐車補助装置の座標変換方法を説明する説明図である。
【図17】 本発明の一実施形態における駐車補助装置の駐車区画の検出と車両位置の関係を示す説明図である。
【図18】 本発明の一実施形態における駐車補助装置のディスプレィ上での表示画面である。
【図19】 本発明の一実施形態における駐車補助装置の音声出力における案内メッセージおよびディスプレィ上での走行予想軌跡の表示色を示す図である。
【図20】 本発明の一実施形態における駐車補助装置の駐車区画への入り方を示した図である。
【符号の説明】
1 駐車補助装置
2 ステアリングセンサ(操舵状態検出手段)
3 シフトレバーリバーススイッチ
4 駐車スイッチ
5 右車輪速センサ
6 左車輪速センサ
8 スピーカ(報知手段)
11 CPU(走行予想算出手段)
13 ディスプレィ(表示器)
14 舵角状態表示(マーカー表示)
15 駐車区画検出用画像認識装置(駐車区画検出手段)
17 CCDカメラ(カメラ)
20 走行予想軌跡
30 駐車区画
31 白線[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a parking assist device that assists in parallel parking of a vehicle, parking in a garage, etc., and in particular, captures a rear image with a camera, recognizes a parking area, and predicts traveling along with a rear image on a monitor display in the vehicle. The present invention relates to a parking assist device that displays a trajectory (also referred to as a taxiway) or assists an operation during parking by voice output.
[0002]
[Prior art]
Conventionally, a method of assisting parking at the time of parking operation is known for drivers who are not accustomed to parking such as parallel parking or garage parking. For example, in Japanese Patent Application Laid-Open No. 7-17328, a CCD camera and a distance sensor for measuring distance are provided around the vehicle body, the situation around the vehicle is detected, and an image around the vehicle is displayed on a display provided in the vehicle interior. Is displayed in a bird's eye view to provide the driver with the surrounding situation.
[0003]
In JP-A-59-201082, the steering angle is detected by a steering sensor, and the steering angle at the time of parking operation is determined based on the detected position of the own vehicle and predetermined data relating to parking that has been input in advance. By calculating and displaying the steering angle and the instruction angle necessary for steering on a simple display, or in the one disclosed in JP-A-8-2357, a distance measuring sensor for object detection provided at the rear of the vehicle, Measure the distance from obstacles (especially cars parked next to the parking space to be parked), detect the steering start position with the maximum steering angle according to the distance, and turn the steering start position to the driver In Japanese Patent Application Laid-Open No. 6-234341, a taxiway for guiding the vehicle is calculated and obtained using a CCD area sensor or a steering sensor. Based on the taxiway and the current position is known what gives the voice message steering angle instruction to the driver.
[0004]
[Problems to be solved by the present invention]
However, when the vehicle is parked, it is desirable to turn the steering to a predetermined position with respect to the parking area indicated by a white line or the like and back the vehicle in a state of being parallel in the vicinity of the center. In any case, the conventional technology recognizes the area to be parked and gives an appropriate instruction to the driver at the time of parking operation, so that the vehicle cannot be parked correctly. Not what you want.
[0005]
Therefore, the present invention has been made in view of the above problems, and it is a technical problem to assist parking appropriately so as to park in a normal position after identifying the parking section itself.
[0006]
[Means for Solving the Problems]
Technical measures taken to solve the above problems are:Steering state detection means for detecting the steering state of the vehicle, parking section detection means for recognizing a parking section that is partitioned by a white line based on the video from the camera and parked by the vehicle, and the steering state detection means A predicted travel trajectory calculating means for calculating a predicted travel trajectory of the vehicle based on the steering information, an angle θm between a central axis of the parking section and a vehicle central axis of the vehicle, and a direction perpendicular to the central axis of the parking section. The parking section based on the distance L between the camera position where the camera is provided and the central axis of the parking section, the distance D between the end of the white line on the vehicle side and the camera position in the direction of the central axis of the parking section, and Based on the relative positional relationship with the vehicle, a reference radius R0 that the vehicle enters into the parking area is obtained, and the reference radius R0 and the predicted travel locus are calculated. It compares with a radius R, and a notifying means for providing a corrective steering information to assist the parking according to the comparison result to the driverThat is.
[0007]
Based on the video from the camera by the above technical meansRecognize the parking area where the vehicle is parked with white linesAnd providing information for assisting parking after determining whether or not the vehicle can be parked correctly based on the information on the predicted traveling track and the parking area based on the information from the steering state detecting means. Is possible.
[0008]
In this case, the parking section can be easily detected by image recognition if the white line constituting the parking section is recognized.
[0009]
In addition, the relative positional relationship between the parking section and the vehicle is such that the inclination angle θm of the vehicle central axis with respect to the central axis of the parking section, the camera position and the parking sectioncenterIt can be expressed from the distance L to the shaft and the distance D to the entrance of the parking section, and the relationship between the relative position of the parking section and the vehicle can be accurately obtained.More specifically, the relative positional relationship between the parking section and the vehicle includes an angle θm between the central axis of the parking section and the vehicle central axis of the vehicle, and the camera position where the camera is provided in the direction perpendicular to the central axis of the parking section. It can be expressed by a distance L from the central axis of the parking section and a distance D from the end of the white line on the vehicle side to the camera position in the direction of the central axis of the parking section.
[0011]
If the display shows the rear image from the camera and the predicted driving trajectory superimposed, the surrounding situation can be accurately detected, and where the predicted driving trajectory corresponding to the steering angle passes in the rear image. I understand properly.
[0012]
The predicted travel path is based on the relative positional relationship with the parking area,Variable display on the displayBy doing so, it becomes easier to determine whether or not parking is possible for a predetermined parking section due to a change in the display mode (display color or the like) of the predicted travel path.
If at least one of the steering timing, the steering direction, and the steering amount is notified particularly by voice, the notification means can provide the driver with information about parking while viewing the rear.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0014]
FIG. 1 is a system configuration diagram of the
[0015]
Inside the
[0016]
A steering angle state display (display marker) 14 whose lighting state changes depending on the steering angle state of the
[0017]
FIG. 2 shows an attachment diagram when the
[0018]
In addition, a
[0019]
Here, the
[0020]
Next, processing of the
[0021]
In step S101, various initial values are set in the memory necessary for this processing. Thereafter, in step S102, the state of the shift
[0022]
Next, the parking switch 4 which assists parking at the time of parking operation is checked in step S104. If the parking switch 4 is off (no parking assistance is requested), the graphic screen of the
[0023]
On the other hand, if the parking switch 4 is on (in the state where there is a parking assistance request) in step S104, the process proceeds to step S105. In step S105, a predetermined voice signal is output to the
[0024]
Next, in step S106, the steering sensor value N is read from the
[0025]
The neutral point determination will be described with reference to FIG. This process is executed by a timer interrupt with a period of 1 second. Here, the vehicle body speed is also calculated based on signals from known left and right
[0026]
In the next step S303, the average value (NR + NL) / 2 is calculated from NR and NL, and this value is multiplied by the tire circumference, and the vehicle speed V can be easily obtained by a known method. Next, the standard setting of the
[0027]
When the steering process ends, the process returns to the main routine of FIG. 5, and parameter calculation of the predicted
[0028]
Thereafter, the image of the
[0029]
This lane marking detection process is performed by the method shown in FIG. That is, the image input from the
[0030]
This straight line detection by the Hough transform is used when a straight line is detected from a set of edge points that are converted back to the (X, Z) plane after detecting the edge of the
[0031]
X = x · Hc / (fsinθ−ycosθ) (1)
Z = Hc · (y cos θ + f cos θ) / (fsin θ−y cos θ) (2)
u = X (3)
v = −Z (4)
p = u cos θ + v sin θ (5)
by. That is, in order to perform this conversion, first, the conversion of the equations (1) and (2) is performed in order to describe each edge point in (X, Z) coordinates.
[0032]
Next, (ρ, θ) is used as the Hough space, and ρ is calculated using equations (3) to (5) for each edge (X, Z). At this time, a curve is drawn between θ = −π / 2 to π / 2 in the (ρ, θ) space. This actually corresponds to an operation of dividing the ρ, θ space into a lattice shape, associating it with a two-dimensional matrix, and changing each θ by changing θ.
[0033]
In this way, when drawing to the matrix for all candidate edge points, the intersection of the curves concentrates on the candidate line segments, and as a result, the matrix value has a large value, An appropriate matrix position (ρ, θ) is selected based on a certain threshold value, and one straight line can be extracted correspondingly.
[0034]
Therefore, after detecting the straight line, returning to FIG. 8, a line segment as a candidate constituting the
[0035]
Here, the C, D, E, and F line segments in FIG. 17 are extracted within the allowable range by comparing the angle and arrangement order, and the parking section width W1 and the white line width W2.
[0036]
Next, in step S405, it is checked whether or not a side line candidate (white line) has been found. If there is no side line candidate, this process ends. If there is a side line candidate, in step S406, the process is orthogonal to the side line. The orthogonal component is detected. That is, this corresponds to the search for the virtual line segments A and B in FIG.
[0037]
Next, if there is no orthogonal line segment candidate in step S407, this process is terminated. If there is an orthogonal component candidate, L, θm, and D are calculated and obtained in step S408. Note that a specific calculation method for obtaining L, θm, and D can be calculated from the geometrical relationship from FIG.
[0038]
Next, vehicle state determination will be described with reference to FIG.
[0039]
In step S501, it is checked whether or not a parking area has been detected. If no area has been detected, it is determined in step S512 that it is unknown, and an unknown flag is set. On the other hand, if the section is detected, the process proceeds to step S502, and a reference turning radius R0 is obtained from the center deviation L and the vehicle body angle θm. This is expressed by the (condition 1) equation shown in FIG. 17, and the radius of a circle that is in contact with the central axis of the
[0040]
Next, in step S503, the turning radius R0 is compared with Rmin, which is the minimum turning radius of the vehicle. If the turning radius R0 is smaller than this, the vehicle cannot enter the
[0041]
Next, it progresses to step S506 and the
[0042]
In step S508, if the turning radius R based on the current steering rudder angle is substantially equal to the reference radius R0, the vehicle can be parked at the steering rudder angle as it is in step S509, and a parking feasible flag is set. On the other hand, if the turning radius R and the reference radius R0 do not substantially match, in step S510, it is considered that steering correction is necessary, and the steering correction flag is set. However, as shown in FIG. 20, there is a degree of freedom when R0> Rmin, and steering correction is not necessary depending on the situation.
[0043]
Based on this result,
[0044]
Next, graphics redrawing processing is performed in step S112. The processing here is to display the predicted traveling
[0045]
Therefore, as shown in FIG. 16, this coordinate conversion is performed as follows: (X, Y, Z): road surface coordinates, (x, y): camera coordinates (CCD element surface), f: lens focal length, (x ′, y ′) , Z ′): lens coordinates (z ′ coincides with the optical axis), θc: camera mounting angle, and Hc: mounting height from the road surface, the following relational expression is established. That means
x = f · x ′ / z ′ (1 ′)
y = f · y ′ / z ′ (2 ′)
x '= X (3')
y ′ = Zsin θc + (Y−Hc) cos θc (4 ′)
z '= Zcos [theta] c- (Y-Hc) sin [theta] c (5')
Therefore, if it is limited only to the coordinates on the road surface, Y = 0, and if x and y are obtained,
x = f.X / (Zcos .theta.c + Hcsin .theta.c) (6 ')
y = f · (Zsinθc−Hcosθc) / (Zcosθc + Hcsinθc) (7 ′)
It becomes. Therefore, when the point (X, Z) on the road surface coordinates is captured by the camera, the coordinates (x, y) on the graphics screen (camera coordinates) are obtained from the equations (6 ′) and (7 ′), and the rear Can be superimposed on the image.
[0046]
In this case, the predicted x and
[0047]
FIG. 18 is an example of a display screen showing the predicted
[0048]
In the next step S113, it is determined whether the parking switch 4 is turned on (the parking assistance is requested). Here, when the parking switch 4 is not turned on (there is no parking assistance request), the process returns to step S102, and the processes from step S102 are repeated. On the other hand, if there is a parking assistance request, the shift lever
[0049]
In other words, when there is a parking assistance request in the reverse state, the predicted driving trajectory is displayed along with the rear image on the display, so the driver turns the
[0050]
【effect】
According to the present invention, the steering state detecting means for detecting the steering state of the vehicle, the parking section detecting means for identifying the parking section by image recognition based on the video from the camera, and the vehicle traveling by the information from the steering state detecting means. Image recognition based on video from the camera by providing a predicted travel trajectory calculating means for calculating an expected trajectory and an informing means for providing information to assist the parking with the predicted travel trajectory and information from the parking area. Detecting the parking area with the information from the steering state detecting means, obtaining the predicted travel path of the vehicle, determining whether the vehicle can be parked correctly based on the predicted travel path and the information on the parking area, and then parking the vehicle in the correct position. Information that assists parking properly can be provided.
[0051]
In this case, the parking section can be easily detected by image recognition if the white line constituting the parking section is recognized.
[0052]
In addition, the information for assisting parking uses the relative positional relationship between the parking section and the vehicle, the inclination angle θm of the vehicle central axis with respect to the central axis of the parking section, the camera position and the parking sectioncenterIt can be expressed by the distance L from the shaft and the distance D to the entrance of the parking section, and the relative positional relationship between the parking section and the vehicle can be accurately obtained.
[0053]
In addition, if the notification means notifies at least one of the steering timing, the steering direction, and the steering amount by an indicator and particularly sound, it provides the driver with information on parking while visually confirming the rear. Can do.
[0054]
If the display shows the rear image from the camera and the predicted driving trajectory superimposed, the surrounding situation can be accurately detected, and where the predicted driving trajectory corresponding to the steering angle passes in the rear image. I understand properly.
[0055]
If the display form of the predicted travel path is variable depending on the positional relationship with the parking area, it is determined whether or not parking is possible for a predetermined parking area based on the change in the display form of the predicted travel path. It becomes easy.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram of a parking assistance device according to an embodiment of the present invention.
FIG. 2 is an attachment diagram when the parking assist device in one embodiment of the present invention is attached to a vehicle.
FIG. 3 is a diagram illustrating a detection range of a camera of the parking assist device according to the embodiment of the present invention.
4A and 4B show a steering sensor according to an embodiment of the present invention, in which FIG. 4A is a plan view of the steering sensor when attached to a steering column shaft, and FIG. (C) is a figure which shows the output of the A phase and B phase of a steering sensor.
FIG. 5 is a flowchart showing processing of a controller in an embodiment of the present invention.
FIG. 6 is a flowchart showing steering sensor signal processing of a controller in one embodiment of the present invention.
FIG. 7 is a flowchart showing neutral point processing of a steering sensor of a controller according to an embodiment of the present invention.
8 is a flowchart of lane marking detection processing shown in FIG.
FIG. 9 is a flowchart of state determination shown in FIG. 5;
FIG. 10 is an explanatory diagram showing a positional relationship between a parking section and a vehicle in an embodiment of the present invention.
FIG. 11 is an explanatory diagram used for calculation of a predicted traveling locus in an embodiment of the present invention.
FIGS. 12A and 12B are diagrams showing display examples of predicted travel trajectories according to an embodiment of the present invention, where FIG. 12A is a display with a predicted bag, FIG. 12B is a travel area belt display for the vehicle width, and FIG. It is a figure which shows ladder-like display.
FIG. 13 shows graphics display coordinates of a camera and a display according to an embodiment of the present invention.
FIG. 14 is a view showing an attachment state when the camera of the parking assistance device in one embodiment of the present invention is attached to a vehicle.
FIG. 15 is an explanatory diagram showing a straight line detection method using Hough transform in an embodiment of the present invention.
FIG. 16 is an explanatory diagram for explaining a coordinate conversion method of the parking assist device according to the embodiment of the present invention.
FIG. 17 is an explanatory diagram showing a relationship between detection of a parking section and a vehicle position in the parking assist device according to the embodiment of the present invention.
FIG. 18 is a display screen on the display of the parking assist device according to the embodiment of the present invention.
FIG. 19 is a diagram illustrating a display color of a guidance message and a predicted traveling locus on a display in audio output of the parking assist device according to the embodiment of the present invention.
FIG. 20 is a view showing how to enter the parking section of the parking assistance device according to the embodiment of the present invention.
[Explanation of symbols]
1 Parking assistance device
2 Steering sensor (steering state detection means)
3 Shift lever reverse switch
4 Parking switch
5 Right wheel speed sensor
6 Left wheel speed sensor
8 Speaker (notification means)
11 CPU (running prediction calculation means)
13 Display (display)
14 Rudder angle status display (marker display)
15 Parking area detection image recognition device (parking area detection means)
17 CCD camera (camera)
20 Expected trajectory
30 parking lot
31 White line
Claims (3)
車両の操舵状態を検出する操舵状態検出手段と、前記カメラからの映像を基に白線で区画され前記車両が駐車する駐車区画を画像認識により認識する駐車区画検出手段と、前記操舵状態検出手段からの操舵情報により前記車両の走行予想軌跡を算出する走行予想軌跡算出手段と、前記駐車区画の中心軸と前記車両の車両中心軸とのなす角度θm、前記駐車区画の中心軸の垂直方向において前記カメラの設けられるカメラ位置と前記駐車区画の中心軸との距離L、前記駐車区間の中心軸の方向において前記白線の車両側の端部と前記カメラ位置までの距離Dに基づく前記駐車区画と前記車両との相対位置関係により、前記車両が前記駐車区画に入れる基準半径R0を求め、該基準半径R0と前記走行予想軌跡を算出する前記操舵状態に応じた旋回半径Rとの比較を行い、比較結果に応じて駐車を補助する修正操舵情報をドライバに提供する報知手段とを備えたことを特徴とする駐車補助装置。The rear of the vehicle taken by the camera, in the parking assist apparatus displays the rearward image an image on a display unit provided in the vehicle to aid in operation at the time the driver of the parking from the camera,
Steering state detection means for detecting the steering state of the vehicle, parking section detection means for recognizing a parking section that is partitioned by a white line based on the video from the camera and parked by the vehicle, and the steering state detection means of the predicted traveling locus calculating means by the steering information to calculate a predicted traveling locus of the vehicle, the angle θm of the parking center axis of the compartment and the vehicle center axis of the vehicle, the in the vertical direction of the central axis of the parking section The parking section based on the distance L between the camera position where the camera is provided and the central axis of the parking section, the distance D between the end of the white line on the vehicle side and the camera position in the direction of the central axis of the parking section, and Based on the relative positional relationship with the vehicle, a reference radius R0 that the vehicle enters into the parking area is obtained, and the reference radius R0 and the predicted travel locus are calculated. Compares with a radius R, a parking assist apparatus characterized by comprising a notification means for providing a corrective steering information to assist parking in accordance with the comparison result to the driver.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14815798A JP3726175B2 (en) | 1998-05-28 | 1998-05-28 | Parking assistance device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14815798A JP3726175B2 (en) | 1998-05-28 | 1998-05-28 | Parking assistance device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11339194A JPH11339194A (en) | 1999-12-10 |
JP3726175B2 true JP3726175B2 (en) | 2005-12-14 |
Family
ID=15446541
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14815798A Expired - Fee Related JP3726175B2 (en) | 1998-05-28 | 1998-05-28 | Parking assistance device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3726175B2 (en) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3624768B2 (en) * | 1999-12-24 | 2005-03-02 | 株式会社豊田自動織機 | Parallel parking assistance device |
JP2001199297A (en) * | 2000-01-14 | 2001-07-24 | Mitsubishi Motors Corp | Parking aiding device |
US6476730B2 (en) | 2000-02-29 | 2002-11-05 | Aisin Seiki Kabushiki Kaisha | Assistant apparatus and method for a vehicle in reverse motion |
JP4491978B2 (en) * | 2000-02-29 | 2010-06-30 | アイシン精機株式会社 | Vehicle reverse assist device and reverse assist method |
JP4493885B2 (en) * | 2000-06-30 | 2010-06-30 | パナソニック株式会社 | Driving support system |
JP3700614B2 (en) * | 2001-06-22 | 2005-09-28 | 株式会社豊田自動織機 | Parking assistance device |
JP4161573B2 (en) * | 2001-06-29 | 2008-10-08 | 株式会社豊田自動織機 | Parking assistance device |
JP2003267171A (en) * | 2002-03-13 | 2003-09-25 | Nissan Motor Co Ltd | Device for monitoring rear part of vehicle |
DE10324812A1 (en) * | 2003-06-02 | 2004-12-23 | Robert Bosch Gmbh | Display arrangement for a motor vehicle and method for outputting driver information, in particular for a parking aid |
JP2007030700A (en) * | 2005-07-27 | 2007-02-08 | Aisin Seiki Co Ltd | Parking support device |
JP2009071659A (en) * | 2007-09-14 | 2009-04-02 | Alpine Electronics Inc | Parking assistance system |
JP4970516B2 (en) | 2009-09-30 | 2012-07-11 | 日立オートモティブシステムズ株式会社 | Surrounding confirmation support device |
KR102213148B1 (en) * | 2015-12-01 | 2021-02-05 | 현대자동차주식회사 | Method and Apparatus for Supporting Parking Alignment Based on Recognition of Parking Line |
JP6548593B2 (en) * | 2016-02-27 | 2019-07-24 | アルパイン株式会社 | Parking assistance apparatus and parking assistance method |
JP2018041270A (en) * | 2016-09-07 | 2018-03-15 | 株式会社デンソー | Travel information display system |
CN112550286A (en) * | 2020-12-10 | 2021-03-26 | 宜宾凯翼汽车有限公司 | Vehicle parking prompting method and system |
-
1998
- 1998-05-28 JP JP14815798A patent/JP3726175B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11339194A (en) | 1999-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3951465B2 (en) | Parking assistance device | |
JP3575279B2 (en) | Parking assistance device | |
JP3726175B2 (en) | Parking assistance device | |
JP4096445B2 (en) | Parking assistance device | |
EP1785336B1 (en) | Steering assist apparatus | |
US7755511B2 (en) | Parking assistance apparatus | |
JP5012914B2 (en) | Vehicle reverse assist device and reverse assist method | |
JP5182545B2 (en) | Parking assistance device | |
JP3592043B2 (en) | Intersection warning device | |
US7375651B2 (en) | Parking assistance apparatus | |
JP3562335B2 (en) | Parking assistance device | |
WO2006016433A1 (en) | Drive assisting device and drive assisting method | |
JP4563531B2 (en) | Vehicle driving support device | |
KR100766596B1 (en) | Vehicle steering control method for lane keeping | |
JP5012669B2 (en) | Parking assistance device, parking assistance method, and computer program | |
JP2005276057A (en) | Nose view monitoring device | |
JP4491978B2 (en) | Vehicle reverse assist device and reverse assist method | |
JP2002205615A (en) | Visual field auxiliary device for vehicle | |
JP5041983B2 (en) | Obstacle warning device, obstacle warning method, and computer program | |
JP3395725B2 (en) | Steering support device for parallel parking | |
JP5012670B2 (en) | Parking assistance device, parking assistance method, and computer program | |
JP2001322519A (en) | Vehicle backing aiding device during parking | |
JP3767610B2 (en) | Parking assistance device | |
JP4323402B2 (en) | Rudder angle correction device | |
JP3767600B2 (en) | Parking assistance device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20030424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040316 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050715 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050912 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081007 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091007 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091007 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101007 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111007 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121007 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121007 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131007 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |