JP2017004118A - 運転支援装置および運転支援方法 - Google Patents

運転支援装置および運転支援方法 Download PDF

Info

Publication number
JP2017004118A
JP2017004118A JP2015115110A JP2015115110A JP2017004118A JP 2017004118 A JP2017004118 A JP 2017004118A JP 2015115110 A JP2015115110 A JP 2015115110A JP 2015115110 A JP2015115110 A JP 2015115110A JP 2017004118 A JP2017004118 A JP 2017004118A
Authority
JP
Japan
Prior art keywords
prediction line
image
unit
vehicle
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015115110A
Other languages
English (en)
Other versions
JP6580872B2 (ja
Inventor
明英 藤尾
Akihide Fujio
明英 藤尾
周樹 村角
Shuki Murakado
周樹 村角
裕生 松本
Hiroo Matsumoto
裕生 松本
茂人 竹内
Shigeto Takeuchi
茂人 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2015115110A priority Critical patent/JP6580872B2/ja
Priority to US15/160,222 priority patent/US10242475B2/en
Publication of JP2017004118A publication Critical patent/JP2017004118A/ja
Application granted granted Critical
Publication of JP6580872B2 publication Critical patent/JP6580872B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking

Abstract

【課題】運転者の誤解を生じにくくする運転支援装置および運転支援方法を提供する。【解決手段】実施形態に係る運転支援装置は、推定部と、描画部と、消去部とを備える。推定部は、移動体上で撮像される撮像画像に基づいて、移動体の走行状態を推定する。描画部は、推定部により推定された走行状態に基づいて、移動体の予測される進行方向を示す予測線を生成し、予測線を撮像画像に重ねて描画する。消去部は、推定部によって移動体が停止していると推定された場合に、描画部によって描画された予測線を消去する。【選択図】図3

Description

本発明は、運転支援装置および運転支援方法に関する。
従来、運転者を支援する技術として、たとえば、車両のバック走行時に、車両後方の様子を車載カメラにより撮像したカメラ画像を運転者に表示する技術が提案されている。
また、かかる技術を用いて、時系列に並んだ複数のカメラ画像に基づいて車両の予測される進行方向を示す予測線を描画し、カメラ画像に重ねて表示する運転支援方法がある(たとえば、特許文献1参照)。
特開2009−017462号公報
しかしながら、上述した従来技術では、車両が停止すると、時系列のカメラ画像に変化が生じないので、停止直前の予測線が更新されずに表示されたままとなる。ところが、車両の停止中にハンドルを操作すると、表示されたままの予測線と実際の進行方向とがずれてしまう。このように、従来技術では、正確な予測線が表示されているとはいえず、運転者に誤解を生じさせる可能性がある。
本発明は、上記に鑑みてなされたものであって、運転者の誤解を生じにくくする運転支援装置および運転支援方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、運転支援装置において、推定部と、描画部と、消去部とを備える。推定部は、移動体上で撮像される撮像画像に基づいて、前記移動体の走行状態を推定する。描画部は、前記推定部により推定された走行状態に基づいて、前記移動体の予測される進行方向を示す予測線を生成し、当該予測線を前記撮像画像に重ねて描画する。消去部は、前記推定部によって前記移動体が停止していると推定された場合に、前記描画部によって描画された前記予測線を消去する。
本発明によれば、運転者の誤解を生じにくくすることができる。
図1は、実施形態に係る運転支援装置の構成例を示す図である。 図2は、実施形態に係る運転支援方法の概要を示す図である。 図3は、実施形態に係る運転支援装置の構成を示すブロック図である。 図4Aは、カメラ画像を示す図である。 図4Bは、予測線の消去を説明する図である。 図5は、予測線消去時の予測線の長さと時間との関係を示す図である。 図6は、予測線の消去の具体例を示す図である。 図7は、実施形態に係る運転支援装置で実行される処理手順を示すフローチャートである。 図8は、予測線の消去方法の変形例を示す図(その1)である。 図9は、予測線の消去方法の変形例を示す図(その2)である。 図10は、予測線の消去方法の変形例を示す図(その3)である。
以下、添付図面を参照して、本願の開示する運転支援装置および運転支援方法の実施形態を詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。また、以下の実施形態では、移動体が車両である場合について説明するが、移動体は、電車や船舶、飛行機といったものであってもよい。
また、以下では、まず、実施形態に係る運転支援装置の構成例について図1を用いて説明し、また実施形態に係る運転支援方法の概要について図1および図2を用いて説明した後に、実施形態に係る運転支援装置について図3〜図10を用いて具体的に説明することとする。なお、図8〜図10では、実施形態の変形例について説明する。
まず、実施形態に係る運転支援方法の概要について、図1および図2を用いて説明する。図1は、運転支援方法を適用した運転支援装置10の車両100での構成例を示す図である。図2は、実施形態に係る運転支援方法の概要を示す図である。
図1に示すように、車両100には、運転支援装置10と、カメラ11とが搭載される。実施形態に係る運転支援方法は、たとえば、運転支援装置10によって実行される。
カメラ11は、たとえば、車両100の後部に搭載され、領域Rを撮像するバックカメラである。カメラ11は、車両100がバック走行する場合に、領域Rを連続して撮像する。なお、カメラ11の搭載位置は、車両100の後部に限定されるものではなく、また、撮像する領域Rも、図示例の領域に限定されるものではない。
また、運転支援装置10は、たとえば、車両100の内部に搭載され、カメラ11によって撮像されたカメラ画像と、運転支援装置10によって生成された画像を重ねた重畳画像を運転者へ表示することにより、運転の支援を行う。
図2を参照して、運転支援装置10によって実行される運転支援方法について説明する。図2には、時系列の連続した重畳画像1a、1bを示しており、重畳画像1aは、重畳画像1bより時系列で前の時間に生成された画像であるものとする。
重畳画像1a、1bの車両100(運転支援装置10が搭載された車両)の一部と、他の車両110と、駐車スペース120とは、カメラ11によって撮像されたカメラ画像である。一方、重畳画像1a、1bの予測線2と、車幅線3とは、運転支援装置10によって生成された画像である。
ここで、予測線2とは、帯状の車両100の予測される進行方向の軌跡の両端、すなわち、かかる軌跡の境界線であり、たとえば、1対の線である。なお、予測線2を1対の線によって示したが、これに限定されるものではなく、たとえば、軌跡全体を色付けによって示してもよい。
また、車幅線3とは、現在の車両100の向きにおける車幅を示し、上底と両端の線で構成される台形様の形で表示している。なお、図2では、車幅線3を破線で表示した場合を例示しているが、予測線2と見分けがつけば、表示態様はこれに限定されない。また、図2では、車幅線3と、予測線2とを併せて表示しているが、車幅線3を表示しなくてもよい。
なお、車幅線3は、たとえば、予測線2と同様に、運転支援装置10の処理によってカメラ画像に重ねられるが、以下では、説明を簡略化するため、車幅線3の記載を省略する場合がある。
なお、本実施形態では、車両100が、バック走行により、両側を停止中の車両110に挟まれた駐車スペース120へ駐車する場面を一例として想定する。また、実施形態に係る運転支援方法は、車両100の前方への走行や旋回走行といった場面にも適用可能である。
図2に示す重畳画像1a、1bは、かかる場面において撮像されたカメラ画像に基づいている。車両100の運転者は、駐車スペース120へ駐車するためには、両側の車両110との接触を防ぐため、車両110へ注意を払いながら、慎重に運転することになる。
このため、運転支援装置10は、重畳画像1aに示すように、予測線2を表示することにより運転者がスムーズな運転を行えるようにする。
具体的には、まず、運転支援装置10は、カメラ11によって異なる時間に撮像された複数のカメラ画像を時系列に並べて用いる。つづいて、時系列に並べたカメラ画像を比較し、カメラ画像内の変化によって生じる差分を検出する。
つづいて、運転支援装置10は、検出された差分に基づいて、車両100がどのような進行方向へ走行するかを予測し、かかる進行方向を推定する。
つづいて、運転支援装置10は、予測された進行方向と、車両100の車幅とに基づいて車両100の予測される進行方向の軌跡を推定する。そして、かかる軌跡の両端側に一対の線である予測線2(図2上図参照)を描画し、カメラ画像に予測線2を重ねた重畳画像1aを生成し、運転者へ表示する。
たとえば、図2に示す予測線2は、重畳画像1a内において、車両100に近い基端側5から、車両100から離れた先端側4に向かって右方向に曲がる曲線を示している。これにより、運転者は、バック走行を進行方向とした場合、車両100が進行方向に対して右方向へ進行する、すなわち、駐車スペース120の方向へ進行していることを把握できる。
ここで、先端側4は、重畳画像1a内において、車両100からの距離が遠い位置を示し、また、基端側5は、車両100からの距離が近い位置を示している。
すなわち、図2の例では、車両100が徐々に右方向に進行していくことを示している。なお、先端側4と基端側5との距離、すなわち、予測線2の長さは、図2の例に限定されるものではなく、任意の長さを設定することができる。
しかしながら、予測線2は、カメラ画像に基づいて描画されるため、車両100が停止すると、時系列のカメラ画像内の変化の差分が生じなくなる。すなわち、新しい予測線が描画されなくなり、運転者に対して、停止直前のカメラ画像に基づいて描画された予測線2が更新されずに表示され続けることとなる。
ところが、たとえば、運転者が、車両100の停止中にハンドルを操作した場合、実際の車両100の舵角は変化するが、車両100が移動しないため、撮像されるカメラ画像は変化しない。すなわち、予測線2は更新されず、表示されている停止直前の予測線2の示す進行方向と実際の車両100の進行方向とがずれてしまう。
そのため、運転者は、重畳画像1aに表示されている予測線2を実際の進行方向と誤解するおそれがあり、運転者が誤解したまま、再度バック走行を再開する場合に、運転者の混乱を招き、スムーズな運転が行えなくなるおそれがある。
そこで、実施形態に係る運転支援装置10は、車両100が停止した場合に、重畳画像1aから予測線2を消去することとした。このように、運転支援装置10は、予測線2を消去した重畳画像1bを表示するので、運転者の誤解を生じにくくすることができる。
これにより、運転者が車両100の停止中にハンドルを操作した場合であっても、運転者に対して、実際の車両100の進行方向とは異なる進行方向を示す予測線2が表示され続けることを回避することができる。すなわち、運転支援装置10によれば、運転者の誤解を生じにくくすることができる。なお、運転支援装置10が行う予測線2の消去の詳細については後述することとする。
以下では、実施形態に係る運転支援装置および運転支援方法について具体的に説明する。まず、実施形態に係る運転支援装置10の構成例について、図3を参照して説明する。図3は実施形態に係る運転支援装置10の構成を示すブロック図である。なお、実施形態に係る運転支援装置10は、たとえば、カーナビ等の車載システムに搭載されるが、これに限定されるものではない。
図3に示すように、運転支援装置10は、制御部12と、記憶部13と、表示部14とを備える。また、運転支援装置10には、カメラ11が接続されている。
なお、図3では、運転支援装置10が表示部14を含む構成としたが、たとえば、運転支援装置10が表示部14を含まない構成としてもよい。また、図3では、運転支援装置10はカメラ11を含まない構成としたが、運転支援装置10がカメラ11を含む構成としてもよい。
制御部12は、取得部12aと、画像合成部12bと、推定部12cと、描画部12dと、消去部12eとを備える。制御部12の一部または全部は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)といったハードウェアで構成することができる。
記憶部13は、たとえば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子を用いることができるが、これに限定されるものではない。
記憶部13は、カメラ11から入力されたカメラ画像を画像データ13aとして記憶する。また、記憶部13は、撮像された時間を画像データ13aに対応付け、時系列に並べた複数の画像データ13aを記憶する。
取得部12aは、たとえば、入力ポートであり、カメラ11で撮像されたカメラ画像を取得する。取得部12aによって取得されたカメラ画像を示すデータは、記憶部13、画像合成部12bおよび推定部12cへそれぞれ出力される。
推定部12cは、カメラ11で撮像されたカメラ画像に基づいて車両100の走行状態を推定する。具体的には、まず、記憶部13に記憶されている複数の画像データ13aのうち、現在の時間に撮像されたカメラ画像の直前に撮像されたカメラ画像の画像データ13aを取得する。
つづいて、推定部12cは、カメラ11から取得した現在の時間のカメラ画像と、記憶部13から取得した現在の時間の直前に撮像されたカメラ画像とを比較し、カメラ画像内の変化によって生じる差分を検出する。
つづいて、推定部12cは、検出された差分に基づいて、車両100が走行中か停止中かを推定する。車両100が走行中であると推定した場合には、カメラ画像内の変化の差分に基づいて、車両100の操舵角度や走行速度といった走行状態を推定し、推定結果を示す走行推定データを描画部12dへ出力する。
また、推定部12cは、車両100が停止中であると推定した場合には、停止中の推定結果を示す停止推定データを消去部12eへ出力する。
ここで、図4Aを参照して、推定部12cによる推定処理の内容について詳しく説明しておく。図4Aは、カメラ画像を示す図である。
なお、時間T−2は、運転者がギアをバックに切り替えた時間、すなわち、車両100がバック走行を開始した時間を示し、時間T−2から時間T−1までは、バック走行中を示し、時間T−1から時間Tまでは、車両100が停止中であることを示している。すなわち、時間T−2におけるカメラ画像AT−2と、時間T−1におけるカメラ画像AT−1とは内容が異なるが、時間T−1におけるカメラ画像AT−1と、時間Tにおけるカメラ画像ATとは同一であるものとする。
図4Aの中で、カメラ画像ATは、時間Tに撮像され、カメラ画像AT−1は、時間Tより前の時間T−1に撮像され、カメラ画像AT−2は、時間T−1より前の時間T−2に撮像されたことを示している。
まず、カメラ画像AT−1およびカメラ画像AT−2を参照して、推定部12cによるバック走行時の推定内容について説明した後、カメラ画像ATおよびカメラ画像AT−1を参照して、停止時の推定内容について説明する。
まず、バック走行時の推定内容について説明する。まず、推定部12cは、カメラ11から時間T−1に撮像されたカメラ画像AT−1を取得するとともに、記憶部13に記憶されている画像データ13aから時間T−2に撮像されたカメラ画像AT−2を取得する。
つづいて、推定部12cは、時系列の連続したカメラ画像AT−1とカメラ画像AT−2とのカメラ画像間から、たとえば、勾配法やブロックマッチング法によって、同一特徴点を結んだ移動ベクトル(オプティカルフロー)を抽出し、抽出したオプティカルフローに基づいてカメラ画像内の変化の差分を検出する。
具体的には、図4A中のカメラ画像AT−1とカメラ画像AT−2とを比較した場合、カメラ画像AT−1内の駐車スペース120が、カメラ画像AT−2内の駐車スペース120に比べ、駐車スペース120の面積が大きくなっている。すなわち、カメラ画像内に変化が生じている。
そこで、推定部12cは、カメラ画像AT−1とカメラ画像AT−2とのカメラ画像間に生じた変化の差分を、たとえば、上述したオプティカルフローに基づいて検出する。そして、推定部12cは、オプティカルフローが抽出された場合、車両100が走行中であると推定する。
また、推定部12cは、車両100が走行中であると推定した場合、カメラ画像内が変化することによって生じた差分、たとえば、上述したオプティカルフローに基づいて、車両100の操舵角度や走行速度といった走行状態を推定する。そして、推定部12cは、車両100が駐車スペース120への進路を、たとえば、速度20km/h(図示せず)でバック走行していることを示す走行推定データを描画部12dへ出力する。
次に、カメラ画像ATおよびカメラ画像AT−1を参照して、推定部12cによる停止の推定内容について説明する。まず、推定部12cは、走行中の推定処理と同様に、カメラ11から時間Tに撮像されたカメラ画像ATと、記憶部13に記憶されている画像データ13aから時間T−1に撮像されたカメラ画像AT−1を取得する。
つづいて、推定部12cは、カメラ画像ATとカメラ画像AT−1とを比較し、カメラ画像内の変化によって生じる差分を検出する。しかしながら、図4A中のカメラ画像ATとカメラ画像AT−1とのカメラ画像間に変化がないため、たとえば、上述したオプティカルフローが抽出されない、すなわち、カメラ画像内の変化によって生じる差分は検出されない。
したがって、推定部12cは、差分が検出されない場合に、車両100が停止中であると推定することとし、推定結果を示す停止推定データを消去部12eへ出力する。
図3の説明に戻り、制御部12についての説明をつづける。描画部12dは、走行推定データと、車両100の車幅とに基づいて予測線2を描画する。
具体的には、描画部12dは、推定部12cから取得した車両100の操舵角度や走行速度といった走行状態、たとえば、上述したオプティカルフローのデータを含む走行推定データと、車両100の車幅とに基づいて、車両100の予測される進行方向を示す予測線2を描画する。また、描画部12dは、描画した予測線2の画像を示すデータを画像合成部12bへ出力する。
画像合成部12bは、カメラ11から取得した現在の時間に撮像されたカメラ画像と、描画部12dから取得した予測線2の画像とに基づいて、かかるカメラ画像に予測線2の画像を重ねた重畳画像を合成する。また、画像合成部12bは、合成した重畳画像を示すデータを表示部14へ出力する。
表示部14は、たとえば、液晶ディスプレイであり、画像合成部12bから出力される重畳画像を表示する。表示部14は、液晶ディスプレイに限定されるものではなく、運転者から重畳画像が視認可能であればよい。
消去部12eは、停止推定データに基づいて、予測線2を消去する。具体的には、消去部12eは、車両100が停止した場合に、推定部12cから取得した停止推定データに基づいて予測線2を消去した画像を生成する。また、消去部12eは、予測線2の消去画像を示すデータを画像合成部12bへ出力する。
画像合成部12bは、カメラ11から取得した現在の時間に撮像されたカメラ画像と、消去部12eから取得した予測線2の消去画像とに基づいて、かかるカメラ画像に予測線2の消去画像を重ねた重畳画像を合成する。
すなわち、かかる重畳画像は、停止直前に合成された予測線2を含む重畳画像から予測線2を消去した重畳画像である。また、画像合成部12bは、予測線2が消去された重畳画像を示すデータを表示部14へ出力する。
したがって、運転支援装置10は、運転者に対して、車両100が走行中の場合には、重畳画像に予測線2を表示し、車両100が停止中の場合には、重畳画像に予測線2を表示しないようにすることができる。
ここで、図4Bを参照して、描画部12dおよび消去部12eによる予測線2の処理の内容について詳しく説明する。図4Bは、予測線2の消去を説明する図である。なお、図4Bは、図4Aに対応する図であり、図4B中の時間T、時間T−1および時間T−2は、それぞれ図4A中の時間T、時間T−1および時間T−2に対応する。
図4Bには、カメラ画像ATに対応する重畳画像BTと、カメラ画像AT−1に対応する重畳画像BT−1と、カメラ画像AT−2に対応する重畳画像BT−2とを示している。
以下では、まず、描画部12dによる予測線2の描画について説明した後、消去部12eによる予測線2の消去について説明する。
描画部12dは、図4Aのカメラ画像AT−1とカメラ画像AT−2との差分に基づいて予測線2を描画した画像を生成し、画像合成部12bによって図4Bの重畳画像BT−1を合成する。
具体的には、車両100が、時間T−1から時間T−2の間に、両側を車両110に挟まれた駐車スペース120に向かって走行している場合であり、まず、描画部12dは、図4Aのカメラ画像AT−1およびカメラ画像AT−2に基づく差分によって、駐車スペース120の方向へ進行していることを示す走行推定データを取得する。
描画部12dは、かかる走行推定データに基づいて、駐車スペース120へ向かう予測線2、すなわち、車両100のバック走行を進行方向とした場合に、進行方向に対して右方向への予測線2を描画する。
したがって、運転支援装置10によれば、運転者が、図4Aに示すような車両110に挟まれた駐車スペース120へバック走行する場合に、ストレスを感じることなくスムーズな駐車が可能となる。
次に、予測線2の消去について説明する。図4Aおよび図4Bにおいて、消去部12eは、車両100が時間T−1に停止した場合、カメラ画像ATとカメラ画像AT−1とのカメラ画像間において、カメラ画像内の変化による差分が生じていないことを示す停止推定データを取得する。
つづいて、消去部12eは、停止推定データに基づいて、重畳画像BT−1に重ねて表示されている予測線2を消去する。具体的には、消去部12eは、停止推定データに基づいて予測線2を消去した画像、たとえば、無地の画像を生成する。そして、消去部12eが生成したかかる画像と、カメラ画像ATとを重ねることによって、予測線2が表示されない重畳画像BTが生成される。
すなわち、重畳画像BTは、カメラ画像AT−1と実質的に同一であるカメラ画像ATによって合成されるため、重畳画像BT−1から予測線2を消去した重畳画像になる。これにより、運転支援装置10は、運転者に誤解を生じにくくすることができる。
なお、重畳画像BT−2は、車両100がバック走行を開始した時間T−2に基づき生成されるため、直前のカメラ画像は存在しない。すなわち、推定部12cは、カメラ画像間の比較ができないため、重畳画像BT−2においては、予測線2の処理は行われず、カメラ画像AT−2に車幅線3を重ねた重畳画像を合成している。なお、重畳画像BTおよび重畳画像BT−1の車幅線3については、上述したように、説明は省略する。
また、車両100が停止した時間T−1から、推定部12cが停止したと推定する時間Tまでにタイムラグが存在することになるが、実際にはカメラ11の撮像間隔を短く設定することにより、運転者がタイムラグを認識できないようにすることも可能である。
ところで、運転支援装置10は、車両100が停止した時間Tから、予測線2の表示状態を維持する待機時間が経過した後、予測線2を消去する。
すなわち、消去部12eは、推定部12cによって、車両100が停止中であると推定されてから予測線2の消去を開始するまでを待機時間として設定するようにした。以下、この点について、図5を用いて詳細に説明する。
図5は、予測線消去時の予測線2の長さと時間との関係を示す図である。なお、予測線2の消去の具体例については、図6を用いて後述することとする。
図5に示すグラフは、時間の経過を横軸とし、予測線2の長さを縦軸とする。なお、図5において、予測線2の長さが「0」になるとは、予測線2の消去が完了したことを意味している。
図5中の時間Tは、図4Aおよび図4B中の時間Tと対応し、推定部12cが、車両100が停止中であると推定した時間である。また、時間Taは、予測線2の消去開始時間であり、時間Tbは、予測線2の消去完了時間である。
図5に示すように、運転支援装置10は、車両100が停止中と推定された時間Tから、所定の待機時間の間は予測線2を消去せずに表示させたままにすることができる。
具体的には、消去部12eは、推定部12cから取得する停止推定データに基づき予測線2を消去する。そこで、運転支援装置10は、消去を開始する前に、時間Tから消去開始時間Taまでを待機時間として設け、待機時間経過後、すなわち、消去開始時間Taから予測線2の消去を開始する。
これにより、たとえば、バック走行と短時間の停止とが繰り返される場合であっても、予測線2が表示され続けることとなり、運転者の戸惑いを緩和することができる。なお、かかる待機時間は、任意の時間に設定可能である。
また、運転支援装置10は、予測線2の消去を開始してから、消去を完了するまでを継続時間として設けることとした。以下、図5および図6を用いてかかる継続時間を設けた消去方法について説明する。図6は、予測線2の消去の具体例を示す図である。
図5に示すように、運転支援装置10は、消去開始時間Taから消去完了時間Tbまでを継続時間として設ける。具体的には、消去部12eは、推定部12cから取得した推定結果に基づいて、消去開始時間Taから予測線2の消去を開始し、徐々に時間をかけて、すなわち、「継続時間」を経て、消去完了時間Tbにおいて予測線2の消去を完了する。
なお、継続時間は、任意の時間に設定可能であり、たとえば、予測線2の信頼度の低下にあわせた時間を設定してもよい。ここで、信頼度は、車両100の実際の進行方向と、表示されている予測線2が正確に対応しているかを示している。
具体的には、車両100が停止している場合、停止時間が長いほど、運転者がハンドル操作により舵角を変更する可能性は高くなり、時間の経過とともに、車両100の実際の進行方向と、表示されている予測線2とが正確に合致している可能性は低くなっていく。
すなわち、運転者にとって、車両100が停止してからの時間が長くなるにつれて、表示されている予測線2が正確な方向を指しているかを示す信頼度が低下していくことになる。
しかしながら、運転者は、かかる予測線2の信頼度の低下を表示部14に表示されている画像からは把握することができないため、信頼度が低下するほど、運転者の誤解を生じる可能性が高くなる。
したがって、運転支援装置10は、かかる予測線2の信頼度の低下を運転者へ通知することで、誤解を生じにくくすることができる。具体的には、予測線2の消去を開始してから信頼度の低下にあわせた継続時間を設けて消去を完了することで運転者に信頼度の低下を通知する。
また、運転支援装置10は、継続時間中の予測線2をどのように消去するかの設定が可能である。かかる予測線2の消去の具体例について図6を用いて説明する。
図6に示すように、重畳画像P1は、予測線2の消去開始時の状態を示し、重畳画像P2は、予測線2の消去途中の状態を示し、重畳画像P3は、予測線2の消去が完了した状態を示す。なお、上述した継続時間とは重畳画像P1から重畳画像P3までの時間である。
図6に示すように、消去部12eは、推定部12cから取得した停止推定データに基づいて、重畳画像P1に表示されている予測線2の消去を開始する。
次いで、重畳画像P2に示すように、予測線2の長さを、重畳画像P2の車両100から離れた予測線2の先端側4から重畳画像P2の車両100付近である基端側5へ向かって徐々に短くすることにより消去する。
具体的には、消去部12eは、予測線2の長さが短い画像を複数生成し、かかる画像を予測線2が長いものから順次、画像合成部12bへ出力する。
つづいて、画像合成部12bは、消去部12eから取得した予測線2の画像を順次、カメラ画像に重ねた重畳画像、たとえば重畳画像P2を合成し、表示部14でかかる重畳画像を連続して切り替えて表示する。すなわち、予測線2の長さを徐々に短くしながら、予測線2を消去する。
なお、図6の例では、説明の便宜上、重畳画像P1と重畳画像P3との間には重畳画像P2を予測線2の長さが短い画像の代表例として示しているが、これに限定されるものではない。
また、図6において、予測線2を消去する場合、重畳画像P1の後、重畳画像P2を表示せず、重畳画像P3を表示する、すなわち、瞬間消去によって消去してもよい。
また、予測線2の長さを短くして消去する場合に、たとえば、図5では、消去開始時間Taから消去完了時間Tbまでのグラフを、直線式のグラフで表しているが、これに限定されず、たとえば、2次関数のような多項式のグラフで表してもよい。
次に、実施形態に係る運転支援装置10の具体的動作について図7を参照して説明する。図7は、運転支援装置10で実行される予測線消去の処理手順を示すフローチャートである。
図7に示すように、取得部12aは、車両100に搭載されたカメラ画像を取得する(ステップS101)。つづいて、推定部12cは、時系列に並んだ複数のカメラ画像に基づいて車両100の走行状態を推定する(ステップS102)。
つづいて、推定部12cは、ステップS102で推定した推定結果に基づいて、車両100が停止したか否かを判定する(ステップS103)。
描画部12dは、車両100が停止していないと判定された場合(ステップS103,No)、逆に言えば、車両100が走行中であると判定された場合、予測線2を描画する(ステップS104)。
つづいて、画像合成部12bは、ステップS104で描画された予測線2を現在のカメラ画像に重ねて合成した重畳画像を表示部14に表示する(ステップS105)。
一方、消去部12eは、車両100が停止したと判定された場合(ステップS103,Yes)、停止直前に描画された予測線2を消去する(ステップS106)。
つづいて、画像合成部12bは、予測線2を消去した重畳画像を表示部14に表示する(ステップS105)。
上述してきたように、実施形態に係る運転支援装置10は、推定部12cと、描画部12dと、消去部12eとを備える。推定部12cは、時系列に並んだ複数のカメラ画像に基づき、車両100が走行中か停止したかを推定する。描画部12dは、推定部12cによって走行中であると推定された場合に、車両100の予測される進行方向を示す予測線2を描画する。消去部12eは、推定部12cによって停止したと推定された場合に、停止直前に描画された予測線2を消去する。したがって、実施形態に係る運転支援装置10によれば、運転者の誤解を生じにくくすることができる。
次に、運転支援装置10の消去部12eが、予測線2の消去を開始してから継続時間を設けて消去を完了する場合に、予測線2の消去方法の変形例について、図8〜図10を参照して説明する。
なお、図8〜図10中の時間T、消去開始時間Taおよび消去完了時間Tbは、図5の時間T、消去開始時間Taおよび消去完了時間Tbと対応する。また、図5と重複する説明については簡略化するか省略する。
図8は、縦軸を予測線2の幅長としたグラフである。図8に示す変形例では、予測線2の消去開始時間Taから、消去完了時間Tbまでの継続時間において、予測線2の幅長を短くする、すなわち、予測線2を徐々に細くすることによって消去するようにした。
図9は、縦軸を予測線2の透過率としたグラフである。ここで、透過率「0%」は、予測線2は視認できるが、予測線2と重なった部分のカメラ画像は視認できない状態を示す。透過率が0より大きく、100%未満である場合、たとえば、「50%」は、半透明の予測線2と予測線2と重なった部分のカメラ画像とが視認できる状態を示す。透過率が高くなると、予測線2を通してカメラ画像をより鮮明に視認でき、一方、透過率が低くなると、予測線2がより鮮明に視認できる。透過率「100%」は、予測線2が透明のため視認できず、予測線2と重なった部分のカメラ画像が視認できる状態を示す。
図9に示すように、車両100が停止中と推定された時間Tから予測線2の消去開始時間Taまでは、予測線2の透過率は「0%」、すなわち、予測線2は表示されている。
つづいて、消去開始時間Taから消去完了時間Tbまでの継続時間中の予測線2の消去を、透過率を高くしていく、すなわち、予測線2が徐々に透明になり、重なった部分のカメラ画像が鮮明に視認できるようになる。そして、消去完了時間Tbにおいて、透過率「100%」になり、予測線2が透明になる、すなわち、消去が完了する。
また、予測線2の消去の変形例として、予測線2を点滅した後に消去してもよい。以下、図10を用いて予測線2の点滅消去について説明する。
図10は、予測線2の表示状態を示すグラフである。予測線2が「ON」の場合、予測線2は表示されている状態であり、「OFF」の場合、予測線2は非表示、すなわち、消去された状態である。
消去部12eが、予測線2の消去開始時間Taから、「ON」と、「OFF」とを交互に切り替えることにより、運転者には予測線2が消去される直前に点滅しているように見える。
また、消去部12eが、「ON」と、「OFF」との切り替え間隔を短くしていくことで、消去完了時間Tbに近づくにつれて点滅周期が短くなるように見える。以上のように、予測線2の表示を「ON」と、「OFF」とを切り替えることにより点滅した後に消去することができる。
また、上述した予測線2の消去方法の変形例を組み合わせてもよい。たとえば、図5および図10に示した消去方法を組み合わせることで予測線2の長さを短くしながら、予測線2を点滅させて消去するようにしてもよい。
したがって、上述した消去方法の変形例によれば、実施形態に係る運転支援装置10は、図5に示した予測線2の長さを短くする消去方法による効果と同様の効果を得られることは言うまでもない。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
2 予測線
4 先端側
5 基端側
10 運転支援装置
11 カメラ
12 制御部
12a 取得部
12b 画像合成部
12c 推定部
12d 描画部
12e 消去部
13 記憶部
100 車両

Claims (5)

  1. 移動体上で撮像される撮像画像に基づいて前記移動体の走行状態を推定する推定部と、
    前記推定部により推定された走行状態に基づいて前記移動体の予測される進行方向を示す予測線を生成し、当該予測線を前記撮像画像に重ねて描画する描画部と、
    前記推定部によって前記移動体が停止していると推定された場合に、前記描画部によって描画された前記予測線を消去する消去部と
    を備えることを特徴とする運転支援装置。
  2. 前記消去部は、
    前記予測線の消去を開始してから所定の継続時間を経て消去を完了すること
    を特徴とする請求項1に記載の運転支援装置。
  3. 前記消去部は、
    前記推定部によって前記移動体が停止していると推定されてから所定の待機時間を経て前記予測線の消去を開始すること
    を特徴とする請求項1または2に記載の運転支援装置。
  4. 前記消去部は、
    前記予測線を消去する場合に、前記予測線を前記移動体から離れた先端側から前記移動体の基端側へ向かって消去すること
    を特徴とする請求項1〜3のいずれか一つに記載の運転支援装置。
  5. 移動体上で撮像される撮像画像に基づいて前記移動体の走行状態を推定する推定工程と、
    前記推定工程により推定された走行状態に基づいて前記移動体の予測される進行方向を示す予測線を生成し、当該予測線を前記撮像画像に重ねて描画する描画工程と、
    前記推定工程によって前記移動体が停止していると推定された場合に、前記描画工程によって描画された前記予測線を消去する消去工程と
    を含むことを特徴とする運転支援方法。
JP2015115110A 2015-06-05 2015-06-05 運転支援装置および運転支援方法 Active JP6580872B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015115110A JP6580872B2 (ja) 2015-06-05 2015-06-05 運転支援装置および運転支援方法
US15/160,222 US10242475B2 (en) 2015-06-05 2016-05-20 Driving support device and driving support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015115110A JP6580872B2 (ja) 2015-06-05 2015-06-05 運転支援装置および運転支援方法

Publications (2)

Publication Number Publication Date
JP2017004118A true JP2017004118A (ja) 2017-01-05
JP6580872B2 JP6580872B2 (ja) 2019-09-25

Family

ID=57451293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015115110A Active JP6580872B2 (ja) 2015-06-05 2015-06-05 運転支援装置および運転支援方法

Country Status (2)

Country Link
US (1) US10242475B2 (ja)
JP (1) JP6580872B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017083232A (ja) * 2015-10-26 2017-05-18 富士通テン株式会社 車両状態判定装置、表示処理装置および車両状態判定方法
JP2019077271A (ja) * 2017-10-23 2019-05-23 アルパイン株式会社 電子装置および駐車支援方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6642280B2 (ja) * 2016-05-30 2020-02-05 アイシン精機株式会社 画像表示システム
US11776133B2 (en) * 2021-10-29 2023-10-03 Foundation For Research And Business, Seoul National University Of Science And Technology System and method for delivering content based on moving route prediction

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007176324A (ja) * 2005-12-28 2007-07-12 Aisin Seiki Co Ltd 駐車支援装置
US20080122654A1 (en) * 2006-11-28 2008-05-29 Aisin Aw Co., Ltd. Parking support method and parking support apparatus
JP2009017462A (ja) * 2007-07-09 2009-01-22 Sanyo Electric Co Ltd 運転支援システム及び車両
JP2009202724A (ja) * 2008-02-27 2009-09-10 Aisin Seiki Co Ltd 駐車支援装置
US20110095910A1 (en) * 2008-06-10 2011-04-28 Nissan Motor Co., Ltd. Parking assistance system and parking assistance method
JP2012051574A (ja) * 2011-11-14 2012-03-15 Nissan Motor Co Ltd 駐車支援装置及び駐車支援方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3714116B2 (ja) * 1999-08-09 2005-11-09 トヨタ自動車株式会社 操縦安定性制御装置
US8665116B2 (en) * 2010-07-18 2014-03-04 Ford Global Technologies Parking assist overlay with variable brightness intensity
JP5677168B2 (ja) 2011-03-31 2015-02-25 富士通テン株式会社 画像表示システム、画像生成装置及び画像生成方法
JP2016503741A (ja) * 2012-12-21 2016-02-08 ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー 自動車用の入力装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007176324A (ja) * 2005-12-28 2007-07-12 Aisin Seiki Co Ltd 駐車支援装置
US20080122654A1 (en) * 2006-11-28 2008-05-29 Aisin Aw Co., Ltd. Parking support method and parking support apparatus
JP2009017462A (ja) * 2007-07-09 2009-01-22 Sanyo Electric Co Ltd 運転支援システム及び車両
JP2009202724A (ja) * 2008-02-27 2009-09-10 Aisin Seiki Co Ltd 駐車支援装置
US20110095910A1 (en) * 2008-06-10 2011-04-28 Nissan Motor Co., Ltd. Parking assistance system and parking assistance method
JP2012051574A (ja) * 2011-11-14 2012-03-15 Nissan Motor Co Ltd 駐車支援装置及び駐車支援方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017083232A (ja) * 2015-10-26 2017-05-18 富士通テン株式会社 車両状態判定装置、表示処理装置および車両状態判定方法
JP2019077271A (ja) * 2017-10-23 2019-05-23 アルパイン株式会社 電子装置および駐車支援方法

Also Published As

Publication number Publication date
JP6580872B2 (ja) 2019-09-25
US10242475B2 (en) 2019-03-26
US20160358358A1 (en) 2016-12-08

Similar Documents

Publication Publication Date Title
CN108367721B (zh) 停车辅助装置、停车辅助方法以及停车辅助程序
JP4900326B2 (ja) 駐車支援装置及び駐車支援方法
JP6580872B2 (ja) 運転支援装置および運転支援方法
JP5309442B2 (ja) 駐車支援方法及び駐車支援装置
JP4900232B2 (ja) 車両用駐車支援装置および映像表示方法
JP2009083735A (ja) 駐車支援装置及び方法
US20160094807A1 (en) Image processing apparatus
JP5446139B2 (ja) 駐車支援装置及び駐車支援方法
JP2014189097A (ja) 駐車支援装置
JPWO2005108171A1 (ja) 駐車支援装置
JP2009248765A (ja) 駐車支援装置および駐車支援方法
JP6559083B2 (ja) 駐車支援装置および駐車支援方法
JP4023478B2 (ja) 駐車支援システム
JP2016107897A (ja) 車載装置
JP4924770B2 (ja) 駐車支援装置及び駐車支援方法
JP2011161935A (ja) 運転支援装置
JP2010081385A (ja) 運転支援装置
JP2005138716A (ja) 駐車支援装置
JP4682936B2 (ja) 車両用運転支援装置
JP7457276B2 (ja) 自動駐車装置
JP2012030796A (ja) 車両用駐車支援装置および映像表示方法
JP2018152652A (ja) 運転支援装置、運転支援方法およびプログラム
JP2018047721A (ja) 表示制御装置、表示制御方法及びプログラム
JP2012030797A (ja) 駐車支援装置及び駐車支援方法
KR20130054639A (ko) 차량용 주차 지원 시스템 및 주차 지원 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190829

R150 Certificate of patent or registration of utility model

Ref document number: 6580872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250