JP2022124232A - 車両用表示制御装置、車両用表示制御方法 - Google Patents

車両用表示制御装置、車両用表示制御方法 Download PDF

Info

Publication number
JP2022124232A
JP2022124232A JP2021021881A JP2021021881A JP2022124232A JP 2022124232 A JP2022124232 A JP 2022124232A JP 2021021881 A JP2021021881 A JP 2021021881A JP 2021021881 A JP2021021881 A JP 2021021881A JP 2022124232 A JP2022124232 A JP 2022124232A
Authority
JP
Japan
Prior art keywords
vehicle
boundary line
display control
recognition
lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021021881A
Other languages
English (en)
Inventor
和寿 石丸
Kazuhisa Ishimaru
猛 羽藤
Takeshi Hado
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2021021881A priority Critical patent/JP2022124232A/ja
Publication of JP2022124232A publication Critical patent/JP2022124232A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車両の走行路に関する案内画像が実景とずれて表示される恐れを低減可能な車両用表示装置、車両用表示制御方法を提供する。【解決手段】自車両が走行している車線である自車レーンの境界線に対する画像認識結果に基づき、自車レーンの地点ごとの延伸方向(つまり形状)を特定する。そして、当該認識されているレーン形状と、地図データが示す道路の形状とが整合しているかを検証し、乖離度合いが所定の閾値未満となっている範囲である整合範囲を特定する。HUDで表示する案内画像のうち、整合範囲内に位置する画像については通常通り表示を行う一方、整合範囲外に位置する画像については表示を省略するか、透明度を上げるなど、目立たない態様に変更して表示する。【選択図】図15

Description

本開示は、車両の前方の景色に重畳表示する画像の表示態様を制御する技術に関する。
車両が進むべき方向などを示す案内画像を、車両前方の実景に表示する技術が開発されている。特許文献1には、カメラ画像を解析することで、前方のレーン境界線の位置を検出し、当該レーン境界線の位置に応じて案内画像の表示位置を調整する技術が開示されている。
特開2018-167698号公報
レーン境界線等の画像認識結果は誤りうる。例えばレーン境界線ではないものをレーン境界線と誤検出したり、実在するレーン境界線を検出できなかったりする。そして、案内画像の表示位置を決定するための地物としてのレーン境界線の位置が誤認識されると、案内画像の表示位置が実景と整合しなくなり、運転席乗員に違和感を与えてしまうおそれがある。
本開示は、この事情に基づいて成されたものであり、その目的とするところは、車両の走行路に関する案内画像が実景とずれて表示される恐れを低減可能な車両用表示装置、車両用表示制御方法を提供することにある。
その目的を達成するための車両用表示制御装置は、車両の走行路に関する案内画像を車両の前方に位置する景色に重ねて表示するための車両用表示制御装置であって、撮像装置が撮像した車両前方の画像データに基づいて認識された、所定の基準物の位置及び形状を示す基準物認識データを取得する認識情報取得部(F1)と、案内画像を生成する画像生成部(F5)と、地図データ及び先行車の走行軌跡の少なくとも何れか一方を用いて、車両の前方に存在する道路の形状を示す道路形状データを取得する道路形状取得部(F2)と、基準物認識データが道路形状データと整合している範囲である整合範囲を特定する整合範囲特定部(F4)と、認識情報取得部が取得した基準物認識データが示す基準物の位置に応じて案内画像の左右方向における表示位置を調整する表示制御部(F6)と、を備え、表示制御部は、整合範囲の内側と外側とで、案内画像の表示態様、及び、左右方向における表示位置を決定するためのパラメータの少なくとも何れか一方を変更する。
上記構成によれば、整合範囲の内側か外側によって案内画像の表示態様または表示位置を調整するためのパラメータが変更される。そのため、車両の走行路に関する案内画像が実景とずれて表示される恐れを低減可能となる。
また上記目的を達成するための車両用表示制御方法は、車両の走行路に関する案内画像を車両の前方に位置する景色に重ねて表示するための車両用表示制御方法であって、
撮像装置が撮像した車両前方の画像データに基づいて認識された、所定の基準物の位置及び形状を示す基準物認識データを取得すること(S101)と、案内画像を生成すること(S301)と、地図データ及び先行車の走行軌跡の少なくとも何れか一方を用いて、車両の前方に存在する道路の形状を示す道路形状データを取得すること(S102)と、基準物認識データが道路形状データと整合している範囲である整合範囲を特定すること(S104~S108)と、基準物認識データが示す基準物の位置に応じて案内画像の左右方向における表示位置を調整すること(S303)と、整合範囲の内側と外側とで、案内画像の表示態様、及び、左右方向における表示位置を決定するためのパラメータの少なくとも何れか一方を変更すること(S305)と、を含む。
上記車両用表示制御方法は、前述の車両用表示制御装置によって実行される方法に対応するものであり、車両用表示制御装置と同様の作用により、同様の効果を奏する。
なお、特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。
HCUに接続するデバイスの一例を示すブロック図である。 カメラの構成を示すブロック図である。 HCUの機能ブロック図である。 認識情報取得部の作動を説明するための図である。 レーン境界線の認識点に基づく回帰線について説明するための図である。 認識境界線の設定態様について説明するための図である。 案内画像の一例を示す図である。 案内画像の一例を示す図である。 案内画像の一例を示す図である。 案内画像の一例を示す図である。 案内画像の一例を示す図である。 整合範囲特定処理についてのフローチャートである。 局所検証処理についてのフローチャートである。 延伸方向差ΔAについて説明するための図である。 表示制御処理についてのフローチャートである。 本開示の作動を説明するための図である。 本開示の作動を説明するための図である。 システム構成の変形例を示す図である。 距離誤差ΔXについて説明するための図である。 距離誤差ΔXを用いて整合範囲を特定する場合の局所検証処理に対応するフローチャートである。
以下、本開示の実施形態について図を用いて説明する。
<全体構成について>
図1は、本開示に係る車両用表示システムSysの概略的な構成の一例を示す図である。図1に示すように車両用表示システムSysは、HCU1、ナビゲーション装置2、カメラ3、V2X車載器4、入力装置5、HUD6、ディスプレイ7、及びスピーカ8を備えている。
部材名称中のECUは、Electronic Control Unitの略であり、電子制御装置を意味する。HMIは、Human Machine Interfaceの略であり、HCUは、HMI Control Unitの略である。V2XはVehicle to X(Everything)の略で、車を様々なものをつなぐ通信技術を指す。HUDは、ヘッドアップディスプレイ(Head-Up Display)を指す。
ナビゲーション装置2、カメラ3、及びV2X車載器4はそれぞれ、車両内に構築された通信ネットワークである車両内ネットワークIvNを介してHCU1と相互通信可能に接続されている。また、入力装置5、HUD6、ディスプレイ7、及びスピーカ8はそれぞれ、所定のケーブルでHCU1と直接的に接続されている。なお、ここで開示する装置間の接続態様は一例であって適宜変更可能である。例えばナビゲーション装置2やカメラ3などは車両内ネットワークIvNを介さずにHCU1と接続されていても良い。また、入力装置5やHUD6などは車両内ネットワークIvNを介してHCU1と接続されていても良い。
HCU1は、ナビゲーション装置2やカメラ3から提供される情報や、入力装置5からの入力信号に基づき、HUD6などの情報提示デバイスの表示画面を制御する。例えばHCU1は、ナビゲーション装置2からの要求に基づき、案内画像をHUD6に表示する。HCU1が車両用表示制御装置に相当する。
このようなHCU1は、プロセッサ11、RAM12、ストレージ13、通信インターフェース14、及びこれらを接続するバス等を備えたコンピュータを主体として構成されている。プロセッサ11は、RAM12と結合された演算処理のためのハードウェアである。プロセッサ11は、CPU(Central Processing Unit)等の演算コア、換言すればプロセッサを少なくとも一つ含む構成である。プロセッサ11は、RAM12へのアクセスにより、後述する各機能部の機能を実現するための種々の処理を実行する。ストレージ13は、フラッシュメモリ等の不揮発性の記憶媒体を含む構成である。ストレージ13には、プロセッサ11によって実行される所定のプログラムである車両用表示制御プログラムが格納されている。プロセッサ11が車両用表示制御プログラムを実行することは、車両用表示制御方法として、車両制御プログラムに対応する方法が実行されることに相当する。通信インターフェース14は、車両内ネットワークIvNを介して他の装置と通信するための回路である。通信インターフェース14は、アナログ回路素子やICなどを用いて実現されればよい。HCU1の詳細については別途後述する。
ナビゲーション装置2は、HCU1と連携し、乗員によって設定された目的地までの経路案内を実施する装置である。ナビゲーション装置2は、プロセッサ、RAM、記憶部、入出力インターフェース、及びこれらを接続するバス等を備えたマイクロコンピュータを主体に構成されている。ナビゲーション装置2は、自車両の位置情報及び方角情報を、図示しないGNSS(Global Navigation Satellite System)受信機や、慣性センサ、車速センサの出力信号を元に特定する。
また、ナビゲーション装置2は、ナビ地図記憶部21を含む。ナビ地図記憶部21は、ナビゲーション用の地図データであるナビ地図データが格納されている記憶装置である。ナビ地図記憶部21は、不揮発性メモリを主体に構成されている。ナビ地図記憶部21に格納されたナビ地図データには、道路についてのリンクデータ、ノードデータ等が記載されている。ノードデータは、複数の道路が交差、合流、分岐する地点(以降、ノード)に関するデータである。リンクデータは、ノード間を結ぶ道路セグメントであるリンクに関するデータである。ノードデータには、ノードごとの位置座標、その形状、交差点名称、及び接続リンクごとの情報などを含む。接続リンクごと情報とは、ノードに接続しているリンクが伸びる方向などを含む。リンクデータは、リンクごとの形状や、車線情報、始端ノードのID、終端ノードのIDなどを含む。また、リンクデータには、自動車専用道路であるか、一般道路であるかといった、道路種別を示すデータも含まれていてもよい。ここでの自動車専用道路とは、歩行者や自転車の進入が禁止されている道路であって、例えば高速道路などの有料道路などを指す。
ナビゲーション装置2は、HCU1を通じて、入力装置5に入力された操作情報を取得し、ユーザ操作に基づき目的地を設定する。ナビゲーション装置2は、目的地までの複数経路を、例えば時間優先及び距離優先等の条件を満たすように探索する。探索された複数経路のうちの一つが選択されると、ナビゲーション装置2は、当該設定経路に基づく経路情報を、関連するナビ地図データと共に、車両内ネットワークIvNを通じて、HCU1に提供する。
カメラ3は、車両に取り付けられてあって、車室外を所定の画角で撮像するカメラである。カメラ3は、例えば車両前方を撮像するように、フロントガラスの車室内側の上端部や、フロントグリル、ルーフトップ等に配置された、フロントカメラである。カメラ3は車両側方を撮像するサイドカメラであってもよいし、車両後方を撮像するリアカメラであってもよい。
カメラ3は、図2に示すように、画像フレームを生成するカメラ本体部31と、画像フレームに対して認識処理を施す事により、所定の検出対象物を検出するECU(以降、カメラECU32)と、を備える。カメラ本体部31は少なくともイメージセンサとレンズとを含む構成であって、所定のフレームレート(例えば60fps)で撮像画像データを生成及び出力する。カメラECU32は、CPUや、GPUなどを含む画像処理チップを主体として構成されており、機能ブロックとして識別器G1を含む。識別器G1は、カメラ本体部31で生成された画像の特徴量ベクトルに基づき、物体の種別を識別する構成である。識別器G1には、例えばディープラーニングを適用したCNN(Convolutional Neural Network)やDNN(Deep Neural Network)などを利用可能である。識別器G1は、色、輝度、色や輝度に関するコントラスト等を含む画像情報に基づいて、撮像画像から背景と検出対象物とを分離して抽出する。
カメラ3の検出対象物には、例えば、歩行者や、他車両などの移動体が含まれる。他車両には自転車や原動機付き自転車、オートバイも含まれる。また、カメラ3は、所定の地物も検出可能に構成されている。カメラ3が検出対象とする地物には、道路端や、路面標示、道路沿いに設置される構造物が含まれる。路面標示とは、交通制御、交通規制のための路面に描かれたペイントを指す。例えば道路標示には、レーンの境界を示すレーン境界線(いわゆるレーンマーカ)や、横断歩道、停止線、導流帯、安全地帯、規制矢印などが含まれる。レーン境界線には、チャッターバーやボッツドッツなどの道路鋲によって実現されるものも含まれる。道路沿いに設置される構造物とは、例えば、ガードレール、縁石、電柱、道路標識、信号機などである。
例えばカメラECU32は、レーン境界線や道路端といった地物の自車両からの相対距離および方向(つまり相対位置)、移動速度などを、SfM(Structure from Motion)処理等を用いて画像から算出する。自車両に対する地物の相対位置は、画像内における地物の大きさや傾き度合いに基づいて特定してもよい。
検出物の位置は、例えば自車の基準点を原点とする3次元座標系である車両座標系で表現される。この車両座標系を構成するX軸は車両の左右方向に平行であって、例えば右方向を正方向とするように設定されている。Y軸は車両の前後方向に平行であって、車両の前方に向かう方向を正方向とするように設定されている。Z軸は車両高さ方向に対応するように設定される。例えばカメラECU32は、道路端やレーン境界線の複数の認識点のそれぞれの位置を車両座標系で示したデータを生成する。なお、車両座標系はZ軸を省略した2次元座標系であってもよい。
また、カメラECU32は、レーン境界線及び道路端の位置及び形状に基づいて、走路の曲率や幅員、勾配等の形状などを示す走行路データを生成する。なお、レーン境界線などの認識点の位置は、画像座標系で表現されても良い。画像座標系は、例えば画像の左上隅部の画素の中心を原点とし、画像右方向がX軸正方向、画像下方向がY軸正方向として定義される。画像座標系では、画素の中心が整数値をもつように定義されうる。
なお、カメラECU32は、路面の左右方向の終端部を道路端として検出する。例えば道路の外側が未舗装の地面である場合には、当該舗装路と未舗装部分の境界を画像フレームの輝度分布を解析することにより(例えばエッジ検出により)道路端として検出する。また、歩道用の段差等、立体的な構造物が道路の端部に形成されている場合には、当該構造物と路面との接合部分、つまり当該構造物の最下部を道路端として検出する。路面から立設する部分もまた、画像フレームの輝度分布を解析することにより、道路端として検出可能である。その他、カメラECU32は側壁やガードレールなどの位置を道路端の位置として出力するように構成されていても良い。
加えて、カメラECU32は、SfMに基づき自車両に作用しているヨーレート(回転角速度)を算出する。カメラECU32は、検出物の相対位置や種別等を含む検出結果データを、車両内ネットワークIvNを介してHCU1に逐次提供する。
なお、カメラ3が備える機能の一部は、HCU1や運転支援ECUが備えていても良い。例えば画像解析による物体認識処理や相対位置の演算処理は、HCU1や運転支援ECUが実行してもよい。その場合、カメラ3は、物体認識用の画像フレームをHCU1等に提供するように構成されていても良い。カメラ3が撮像装置に相当する。
V2X車載器4は、自車両が他の装置と無線通信を実施するための装置である。なお、V2Xの「V」は自車両としての自動車を指し、「X」は、歩行者や、他車両、道路設備、ネットワーク、サーバなど、自車両以外の多様な存在を指しうる。V2X車載器4は、通信モジュールとして、例えば広域通信部と狭域通信部を備える。広域通信部は、所定の広域無線通信規格に準拠した無線通信を実施するための通信モジュールである。ここでの広域無線通信規格としては例えばLTE(Long Term Evolution)や4G、5Gなど多様なものを採用可能である。なお、広域通信部は、無線基地局を介した通信のほか、広域無線通信規格に準拠した方式によって、他の装置との直接的に、換言すれば基地局を介さずに、無線通信を実施可能に構成されていても良い。つまり、広域通信部はセルラーV2Xを実施するように構成されていても良い。自車両は、V2X車載器4の搭載により、インターネットに接続可能なコネクテッドカーとなる。
V2X車載器4が備える狭域通信部は、通信距離が数百m以内に限定される通信規格(以降、狭域通信規格)によって、自車両周辺に存在する他の移動体や路側機と直接的に無線通信を実施するための通信モジュールである。他の移動体としては、車両のみに限定されず、歩行者や、自転車などを含めることができる。狭域通信規格としては、IEEE1609にて開示されているWAVE(Wireless Access in Vehicular Environment)規格や、DSRC(Dedicated Short Range Communications)規格など、任意のものを採用可能である。
V2X車載器4は、自車両の走行状態を示す車両情報を含んだ通信パケットを送信するとともに、他車両の車両情報を含んだ通信パケットを受信する。車両情報には、現在位置、進行方向、車速、加速度などが含まれる。車両情報を含む通信パケットには、車両情報のほかに、当該通信パケットの送信時刻や、送信元情報などの情報を含む。送信元情報とは、送信元に相当する車両に割り当てられている識別番号(いわゆる車両ID)を指す。自車両の車両情報である自車両情報を示すデータセットは、例えば車両内ネットワークを流れる種々のデータに基づき、V2X車載器4が生成してもよいし、HCU1や運転支援ECUなどで生成されてもよい。また、他車両から受信した車両情報である他車両情報は、受信次第、HCU1や運転支援ECUに出力する。
入力装置5は、乗員による車両に対する種々の入力操作を受け付けるための装置である。入力装置5としては、たとえば、ディスプレイの表示面に重畳されたタッチパネルや、メカニカルスイッチなどを採用可能である。メカニカルスイッチは、ステアリングホイールやインストゥルメントパネル、センターコンソールなどに配置されうる。また、音声入力を行うためのマイクを入力装置5として設けることもできる。さらに、乗員が所持するスマートフォンがHCU1又はナビゲーション装置2と有線又は無線接続している場合には、当該スマートフォンを入力装置5として援用可能である。
HUD6は、HCU1と電気的に接続されており、HCU1にて生成された映像データを取得する。HUD6は、プロジェクタ、スクリーンおよび拡大光学系等によって構成されている。拡大光学系とは、例えば凹面鏡やレンズなどである。HUD6は、スクリーンとしてのウィンドシールドの下方にて、インストゥルメントパネル内の収容空間に収容されている。
HUD6は、虚像として結像される表示像の光を、ウィンドシールドの投影範囲へ向けて投影する。ウィンドシールドへ向けて投影された光は、投影範囲において運転席側へ反射され、ドライバによって知覚される。ドライバは、投影範囲を通して見える前景中の重畳対象に、虚像が重畳された表示を視認する。虚像は、例えば路面や前走車等を含む実景に所定のコンテンツ画像が重畳された、いわゆる拡張現実(AR:Augmented Reality)表示を実現する。コンテンツ画像とは、例えばナビゲーション装置2に設定された走行経路を示す案内画像や、運転支援システムの作動状態を示すアイコン画像、走行速度画像、警告画像などである。その他、HUD6はHCU1からの制御に基づき、例えばブレーキ操作など、車両に対する特定の操作を促す情報表示等をドライバに提示する。
ディスプレイ7は、インストゥルメントパネルに設けられた、画像を表示するデバイスである。ディスプレイ7は、例えば、インストゥルメントパネルの車幅方向中央部に設けられた、いわゆるセンターディスプレイである。ディスプレイ7は運転席の正面、いわゆるメータクラスタに配置された、メータディスプレイであってもよい。ディスプレイ7は、フルカラー表示が可能なものであり、液晶ディスプレイ、OLED(Organic Light Emitting Diode)ディスプレイ、プラズマディスプレイ等を用いて実現できる。ディスプレイ7は、HUD6との区別のため、実像ディスプレイやインパネディスプレイと呼ぶこともできる。
スピーカ8は、HCU1から入力される信号に基づき、車両の車室内で音声を発生させる。音声出力の種類としては、所定のテキストを読み上げる音声メッセージや、音楽と、アラームなどがある。音声との表現には、単なる音も含まれる。
<HCU1の機能について>
HCU1は図3に示すように、種々の機能部を備える。すなわち、HCU1は、認識情報取得部F1、地図情報取得部F2、先行車情報取得部F3、整合範囲特定部F4、画像生成部F5、及び表示制御部F6を備える。認識情報取得部F1は、境界線位置決定部F11を備える。また表示制御部F6がより細かい機能部として、表示位置決定部F61と透明度調整部F62とを備える。
認識情報取得部F1は、カメラ3から画像認識結果としてのデータを取得する。例えば認識情報取得部F1は、自車両前方に存在する他の移動体や、地物、障害物などの位置や、移動速度などを取得する。地物には、ガードレールや側壁のほか、所定のランドマークが含まれる。本開示におけるランドマークとは、車両の縦方向位置を推定するための目印として利用可能な地物を指す。ランドマークとして用いる地物の種別は適宜変更可能である。ランドマークとしては、例えば方面看板などの交通標識や、一時停止線などの路面標示など、道路に沿って離散的に配置されてあって、かつ、経時変化が乏しい地図要素を採用可能である。
また認識情報取得部F1は、レーン境界線及び道路端(以降、レーン境界線等)の認識点列を示すデータを取得する。また、認識情報取得部F1は、道路端やレーン境界線の認識結果に基づき道路の勾配や曲率などを取得する。
なお、レーン境界線についての認識結果は、図4に示すように、自車両が走行しているレーンである自車レーンLeの右側境界を示す右側境界線eBR、及び、自車レーンの左側境界を示す左側境界線eBLのそれぞれについてのデータを含む。自車レーンはエゴレーンと呼ばれることもある。また、カメラ3から提供されるレーン境界線の情報としては、自車レーンLeについての情報だけでなく、隣接する他のレーン境界線についての情報を含みうる。自車レーン境界線以外のレーン境界線が他車レーン境界線に相当する。
便宜上、自車レーンの左側に隣接するレーンのことを左隣接レーンLp、右側に隣接するレーンのことを右隣接レーンLqとも記載する。左隣接レーンLpの右側境界線は、自車レーンの左側境界線eBLに相当する。また、自車レーンLeの左側境界線eBLよりも1つ左側に位置するレーン境界線は、左隣接レーンLpの左側境界を規定するレーン境界線pBLに相当する。右隣接レーンLqの左側境界線は、自車レーンLeの右側境界線eBRに相当する。また、自車レーンLeの右側境界線eBRよりも1つ右側に位置するレーン境界線は、右隣接レーンLqの右側境界を規定するレーン境界線qBRに相当する。なお、図4は、片側3車線の道路において、左端から2番目(つまり中央車線)を自車両が走行している状態を例示している。図4に示すEgLは左側道路端を、EgRは右側道路端を示している。
境界線位置決定部F11は、レーン境界線ごとの認識点を統計的に処理することで、レーン境界線毎の3次元位置を決定する構成である。例えば境界線位置決定部F11は、各レーン境界線の認識点の集合を母集団として、各レーン境界線の位置を近似的に示す線である近似曲線を算出する。例えば境界線位置決定部F11は、自車レーンの右側境界線eBRの認識点を母集団として右側境界線eBRの回帰式を算出する。同様に、左側境界線eBLの認識点を母集団として左側境界線eBLの回帰式Gyを算出する。隣接レーンや道路端に対しても同様に、対応する認識点の集合を母集団として、回帰式を算出する。回帰式Gyは複数の検出点の分布を近似的に表す直線または曲線に相当する関数であって、例えば最小二乗法等によって算出される。
レーン境界線等の回帰式は、例えばY座標を変数とする3次関数で表現される。例えば回帰式は、x=G(y)として表現されうる。回帰式の次元数は適宜変更可能であって、回帰式は1次関数や3次関数、指数関数であってもよい。以降では回帰式が表す直線または曲線を回帰線とも称する。
以降では説明の都合上、近似曲線のうち、図5に示すように、認識点が存在する範囲、換言すればレーン境界線を検出できている範囲に対応する区間を観測範囲Roと称するとともに、最遠方認識点PLよりも外側の区間を推定範囲Reと称する。最遠方認識点PLは、処理対象とするレーン境界線を構成する認識点の集合の中で、最も遠方に位置する認識点である。最遠方認識点PLはレーン境界線ごとに存在しうる。例えば右側境界線eBRと左側境界線eBLのそれぞれに対して最遠方認識点PLが存在する。
レーン境界線の回帰線において推定範囲Reに相当する区間については、元となる認識点が存在しないため、図5に示すように実際のレーン境界線と異なりやすい。特に遠方側は画像内におけるレーン境界線を示す画像情報(画素)が少なくなるため、認識による横位置誤差が大きくなりうる。遠方側で認識点の位置と実際の位置との誤差が大きいと、その後の回帰曲線が伸びる方向と、実際にレーン境界線が伸びる方向とのギャップが増大してしまう。また、カメラ3の撮像画像においてレーン境界線上に他車両のエッジが重なっている場合、当該他車両のエッジをレーン境界線の一部と誤認識して、レーン境界線の回帰線が実際のレーン延伸方向から大きくずれうる。
回帰線をレーン境界線の実在位置としてそのまま採用する構成では、レーン境界線の回帰線が大きくずれると、自車レーン上に重畳表示されるべき画像が自車レーンから外れた位置に表示され、ユーザに違和感を与えてしまう。なお、ここでのレーン延伸方向とはレーンが伸びていく方向であって、方位角などの絶対方向、又は、自車両などを基準とする相対方向で表現されうる。道路延伸方向についても同様に、道路が伸びる方向を指す。分岐用のレーンなどを除き、基本的には道路延伸方向とレーン延伸方向は略一致する。
そのような事情から、本実施形態の境界線位置決定部F11は、観測範囲Roにおいては回帰線をレーン境界線の位置を示すデータとして採用する。一方、推定範囲Reに相当する区間については図6に示すように、回帰線ではなく、最遠方認識点PLでの接線を、レーン境界線の位置を示すデータとして採用する。換言すれば、最遠方認識点PLよりも自車両側においては回帰線上にレーン境界線が存在すると判定する一方、最遠方認識点PLよりも遠方においては最遠方認識点PLでの接線方向にレーン境界線が存在すると判定する。図5、図6に示すL_Gyは回帰線を示す。また、図6に示すL_Tyは最遠方認識点PLでの回帰線の接線である遠方点接線を示す。遠方点接線は代替接続線に相当する。このように境界線位置決定部F11は、回帰線L_Gyと、及び、遠方点接線L_Tyとを用いて、レーン境界線の位置を特定する。換言すれば、自車レーン境界線の横位置(x座標)は次の式1a、1bで定義されうる。y_plは、最遠方認識点PLのy座標である。
式1a:x=G(y)=a・y^2+b・y+c (y≦y_pl)
式1b:x=T(y)=α・(y-y_pl)+β (y>y_pl)
G(y)は、実際の認識点を母集団として定まる回帰式を表す。a、b、cは回帰式の係数である。また、T(y)は、最遠方認識点PLでの接線を示す。αは、y=y_plであるときの傾きを表し、α=2・a・y_pl+bに相当する。βは、式1aで表現される曲線と式1bで表現される直線とが最遠方認識点PLで連続的に接続するように設定される係数であって、数学的に定まる。例えばβは式1aにy=y_plを代入した際のxの値となる。
なお、ここでは説明の都合上、或いは処理負荷軽減のため、路面は概ね平坦であるとみなし、XY平面でのレーン境界線の位置を決定する構成を開示したが、もちろんZ軸方向を考慮して3次元位置を決定するように構成されていても良い。また、レーン境界線の位置は車両座標系ではなく画像座標系で算出されてもよい。さらに、いったん画像座標系で算出された後に、後述する地図データとの比較のために車両座標系に変換されても良い。
その他、認識情報取得部F1は、レーン境界線位置の決定方法と同様の方法により、道路端の認識点を母集団として、左右の道路端の位置も決定しうる。以降では、境界線位置決定部F11が上記方法によって特定したレーン境界線のことを認識境界線ReBとも称する。すなわち、以降における認識境界線ReBは、1つの実施の形態において上記式1a、1bで表現されるレーン境界線と解する事ができる。ただし、認識境界線ReBは、他の態様においては、認識点列そのものでもよいし、認識点列を結ぶ回帰線でもよい。自車レーンについてのレーン境界線が基準物に相当する。また、認識境界線ReBについてのデータが基準物認識データに相当する。つまり、基準物認識データは、自車レーン境界線の認識点列そのものであってもよいし、認識点列を母集団として設定される近似線を示すデータであってもよい。認識情報取得部F1が取得したデータおよび境界線位置決定部F11が決定したレーン境界線の位置情報は整合範囲特定部F4や表示制御部F6に出力される。
地図情報取得部F2は、ナビゲーション装置2から現在位置から所定距離以内となる区間についての道路形状を示す地図データを取得する。ここでの所定距離は、地図データの読み出し範囲を規定するパラメータであって、例えば200mである。読み出し範囲は、自車両の前方500mや750m、1kmなどであっても良い。読み出し範囲は、走行路の種別に応じて調整されても良い。ここでの走行路は、自車両が走行している道路を指す。また、走行路との表現には自車両がこれから走行予定の道路、換言すれば走行すべき道路領域も含まれうる。例えば車速が大きいほど、読み出し範囲は長く設定されうる。また、読み出し範囲は、走行路が高速道路である場合には、走行路が一般道路である場合よりも長く設定されてもよい。
便宜上、自車両前方所定距離以内の道路形状情報を含む、局所的な地図データのことを前方地図データとも称する。道路形状の概念には、曲率や勾配、幅員などが含まれる。また、さらには、道路形状情報には、車線数や、右折専用レーン、左折専用レーンなどといった車線情報などが含まれることが好ましい。地図情報取得部F2が取得した地図データは整合範囲特定部F4や表示制御部F6に出力される。地図情報取得部F2が道路形状取得部の一例に相当する。
先行車情報取得部F3は、車車間通信で取得した他車両情報に基づき、自車両の前方を走行する車両の軌跡を特定する。自車両の前方には、正面方向に限らず、斜め前方も含めることができる。走行軌跡の特定対象には、自車レーン上に存在する車両に限らず、隣接レーンを走行する車両を含めることができる。便宜上、自車両の前方において自車レーン上を走行する車両を先行車と称するとともに、自車両前方において隣接レーンを走行する車両のことを側方先行車と称する。先行車と側方先行車とを区別しない場合には周辺車両と記載する。周辺車両の走行軌跡は、車両座標系で表現されうる。
なお、周辺車両の走行軌跡を特定する手段は、車車間通信に限定されない。カメラ3での認識結果に基づいて、周辺車両の走行軌跡を算出しても良い。車々間通信で取得した他車両情報とカメラ3での画像認識結果とを組み合わせて周辺車両の走行軌跡を特定しても良い。先行車情報取得部F3は、認識情報取得部F1が備えていても良い。先行車情報取得部F3が取得した先行車の走行軌跡データは、整合範囲特定部F4や表示制御部F6に出力される。先行車情報取得部F3もまた道路形状取得部の一例に相当する。
整合範囲特定部F4は、自車レーンの範囲を規定するレーン境界線eB、すなわち左側境界線eBLと右側境界線eBRの認識位置が、道路形状情報と整合している範囲である整合範囲を特定する。ここでの認識位置は、1つの局面において、境界線位置決定部F11が実際の認識点をもとに統計的に決定した位置と解することができる。すなわち、回帰線や最遠方認識点PLでの接線上に沿う位置をレーン境界線の認識位置として採用することができる。また、他の局面においては、レーン境界線の認識位置として、認識点の位置そのものを採用してもよい。整合範囲は1つの側面において、車両前後方向において自車レーン境界線の認識位置が地図情報と整合している範囲に相当する。ここでの整合とは完全一致に限らない。誤差が所定の許容範囲に収まっている状態も含まれる。整合範囲特定部F4の詳細は別途後述する。整合範囲特定部F4が特定した整合範囲についてのデータは表示制御部F6に出力される。
画像生成部F5は、HUD6を用いて表示するための画像であるHUD画像を生成する構成である。HUD画像としては、自車両の進路を示すターンバイターン画像や、自車レーンの範囲を強調表示するレーン強調画像などありうる。
ターンバイターン画像としては、図7に示すように路面に平行な視覚的態様で表示される進行方向に応じた矢印画像や、図8に示す通り、三角形などの相対的に小さいアイコン画像を進行方向に沿って所定間隔で配置された画像等が挙げられる。また、レーン強調画像としては、レーン幅強調画像や境界線強調画像が含まれる。レーン幅強調画像は、図9に示すように、自車レーン内において幅方向に伸びる線状又は帯状の要素画像が自車レーンの延伸方向に沿って配置された画像に相当する。境界線強調画像は、自車レーン境界線そのものを強調する画像である。境界線強調画像には、図10に示すように自車レーン境界線に重畳表示されるライン状の画像と、図11に示すように自車レーン境界線から立設する壁を模した半透明なポリゴン画像である疑似壁画像など、多様なパターンが想定される。
ターンバイターン画像や、自車レーンの範囲を強調表示するレーン強調画像など、進路や走行路についての情報を示すHUD画像が案内画像に相当する。なお、ここでの進路を示す案内画像とは、道なりでよいのか、右左折するのかなどを、路面に平行な仮想面に投影した矢印等で示す画像に相当する。また、走行路を示す案内画像とは、自車レーン境界線や、自車レーンに相当する道路領域を明示するための画像を指す。図7~図11に示すGPは案内画像としてのHUD画像を示している。なお、図中のドットパターンのハッチングは、案内画像に相当する要素を強調するためのものである。実際の表示画像は必ずしもドットパターンの模様が有するわけではない。案内画像は、例えば青色や緑色、黄色、赤色などの所定の透明度を有する有色半透明な画像として表示されうる。もちろん、画像の表示態様は適宜変更可能である。
各種画像は、ストレージ13に保存されている素材データを元に描画される。なお、HCU1は図7~図11に示す全ての種類の画像を描画可能に構成されている必要はない。また、画像のデザインも適宜変更可能である。複数種類の画像を描画可能に構成されている場合、何れの画像を生成するかは車両の状態や走行環境、整合範囲の内外かに応じて表示制御部F6に基づき、選択的に決定されてもよい。画像生成部F5が生成したHUD画像のデータは、表示制御部F6に入力される。
表示制御部F6は、HUD画像の表示態様を変更する構成である。表示態様の変更には、表示位置の調整も含まれる。また、表示態様を変更することの概念には、表示する画像の種類や、形状、色合い、透明度、明滅パターンなどの何れかを変更することも含まれる。表示位置決定部F61は、自車レーンの左右のレーン境界線を基準に、HUD画像を配置する位置を決定する。ターンバイターン画像やレーン幅強調画像については、左側境界線eBLと右側境界線eBRの認識結果の両方に基づき、自車レーンの中心に沿って表示されるように左右方向の表示位置を調整する。また、境界線強調画像については、左側境界線eBLと右側境界線eBRの認識結果のそれぞれに基づき、レーン境界線そのものに沿うように表示位置を調整する。表示位置の調整に使用するためのレーン境界線の位置情報としては、例えば、境界線位置決定部F11によって決定された値が適用される。透明度調整部F62は、整合範囲特定部F4が特定している整合範囲内とその外側とで、HUD画像の透明度を変更する構成である。表示制御部F6の作動の詳細は別途後述する。
<整合範囲特定処理>
ここでは図12に示すフローチャートを用いて整合範囲特定処理について説明する。整合範囲特定処理は、整合範囲特定部F4が実施する、整合範囲の決定にかかる一連の処理に相当する。図12に示すフローチャートは、車両の走行用電源がオンとなっている間、所定の確認周期(例えば200ミリ秒毎)に実行される。走行用電源は、例えばエンジン車両においてはイグニッション電源である。電気自動車においてはシステムメインリレーが走行用電源に相当する。
本実施形態では一例として整合範囲特定処理は、ステップS101~S108を備える。整合範囲特定処理が備えるステップ数や処理順序は適宜変更可能である。当該一連の処理フローは、繰り返し実行されるものであって、処理が成功した場合には、本処理にて算出された整合範囲のデータがメモリに保存され、後述する表示制御処理に随時使用される。なお、後述する表示制御処理は、ここでは一例として本フローとは独立して実行されるものとするが、一連の処理として構成されていても良い。
ステップS101では境界線位置決定部F11が決定した自車レーン境界線の位置情報を取得してステップS102に移る。ステップS101は、境界線認識結果取得ステップと呼ぶことができる。
ステップS102では、ナビゲーション装置2から前方地図データとして、自車両前方の道路形状を示すデータを取得してステップS103に移る。ここで取得する道路形状データは、現在位置から所定距離以内における地点ごとの道路延伸方向と位置座標を特定可能なものであればよく、現在位置から所定距離以内のリンクデータとノードデータなどを採用可能である。ステップS102は道路形状取得ステップと呼ぶことができる。
ステップS103では、以降の処理で使用する変数の初期化を行う。変数としては、判定ポイントPy及び整合範囲距離Ycがある。判定ポイントPyは、地図データに示される道路形状と、自車レーン境界線の認識位置データとを比較する地点を表すパラメータである。初期化処理において判定ポイントPyは、所定の初期判定距離Py0に設定される。初期判定距離Py0は、例えば10.0mとすることができる。なお、初期判定距離Py0によって規定される判定ポイントPyである初期判定ポイントは、5.0m先の地点であっても良いし、8.5m先の地点であっても良い。初期判定ポイントは、前方カメラ1の撮像範囲に含まれる所定の地点とすることができる。判定ポイントPyは、自車両から所定距離前方に位置する点、及び、当該地点の左右に存在する地点を含む線状の概念である。判定ポイントPyは、判定ラインと読み替えることができる。判定ポイントPyは、後述するループ処理によって、初期値から徐々に遠方側に移動していく。
整合範囲距離Ycは、HCU1が認識している自車レーン境界線の位置と地図データとが認識していることが確認されている範囲、すなわち整合範囲の遠方端までの距離を示すパラメータである。整合範囲距離Ycも、後述するループ処理によって、初期値から徐々に遠方側に移動していく。初期化処理が完了するとステップS104に移る。
ステップS104では局所検証処理を実行する。局所検証処理は、現在設定されている判定ポイントPyにおいて自車レーン境界線に対する認識結果と地図データとが整合しているか否かを検証する処理である。局所検証処理は、例えば図13に示すように複数のステップS201、S202、S210、及びS211を含みうる。
ステップS201では、現在設定されている判定ポイントPyでの延伸方向差ΔAを算出する。延伸方向差ΔAは、図14に示すように、判定ポイントPyにおいて、認識境界線ReBが伸びる方向である認識線延伸方向A1と、地図データに示される道路延伸方向A2とがなす角度に相当する。図14においてMRSで示す一点鎖線は、地図データに基づいて定まる道路形状を示している。図14における点線は、認識境界線ReBを示している。地図データに示される道路延伸方向A2は、地図データで使用される座標系から車両座標系に変換された上で、認識線延伸方向A1に対する角度が算出されうる。なお、延伸方向差ΔAは判定ポイントPyにおけるMRSとReBの傾きの差と解する事もできる。
認識線延伸方向A1としては、例えば認識境界線ReBの判定ポイントPyでの接線の傾きを採用することができる。同様に、道路延伸方向A2としては、地図データが示す道路形状の判定ポイントPyでの接線の傾きを用いることができる。なお、道路延伸方向A2としては、判定ポイントPyを含むリンクデータが示す道路の伸びる方向を用いてもよい。また、道路延伸方向A2としては、判定ポイントPyの前後に位置するノードの座標を結ぶベクトルを用いてもよい。その他、地図データがレーンごとの形状データを備える場合には、道路延伸方向の代わりに、自車レーンの形状データを用いて定まるレーン延伸方向を用いても良い。本開示の道路延伸方向はレーン延伸方向と置き換えて実施することができる。
ステップS202ではステップS201で算出した延伸方向差ΔAが所定の角度閾値ThA未満であるか否かを判定する。角度閾値ThAは例えば10度や、20度、30度などとする事ができる。角度閾値ThAは、HCU1が使用可能な地図データの精度によっても変更されうる。HCU1が高精度地図を利用可能に構成されている場合には、角度閾値ThAは5度や8度など、相対的に小さい値に設定されてもよい。なお、ここでの高精度地図とは、道路構造、及び、道路沿いに配置されている地物についての位置座標等を、自動運転に利用可能な精度で示す地図データに相当する。自動運転に利用可能な精度とは例えば位置誤差が10cm未満であるレベルを指す。高精度地図データには、道路の3次元形状情報(道路構造情報)、レーン数情報、各レーンに許容された進行方向を示す情報等、高度運転支援および自動運転に利用可能な情報が含まれている。
ステップS202での比較処理の結果、延伸方向差ΔAが角度閾値ThAよりも小さい場合にはステップS210に移る。一方、延伸方向差ΔAが角度閾値ThA以上である場合にはステップS211に移る。ステップS210では判定ポイントPyにおいては、画像認識結果に基づいて定まる境界線位置は地図データが示す道路形状と整合していると判定する。一方、ステップS211では判定ポイントPyにおいては、画像認識結果に基づいて定まる境界線位置と、地図データが示す道路形状とが整合してないと判定する。ステップS210及びS211での判定結果は例えば処理上のフラグである局所整合性フラグで管理されうる。例えばステップS210では局所整合性フラグをオン(1)に設定する。一方、ステップS211では局所整合性フラグをオフ(0)に設定する。ステップS210又はステップS211が完了すると、図12のステップS105に戻る。
ステップS105では局所検証処理の結果として、現在設定されている判定ポイントPyにおいて自車レーン境界線に対する認識結果と地図データとが整合していると判定されたか否かを判定する。例えば、局所整合性フラグがオン/オフのどちらに設定されているかを判定する。判定ポイントPyにおいて自車レーン境界線に対する認識結果と地図データとが整合すると判定されている場合にはステップS105を肯定判定してステップS106に移り、整合範囲距離Ycを判定ポイントPyまで伸ばす。つまり、ステップS106ではYc=Pyに設定する。
一方、ステップS105において自車レーン境界線に対する認識結果と地図データとが整合しないと判定されている場合には、ステップS105を否定判定して本フローを終了する。その場合、それまでの処理で設定されている整合範囲距離Ycまでが現時点での整合範囲として確定され、表示制御等に使用されることとなる。
ステップS106が完了すると、ステップS107に移り、判定ポイントPyが所定の表示希望距離Ydsp未満であるか否かを判定する。表示希望距離Ydspは、HUD6にターンバイターン画像などの案内画像を表示する範囲、すなわち、どこまで案内画像を表示するかを規定するパラメータである。表示希望距離Ydspは例えば50mや100m、150mなどに対応する値に設定されうる。なお、表示希望距離Ydspは、走行路が高速道路か一般道路かで変更されても良い。また、表示希望距離Ydspは、自車両の走行速度に応じて変更されても良い。
判定ポイントPyが所定の表示希望距離Ydsp未満である場合にはステップS107を肯定判定してステップS108に移る。一方、判定ポイントPyが所定の表示希望距離Ydsp以上である場合にはステップS107を否定判定して本フローを終了する。
ステップS108では、判定ポイントPyの値を所定量dY増加させてステップS104に戻る。ステップS108は、判定ポイントPyをdYだけ前方に移動させる処理に相当する。ステップS104~S108を繰り返すことにより、自車両に近い側から遠方に向けて判定ポイントPyが移動していき、整合範囲が決定される。
なお、整合範囲を規定する整合範囲距離Ycは、直近所定時間以内の移動平均値としてもよい。例えば直近3秒以内に算出された整合範囲距離Ycの平均値としてもよい。当該構成によれば整合範囲が小刻みに変動することで、HUD6による画像の表示範囲が小刻みに変動する恐れを低減することができる。
また、上述した処理は、自車レーンの右側境界線eBRと左側境界線eBLのそれぞれに対して実行されうる。右側境界線eBRをもとに決定した整合範囲距離が相違する場合、整合範囲を規定するパラメータとして長い方を採用しても良いし、短い方を採用しても良い。また、それらの平均値であってもよい。
右側境界線eBRと左側境界線eBLのそれぞれに対して算出された整合範囲距離、及び、それらの平均値の何れを採用するかは、案内画像の種別に応じて決定されても良い。例えば図7~図9に示すように、自車レーンの中央に画像を表示する場合には、右側境界線eBRと左側境界線eBLのそれぞれに対して算出された整合範囲距離の短い方、又は平均値によって整合範囲を決定することが好ましい。当該構成によれば、表示画像が不適正な位置に表示される恐れを低減できる。
また、図10及び図11に示すレーン強調画像を表示する場合には、レーン境界線ごとに個別に整合範囲が適用されても良い。例えば右側境界線eBRの整合範囲は、右側境界線eBRに対して算出された整合範囲距離によって設定するとともに、左側境界線eBLの整合範囲は、左側境界線eBLに対して算出された整合範囲距離によって設定してもよい。
右側境界線eBRと左側境界線eBLの何れか一方を一切検出できていない場合には、整合範囲は所定のデフォルト値が適用されても良い。整合範囲のデフォルト値は、例えば10mや15mなど、車両の正面がレーン中心との略一致していることが期待できる値に設定されることが好ましい。このような構成によれば、表示位置ずれの低減効果が期待できる。
<表示制御処理>
ここではHCU1が実施する図15を用いて表示制御処理について説明する。表示制御処理は、車両の走行用電源がオンとなっている間、逐次実行されうる。本実施形態では一例として表示制御処理は、ステップS301~S306を備える。表示制御処理が備えるステップ数や処理順序は適宜変更可能である。
まずステップS301では、画像生成部F5が現在の走行シーン及びユーザ設定の少なくとも何れか一方に応じた案内画像を生成し、表示制御部F6に出力する。ステップS301は、画像生成ステップと呼ぶことができる。
ステップS302では表示制御部F6が、認識情報取得部F1から自車レーン境界線の認識位置情報を取得してステップS303に移る。ステップS303では、表示位置決定部F61が、ステップS302で取得したレーン境界線の位置情報に基づいて、ステップS301で取得した案内画像の表示位置、主として左右方向を決定してステップS304に移る。なお、ステップS303では左右方向の表示位置の調整に加えて、レーン境界線に画像が沿うように画像形状を補正(回転、湾曲)する処理が実施されてもよい。ステップS303は、表示位置調整ステップと呼ぶことができる。
ステップS304では別途実施される整合範囲特定処理で決定された整合範囲情報を読み出してステップS305に移る。ステップS305では透明度調整部F62が、整合範囲の外側に位置する画像の不透明度を元の不透明度よりも所定量下げる。例えば整合範囲外の画像の不透明度は、元の設定値の50%や25%などに設定されうる。不透明度を下げることは、透明度を上げることに相当する。不透明度は、値が高いほど不透明/色が濃いことを指すパラメータであって、不透明度が0%の状態は完全透明な状態を指すものとする。画像の透明度は、画素ごとのアルファ値に対応する概念である。一般的にアルファ値が小さいほど透明な度合いが高まる。
なお、透明度調整部F62は、整合範囲外に位置する案内画像の不透明度は0%、すなわち完全透明に設定されても良い。整合範囲外に位置する案内画像の不透明度を0%に設定する構成は、整合範囲外に案内画像を表示しない構成に相当する。整合範囲内に位置する画像については画像生成部F5から提供された不透明度が維持されうる。不透明度は色の濃さや強度と言い換える事もできる。ステップS305での車両からの距離に応じた不透明度の調整処理が完了すると、ステップS306に移る。なお、ステップS305は表示態様調整ステップと呼ぶことができる。
ステップS306では以上の処理で生成されたHUD画像に対応する画像データ/映像信号をHUD6に出力する。HUD6は、HCU1から入力されたデータ/信号に応じた表示光を出力する。これにより案内画像が実景に重なるように表示され、ユーザによって視認されうる。
<作動例>
図16は以上の処理によって調整された画像の表示例を示したものである。図中のYcを付与した一点鎖線は、整合範囲の遠方側の端部を概念的に示している。なお、当該一点鎖線は説明の都合上付与しているに過ぎず、画像としては表示されない要素である。
図に示すように、例えば周辺車両によって自車レーン境界線の一部が覆われている場合、整合範囲は当該地点までとなることがある。そのような場合、HUD6による案内画像は、整合範囲内においては通常通りに実景と重畳表示される一方、整合範囲距離Ycより遠方側においては透明度が所定量上げられた態様で重畳表示される。図16に示すGPxは、整合範囲外に位置する案内画像GPを表している。図16ではドットパターンの濃度(密度)によって透明度を表現している。図16においてはドットパターンの密度が大きいほど不透明度であることを示している。なお、透明度を上げた状態には完全透明となっている態様も含まれる。
図16では一例として、整合範囲を用いた画像の表示制御を図9に示す画像種別に適用した例を示したが、これに限らない。図7や図8、図10、図11など多様な画像に適用可能である。例えば図17に示すように境界線強調画像においては、左右で異なる整合範囲が適用され、左右のレーン境界線の強調画像の表示態様(表示範囲)が異なっていても良い。図17に示すYc_Lは左側の自車レーン境界線に対する整合範囲を示しており、Yc_Rは右側の自車レーン境界線に対する整合範囲を示している。
<効果>
上記構成によれば、整合範囲外、すなわち自車レーン境界線に対してHCU1が認識している位置が、実在位置からずれている恐れがある領域においては、案内画像を相対的に目立たない態様で表示するか、表示を中止する。よって、自車レーンに関する情報が自車レーンから外れた位置に表示される恐れを低減できる。ひいては、表示位置ずれによりユーザに違和感を与える恐れを低減できる。また、整合範囲と判断されている領域においては通常通りに画像が表示されるため、ユーザの利便性が損なわれる恐れを低減できる。
また、上記構成ではレーン境界線の認識点をそのままレーン境界線の位置として採用するのではなく、認識点を母集団として定まる回帰式を用いて、境界線位置を決定する。当該構成によれば、誤認識点をもとに整合範囲距離Ycが過度に短く設定される恐れを低減できる。
加えて、本開示の開発者らは回帰線を用いたレーン境界線の認識位置精度について検証したところ、認識点が存在しない遠方領域では回帰線と実在位置とのずれが大きくなる傾向があるといった課題を見出した。そこで、上記構成では、より好ましい態様として、最遠方認識点PLよりも遠方となる区間においては、回帰線そのものではなく、最遠方認識点PLでの回帰線の接線を、レーン境界線の位置情報として採用する。当該構成によれば、最遠方認識点PLよりも遠方での表示ずれを軽減可能となる。
以上、本開示の実施形態を説明したが、本開示は上述の実施形態に限定されるものではなく、以降で述べる種々の変形例も本開示の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施することができる。例えば下記の種々の補足や変形例などは、技術的な矛盾が生じない範囲において適宜組み合わせて実施することができる。なお、以上で述べた部材と同一の機能を有する部材については、同一の符号を付し、その説明を省略することがある。また、構成の一部のみに言及している場合、他の部分については上記説明を適用することができる。
以上ではナビ地図データを用いて、自車レーン境界線の認識結果の妥当性を評価し、整合範囲を特定する態様を開示したが、これに限らない。HCU1は高精度地図を用いて整合範囲を特定しても良い。具体的には、図18に示すようにHCU1は高精度地図を保有するロケータ9と接続されて使用されても良い。
ロケータ9は、当該ロケータ9が用いられている車両(つまり自車両)の位置を逐次算出する装置である。例えばロケータ9は、GNSSを構成する測位衛星が送信する測位信号を受信するGNSS受信機を備え、GNSS受信機が受信した測位信号を用いて位置を算出する。なお、ロケータ9は、GNSS受信機の測位結果と、ジャイロセンサや車速センサなどの計測結果との組み合わせにより位置を決定するものであってもよい。ロケータ9は高精度地図データが保存された高精度地図記憶部91を備える。ロケータ9は、決定した位置の軌跡を高精度地図データが示す道路形状に重ね合わせる、いわゆるマップマッチング処理を実施することで位置の補正を行ってもよい。さらに、ロケータ9は、ローカライズ処理を実施可能に構成されていても良い。ローカライズ処理は、前方カメラなどの周辺監視カメラで撮像された画像に基づいて特定されたランドマークの座標と、地図データに登録されているランドマークの座標とを照合することによって自車両の詳細位置を特定する処理を指す。ロケータ9は、現在位置から所定距離以内の地図データを前方地図データとして高精度地図記憶部91から読み出し、HCU1等に出力する。
高精度地図データはレーン境界線の位置情報を含むため、高精度地図を用いる構成によれば、延伸方向差ΔAを、地図データに登録されている自車レーンの情報と比較して算出可能となる。その結果、整合範囲をより精度良く特定可能になる。なお、自車両が左端または右端の道路端から何番目のレーンを走行しているか、つまり自車両の走行レーン番号は、例えば道路端からの距離や、自車両の位置座標、画像認識できている区画線の線種などに基づいて特定することができる。
加えて、高精度地図はレーン境界線の位置情報を含むため、延伸方向差ΔAだけでなく、判定ポイントPyにおける距離誤差ΔXに基づいて、整合性を検証可能となる。距離誤差ΔXは、図19に示すように、認識境界線ReBの位置座標と、認識線延伸方向A1と、高精度地図データに示される自車レーンの設置位置座標の差に相当する。図19における一点鎖線(MLS)は、高精度地図データに基づいて定まる自車レーンの位置及び形状を示している。高精度地図データに示される自車レーンの位置情報は、地図データで使用される座標系から車両座標系に変換された上で、延伸方向差ΔA及び距離誤差ΔXが算出されうる。なお、距離誤差ΔXは横位置誤差や、横方向オフセット量と呼ぶこともできる。
図20は局所検証処理として、距離誤差ΔXも用いる場合の処理フローの一例を示したものである。図20に示すように、整合範囲特定部F4は局所検証処理として距離誤差ΔXを算出するステップS203と、距離誤差ΔXが所定の距離閾値ThX未満であるか否かを判定するステップS204を含んでいても良い。距離閾値ThXは、車両が使用される地域の標準レーン幅以下の値、例えば1倍か0.75倍、0.5倍程度の値に設定されうる。標準レーン幅は、自車両が使用される地域の法規に応じて設定されうる。例えば標準レーン幅は2.0mや、2.5m、3.0mに設定されうる。距離閾値ThXは、1.0mや1.5m、2.0mなどに設定されうる。
整合範囲特定部F4は、延伸方向差ΔAと距離誤差ΔXの両方がそれぞれに対応する閾値未満である場合に、判定ポイントPyにおける認識結果は地図データに登録されている内容と整合すると判定しうる(ステップS210)。
なお、距離誤差ΔXを算出する場合には、必ずしも延伸方向差ΔAを用いる必要はない。図20に示すフローチャートのステップS201~S202は省略可能である。距離誤差ΔXと延伸方向差ΔAの少なくとも何れかに基づいて整合範囲は特定することができる。
以上では、整合範囲の外側に位置する案内画像である範囲外画像の表示態様の変更例として、透明度を上げることを例示したが、表示制御部F6の作動はこれに限定されない。例えば、HUD画像のうち、範囲外画像に相当する部分については、画像オブジェクトのフレーム(輪郭)のみ表示し、その内部は無色透明としても良い。また、範囲外画像に相当する部分については、画像オブジェクトの輪郭を破線に変更するなど、より目立たない態様に変更しても良い。
さらに表示制御部F6は、画像生成部F5に整合範囲を通知し、範囲外画像に相当する部分は描画させないように構成されていてもよい。当該構成によっても、整合範囲外における画像を非表示とする事ができる。
また、表示位置決定部F61は、整合範囲内においては自車レーン境界線の認識位置をもとに表示位置を設定する一方、整合範囲外においては地図データ又は先行車の軌跡が示す道路形状情報をもとに表示位置を決定してもよい。当該構成によれば、レーン境界線の誤認識に起因する表示位置のズレを抑制しつつ、案内画像の表示を維持可能となる。
なお、レーン境界線の認識位置と地図データとが整合していない場合には、全区間において地図データをもとに表示位置を決定する構成も考えられるが、当該想定構成では車両近傍において表示位置のズレが生じることが懸念される。例えば、使用される地図データがナビ地図データなど、地図データが5m程度の誤差を含む場合には上記傾向は顕著となる。また、地図データが高精度であっても、地図データ上における自車位置を精度良く特定できていない場合にも、上記位置ズレが顕著となりうる。
これに対し、本開示の構成によれば、整合範囲内においては認識結果をもとに表示位置が決定されるため、車両近傍において表示ズレが生じる恐れを低減できる。
上述した実施形態では、地図データが示す道路形状を、認識境界線の妥当性を判断するための比較対象として利用したが、これに限らない。認識境界線の妥当性を判断するための比較対象は、先行車の軌跡であっても良い。整合範囲特定部F4は、先行車の軌跡と認識境界線との傾きの差を延伸方向差ΔAとして算出し、当該延伸方向差ΔAが所定の閾値以上となることに基づいて、整合範囲を決定しても良い。
なお、以上では延伸方向差ΔAが所定の角度閾値ThAとなる地点までを整合範囲として使用する構成を開示したがそれに限らない。延伸方向差ΔAが角度閾値ThAである状態が所定距離以上継続した場合に、当該区間の手前までを整合範囲として使用するように構成されていても良い。また、先行車の軌跡を基準として距離誤差ΔXを算出し、当該距離誤差ΔXと所定の距離閾値ThXをもとに整合範囲を決定してもよい。
また、自車レーン境界線の認識結果の妥当性を延伸方向の観点から判断するための比較対象は、道路端に対する認識結果であってもよい。認識しているレーン境界線と道路端は、多くの場合、略平行となることが期待できる。故に、認識しているレーン境界線と道路端との傾きの差を延伸方向差ΔAとして用い、延伸方向差ΔAが角度閾値ThA以上である状態が所定距離以上続いた場合に、当該区間の手前までを整合範囲とみなしても良い。また、認識されている自車レーン境界線が、認識されている道路端と交差している場合には、当該交差ポイントよりも手前側に整合範囲を設定しても良い。ただし、道路端自体を誤認識している可能性も残るため、道路端の認識結果の妥当性/正当性に対しても、先行車の軌跡などをもとに評価することが好ましい。
さらに、自車レーン境界線の認識結果の妥当性を延伸方向の観点から判断するための比較対象は、自車レーンよりも外側に位置する他のレーン境界線である他車レーン境界線に対する認識結果であってもよい。自車レーン境界線と他車レーン境界線は、多くの場合、略平行となることが期待できる。故に、認識されている自車レーン境界線と他車レーン境界線との傾きの差を延伸方向差ΔAとして用い、延伸方向差ΔAが角度閾値ThA以上である状態が所定距離以上続いた場合に、当該区間の手前までを整合範囲とみなしても良い。また、認識結果としての自車レーン境界線が、認識されている他車レーン境界線と交差している場合には、当該交差ポイントよりも手前側に整合範囲を設定しても良い。さらに、整合範囲特定部F4は、認識結果としての自車レーン境界線が、認識されている他車レーン境界線と所定値以上の間隔を有していることに基づいて整合範囲を決定してもよい。ここでの所定値は、例えば、標準レーン幅の0.7倍など、標準レーン幅に対応する値に設定されうる。なお、他車レーン境界線を誤認識している可能性も残るため、他車レーン境界線の認識結果の妥当性/正当性に対しても、先行車の軌跡などをもとに評価することが好ましい。
このように整合範囲特定部F4は、認識されている自車レーン境界線が道路端や他車レーン境界線と交差していないか、及び、傾きの差が所定値未満に収まっているかなどに基づいて整合範囲を決定しても良い。
最遠方認識点PLよりも遠方となる区間については、回帰線における最遠方認識点PLでの接線をレーン境界線の位置及び形状情報として採用する構成を開示したが、これに限らない。回帰線において最遠方認識点PLから手前側、所定距離以内に位置する区間である遠方端近傍区間の曲率が所定の閾値以下であれば、当該遠方端近傍区間の曲率を有する曲線を、最遠方認識点PL以降におけるレーン境界線の位置及び形状情報として採用してもよい。その他、遠方端近傍区間の曲率が所定のしきい値以上である場合には、遠方近傍区間の手前までを整合範囲あるいはHUD画像の表示範囲としてもよい。
また、自動車専用道においては、法律や政令(以降、法規等)で、制限速度に応じた曲率の最大値あるいは曲率半径の最小値が規定されている。そのような事情に基づき、自車レーンの認識結果として、走行路に対応する曲率の最大値よりも曲率が大きい区間が存在する場合には、当該区間の手前までを整合範囲/表示範囲として採用してもよい。認識境界線において法規等で規定される曲率の最大値よりも曲率が大きい区間は、誤認識の可能性が高いためである。当該構成によっても、レーン境界線の誤認識による表示ずれを低減可能となる。
また、HCU1は、先行車両と重なる領域には、案内画像を表示しないように構成されていてもよい。さらに、HCU1は、周辺車両と重なる領域には、案内画像を表示しないように構成されていてもよい。ここでの周辺車両には、前述の通り、自車両と同一レーンを走行する車両だけでなく、斜め前など隣接レーンを走行する車両なども含まれる。他車両と案内画像とが重なると、案内画像が見づらくなるとともに、周辺車両も見づらくなるケースが想定されるためである。
ところで、渋滞時には先行車との車間距離が小刻みに変動するため、整合範囲も変動しやすい。ゆえに、案内画像の表示範囲も小刻みに伸び縮みしやすくなる。案内画像の表示範囲が頻繁に伸び縮みすると、ユーザに煩わしさを与えてしまうことが懸念される。そのような事情を踏まえ、HCU1は、渋滞時には案内画像の表示を解除するように構成されていても良い。また、HCU1は渋滞時には整合範囲及び案内画像の表示範囲を、自車レーン境界線の認識距離に関わらず一定値とするように構成されていても良い。
その他、以上では案内画像の表示位置を調整するための基準物として、自車レーン境界線を採用する構成を開示したが、これに限らない。道路端や、ガードレール、距離板、ポールなど、連続的または繰り返し略等間隔で配置される多様な道路付帯物を基準物として採用する事ができる。
また、以上では案内画像を虚像として表示するヘッドアップディスプレイの表示制御に適用する例を開示したが、上記開示は、ディスプレイ7や、車両を遠隔制御するオペレータ用のディスプレイの表示画面の制御にも適用されうる。案内画像は、実際の景色である実景に重畳するようにウィンドシールドなどのスクリーンに表示されるものでもよいし、液晶/有機ELディスプレイなどに表示される実景相当の画像上に重畳表示されるものでもよい。実景相当の画像とは、カメラ3で撮像された画像に対応する。案内画像を車両の前方に位置する景色に重ねて表示する、との表現には、前方景色を示す撮像画像上に案内画像を重ねて表示する態様も含まれる。なお、撮像装置としては、可視光カメラの他、赤外線カメラや、LiDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)などを採用可能である。
本開示におけるドライバとは、運転席に着座している人物、つまり運転席乗員を指す。ドライバとの表現には、実際に運転操作の一部又は全部を実施している人物に限らない。ドライバとの記載は、自動運転中においては自動運転システムから運転操作の権限を受け取るべき人物を指す。
上記の開示は、道路上を走行する多様な車両に適用可能である。すなわち、本開示は、四輪自動車のほか、二輪自動車、三輪自動車等、道路上を走行可能な多様な車両に搭載可能である。原動機付き自転車も二輪自動車に含めることができる。本開示のシステム/装置が適用される車両は、個人によって所有されるオーナーカーであってもよいし、サービスカーであってもよい。サービスカーとは、例えば、カーシェアリングサービスや車両貸し出しサービスに供される車両を指す。サービスカーには、タクシーや路線バス、乗り合いバスなどが含まれる。また、サービスカーは、運転手が搭乗していない、ロボットタクシーまたは無人運行バスなどであってもよい。サービスカーには、移動サービスを提供する車両を含めることができる。さらに、車両は、車両外部に存在するオペレータによって遠隔操作される遠隔操作車両であってもよい。ここでのオペレータとは、所定のセンタなど、車両の外部から遠隔操作によって車両を制御する権限を有する人物を指す。オペレータもまた、ドライバの概念に含めることができる。
<付言>
本開示に記載の装置、システム、並びにそれらの手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。また、本開示に記載の装置及びその手法は、専用ハードウェア論理回路を用いて実現されてもよい。さらに、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウェア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。つまり、HCU1等が提供する手段及び/又は機能は、実体的なメモリ装置に記録されたソフトウェア及びそれを実行するコンピュータ、ソフトウェアのみ、ハードウェアのみ、あるいはそれらの組み合わせによって提供できる。例えばHCU1が備える機能の一部又は全部はハードウェアとして実現されても良い。或る機能をハードウェアとして実現する態様には、1つ又は複数のICなどを用いて実現する態様が含まれる。HCU1は、CPUの代わりに、MPUやGPU、DFP(Data Flow Processor)を用いて実現されていてもよい。HCU1は、CPUや、MPU、GPUなど、複数種類の演算処理装置を組み合わせて実現されていてもよい。HCU1は、システムオンチップ(SoC:System-on-Chip)として実現されていても良い。さらに、各種処理部は、FPGA(Field-Programmable Gate Array)や、ASIC(Application Specific Integrated Circuit)を用いて実現されていても良い。各種プログラムは、非遷移的実体的記録媒体(non- transitory tangible storage medium)に格納されていればよい。プログラムの保存媒体としては、HDD(Hard-disk Drive)やSSD(Solid State Drive)、フラッシュメモリ、SD(Secure Digital)カード等、多様な記憶媒体を採用可能である。非遷移的実体的記録媒体には、EPROM(Erasable Programmable Read Only Memory)などのROMも含まれる。
上記実施形態における1つの構成要素が有する複数の機能は、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。加えて、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
上述したHCU1の他、当該HCU1を構成要素とするシステムなと、種々の形態も本開示の範囲に含まれる。例えば、コンピュータをHCU1として機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体等の形態も本開示の範囲に含まれる。
1 HCU、F1 認識情報取得部、F2 地図情報取得部(道路形状取得部)、F3 先行車情報取得部、F4 整合範囲特定部、F5 画像生成部、F6 表示制御部、S101 境界線認識結果取得ステップ、S102 道路形状取得ステップ、S301 画像生成ステップ、S303 表示位置調整ステップ、S305 表示態様調整ステップ。

Claims (12)

  1. 車両の走行路に関する案内画像を前記車両の前方に位置する景色に重ねて表示するための車両用表示制御装置であって、
    撮像装置が撮像した車両前方の画像データに基づいて認識された、所定の基準物の位置及び形状を示す基準物認識データを取得する認識情報取得部(F1)と、
    前記案内画像を生成する画像生成部(F5)と、
    地図データ及び先行車の走行軌跡の少なくとも何れか一方を用いて、前記車両の前方に存在する道路の形状を示す道路形状データを取得する道路形状取得部(F2)と、
    前記基準物認識データが前記道路形状データと整合している範囲である整合範囲を特定する整合範囲特定部(F4)と、
    前記認識情報取得部が取得した前記基準物認識データが示す前記基準物の位置に応じて前記案内画像の左右方向における表示位置を調整する表示制御部(F6)と、を備え、
    前記表示制御部は、前記整合範囲の内側と外側とで、前記案内画像の表示態様、及び、左右方向における表示位置を決定するためのパラメータの少なくとも何れか一方を変更する車両用表示制御装置。
  2. 請求項1に記載の車両用表示制御装置であって、
    前記表示制御部は、前記整合範囲の外側に位置する前記案内画像については、前記整合範囲の内側に位置する前記案内画像よりも目立たない表示態様に変更する車両用表示制御装置。
  3. 請求項1又は2に記載の車両用表示制御装置であって、
    前記表示制御部は、前記整合範囲の外側に位置する前記案内画像については、前記整合範囲の内側に位置する前記案内画像よりも透明度を上げる処理を施すように構成されている車両用表示制御装置。
  4. 請求項1から3の何れか1項に記載の車両用表示制御装置であって、
    前記表示制御部は、前記整合範囲外には前記案内画像を表示しないように構成されている車両用表示制御装置。
  5. 請求項1から4の何れか1項に記載の車両用表示制御装置であって、
    前記表示制御部は、前記整合範囲内においては前記基準物認識データに基づいて前記案内画像の表示位置を決定する一方、前記整合範囲外においては前記道路形状データに基づいて前記案内画像の表示位置を決定する車両用表示制御装置。
  6. 請求項1から5の何れか1項に記載の車両用表示制御装置であって、
    前記基準物はレーン境界線を含み、
    前記整合範囲特定部は、前記レーン境界線の認識点を母集団として設定される認識境界線と、前記道路形状データが示す道路形状との傾きの差である延伸方向差が所定値未満である範囲を前記整合範囲として採用する車両用表示制御装置。
  7. 請求項1から6の何れか1項に記載の車両用表示制御装置であって、
    前記基準物はレーン境界線を含み、
    前記道路形状データは、前記レーン境界線の設置位置座標を含み、
    前記整合範囲特定部は、前記レーン境界線の認識点を母集団として設定される認識境界線と、前記道路形状データが示す前記レーン境界線の設置位置座標との差である距離誤差が所定値未満である範囲を前記整合範囲として採用する車両用表示制御装置。
  8. 請求項6又は7に記載の車両用表示制御装置であって、
    前記整合範囲特定部は、最も遠い前記認識点である最遠方認識点よりも遠方となる区間での前記認識境界線は、前記最遠方認識点までの前記認識点を母集団として定まる回帰式の前記最遠方認識点での接線を採用する車両用表示制御装置。
  9. 請求項1から8の何れか1項に記載の車両用表示制御装置であって、
    前記道路形状取得部は、前記先行車の走行軌跡をもとに道路形状を特定するように構成されている車両用表示制御装置。
  10. 請求項1から9の何れか1項に記載の車両用表示制御装置であって、
    前記認識情報取得部は、自車両が走行している車線を規定するレーン境界線である自車レーン境界線についての認識結果と、前記自車レーン境界線よりも外側に位置する他の前記レーン境界線である他車レーン境界線についての認識結果とを取得可能に構成されており、
    前記基準物は前記自車レーン境界線であり、
    前記整合範囲特定部は、前記自車レーン境界線の形状と、前記他車レーン境界線の形状とが、所定値以上の間隔を有していること、交差していないこと、及び、傾きの差が所定の閾値未満であることの少なくともに何れか1つに基づいて、前記整合範囲を決定する車両用表示制御装置。
  11. 請求項1から10の何れか1項に記載の車両用表示制御装置であって、
    前記認識情報取得部は、自車両が走行している車線を規定するレーン境界線である自車レーン境界線についての認識結果と、道路端についての認識結果とを取得可能に構成されており、
    前記基準物は前記自車レーン境界線であり、
    前記整合範囲特定部は、認識された前記自車レーン境界線の形状と、認識された前記道路端の形状とが、交差していないこと、及び、傾きの差が所定の閾値未満であることの少なくともに何れか1つに基づいて前記整合範囲を決定する車両用表示制御装置。
  12. 車両の走行路に関する案内画像を車両の前方に位置する景色に重ねて表示するための車両用表示制御方法であって、
    撮像装置が撮像した車両前方の画像データに基づいて認識された、所定の基準物の位置及び形状を示す基準物認識データを取得すること(S101)と、
    前記案内画像を生成すること(S301)と、
    地図データ及び先行車の走行軌跡の少なくとも何れか一方を用いて、前記車両の前方に存在する道路の形状を示す道路形状データを取得すること(S102)と、
    前記基準物認識データが前記道路形状データと整合している範囲である整合範囲を特定すること(S104~S108)と、
    前記基準物認識データが示す前記基準物の位置に応じて前記案内画像の左右方向における表示位置を調整すること(S303)と、
    前記整合範囲の内側と外側とで、前記案内画像の表示態様、及び、左右方向における表示位置を決定するためのパラメータの少なくとも何れか一方を変更すること(S305)と、を含む車両用表示制御方法。
JP2021021881A 2021-02-15 2021-02-15 車両用表示制御装置、車両用表示制御方法 Pending JP2022124232A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021021881A JP2022124232A (ja) 2021-02-15 2021-02-15 車両用表示制御装置、車両用表示制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021021881A JP2022124232A (ja) 2021-02-15 2021-02-15 車両用表示制御装置、車両用表示制御方法

Publications (1)

Publication Number Publication Date
JP2022124232A true JP2022124232A (ja) 2022-08-25

Family

ID=82941228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021021881A Pending JP2022124232A (ja) 2021-02-15 2021-02-15 車両用表示制御装置、車両用表示制御方法

Country Status (1)

Country Link
JP (1) JP2022124232A (ja)

Similar Documents

Publication Publication Date Title
US11535155B2 (en) Superimposed-image display device and computer program
JP7052786B2 (ja) 表示制御装置および表示制御プログラム
US11996018B2 (en) Display control device and display control program product
US11525694B2 (en) Superimposed-image display device and computer program
WO2021039198A1 (ja) 表示制御装置及び表示制御プログラム
JP2007257286A (ja) 車両用表示システム
WO2022009848A1 (ja) 自車位置推定装置、走行制御装置
JP7260064B2 (ja) 自車位置推定装置、走行位置推定方法
JP7251582B2 (ja) 表示制御装置および表示制御プログラム
US20230135641A1 (en) Superimposed image display device
JP5994574B2 (ja) 位置案内システム、方法およびプログラム
EP3627110A1 (en) Method for planning trajectory of vehicle
CN112519677A (zh) 控制装置
CN110884427A (zh) 显示系统、显示控制方法及存储介质
JP7215466B2 (ja) 表示制御装置及び表示制御プログラム
CN110888432B (zh) 显示系统、显示控制方法及存储介质
US20210268905A1 (en) Vehicle driving assistance system, vehicle driving assistance method, and vehicle driving assistance program
JP2022124232A (ja) 車両用表示制御装置、車両用表示制御方法
JP7447842B2 (ja) 車両用表示制御装置、車両用表示制御方法
JP7111121B2 (ja) 表示制御装置及び表示制御プログラム
JP7416114B2 (ja) 表示制御装置および表示制御プログラム
JP7088152B2 (ja) 表示制御装置、および表示制御プログラム
WO2021015090A1 (ja) 制御装置
WO2023145852A1 (ja) 表示制御装置、表示システム、及び表示制御方法
JP2020187068A (ja) 表示制御装置、ヘッドアップディスプレイ装置、方法、及びコンピュータ・プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240425

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240528