JP2020086884A - Lane marking estimation device, display control device, method and computer program - Google Patents
Lane marking estimation device, display control device, method and computer program Download PDFInfo
- Publication number
- JP2020086884A JP2020086884A JP2018219805A JP2018219805A JP2020086884A JP 2020086884 A JP2020086884 A JP 2020086884A JP 2018219805 A JP2018219805 A JP 2018219805A JP 2018219805 A JP2018219805 A JP 2018219805A JP 2020086884 A JP2020086884 A JP 2020086884A
- Authority
- JP
- Japan
- Prior art keywords
- information
- vehicle
- stationary target
- lane markings
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本開示は、区画線推定装置、表示制御装置、方法、及びコンピュータ・プログラムに関する。 The present disclosure relates to a marking line estimation device, a display control device, a method, and a computer program.
特許文献1には、カメラにより路面に描かれた白線(区画線)を検出し、自車両の走行レーンの左右の白線の間隔(道路幅)を逐次更新し、カメラにより一方のみの白線しか検出できなかった場合に、記憶しておいた道路幅のデータを用いて、カメラにより検出できている一方の白線を基準にして、もう一方の白線の位置を推定する仕切線認識装置が記載されている。 In Patent Document 1, a white line (compartment line) drawn on a road surface is detected by a camera, and an interval (road width) between the left and right white lines of a vehicle driving lane is sequentially updated, and only one white line is detected by a camera. If it is not possible, using the stored road width data, a partition line recognition device that estimates the position of the other white line based on the one white line detected by the camera is described. There is.
しかしながら、特許文献1では、左右の白線のうち、いずれか一方の白線が検出できることを前提にしているが、雨、霧、雪などの悪天候においては、左右両方の白線の検出が困難となることが想定される。 However, in Patent Document 1, it is assumed that either one of the left and right white lines can be detected, but it is difficult to detect both the left and right white lines in bad weather such as rain, fog, and snow. Is assumed.
本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。 A summary of the specific embodiments disclosed herein is provided below. It should be understood that these aspects are presented only to provide an overview of the reader to these particular embodiments and are not intended to limit the scope of this disclosure. Indeed, the present disclosure may include various aspects not described below.
本開示の概要は、走行レーンの区画線が視認しづらい環境でも区画線の位置を推定し、運転者に有益な運転支援を提供することに関する。より具体的には、走行レーンの区画線の位置を精度良く認識することにも関する。 The outline of the present disclosure relates to estimating the position of a lane marking even in an environment where the lane marking of a driving lane is difficult to see, and providing useful driving assistance to a driver. More specifically, it also relates to accurately recognizing the position of the lane markings in the traveling lane.
したがって、本明細書に記載される表示制御装置は、自車両に設けられたカメラにより撮像された画像に少なくとも基づく実区画線の位置に関する情報と、自車両に設けられたカメラと異なる検出方法を有する1つ又はそれ以上のセンサによる検出に基づく自車両の走行レーンに沿って設けられる静止物標の位置に関する情報と、を取得し、実区画線の位置に関する情報と、静止物標の位置に関する情報と、から実区画線と静止物標との間隔を算出し、算出した間隔と、静止物標の位置に関する情報と、から仮想区画線の位置を推定し、この仮想区画線に沿った画像を表示する。いくつかの実施形態では、1つ又はそれ以上のセンサによる検出に基づく自車両の走行レーンに沿って設けられる複数の静止物標の位置に関する情報、を取得し、複数の静止物標の信頼度を算出し、信頼度が高い静止物標と、間隔と、から仮想区画線の位置を推定してもよい。 Therefore, the display control device described in the present specification provides information regarding the position of the real lane markings based on at least the image captured by the camera provided in the own vehicle, and a detection method different from that of the camera provided in the own vehicle. The information about the position of the stationary target provided along the traveling lane of the own vehicle based on the detection by the one or more sensors having the information, and the information about the position of the real marking line and the position of the stationary target. The distance between the real marking line and the stationary target is calculated from the information, the position of the virtual marking line is estimated from the calculated distance and the information about the position of the stationary target, and the image along the virtual marking line is estimated. Is displayed. In some embodiments, information regarding positions of a plurality of stationary targets provided along a traveling lane of the vehicle based on detection by one or more sensors is acquired, and reliability of the plurality of stationary targets is acquired. May be calculated, and the position of the virtual lane marking may be estimated from the stationary target having high reliability and the interval.
以下に、本発明に係る実施形態について図面を参照して説明する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 Embodiments according to the present invention will be described below with reference to the drawings. The present invention is not limited to the following embodiments (including the contents of the drawings). Of course, changes (including deletion of components) can be added to the following embodiments. Further, in the following description, in order to facilitate understanding of the present invention, description of known technical matters will be appropriately omitted.
以下、図1及び図2では、例示的な車両用表示システムの構成の説明を提供する。図3、図4、図6、図7では、例示的な制御の処理の流れを説明する。図5A、図5B、図5Cでは、表示例を提供する。 In the following, FIGS. 1 and 2 provide a description of the configuration of an exemplary vehicle display system. An exemplary control processing flow will be described with reference to FIGS. 3, 4, 6, and 7. 5A, 5B, 5C provide example displays.
図1を参照する。車両用表示システム10における線画像200を表示する画像表示部11は、自車両1のダッシュボード5内に設けられたヘッドアップディスプレイ(HUD:Head−Up Display)装置である。HUD装置は、表示光11aをフロントウインドシールド2(被投影部材の一例である)に向けて出射し、仮想的な表示領域100内に線画像200を表示することで、フロントウインドシールド2を介して視認される現実空間である前景300に重ねて線画像200を視認させる。
Please refer to FIG. The
また、画像表示部11は、ヘッドマウントディスプレイ(以下、HMD)装置であってもよい。運転者4は、HMD装置を頭部に装着して自車両1の座席に着座することで、表示される線画像200を、自車両1のフロントウインドシールド2を介した前景300に重畳して視認する。車両用表示システム10が所定の線画像200を表示する表示領域100は、自車両1の座標系を基準とした特定の位置に固定され、運転者4がその方向を向くと、その特定の位置に固定された表示領域100内に表示された線画像200を視認することができる。
Further, the
画像表示部11は、表示制御装置13の制御に基づいて、自車両1のフロントウインドシールド2を介して視認される現実空間である前景300に存在する、障害物(歩行者、自転車、自動二輪車、他車両)、路面、道路標識(区画線)、及び建物、などの実オブジェクトの近傍(画像と実オブジェクトとの位置関係の一例)、前記実オブジェクトに重なる位置(画像と実オブジェクトとの位置関係の一例)、又は前記実オブジェクトを基準に設定された位置(画像と実オブジェクトとの位置関係の一例)に線画像200を表示することで、視覚的な拡張現実(AR:Augmented Reality)を形成することもできる。
The
図2は、いくつかの実施形態に係る、車両用表示システム10のブロック図である。車両用表示システム10は、画像表示部11と、画像表示部11を制御する表示制御装置13と、で構成される。表示制御装置13は、1つ又はそれ以上のI/Oインタフェース14、1つ又はそれ以上のプロセッサ16、1つ又はそれ以上の記憶部18、及び1つ又はそれ以上の画像処理回路20を備える。図2に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図2は、実施態様の一実施例に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路20(例えば、グラフィック処理ユニット)が、1つ又はそれ以上のプロセッサ16に含まれてもよい。また、以下の説明では、本実施形態の表示制御装置13は、区画線推定装置としての機能も含むものとするが、区画線推定装置は、表示制御装置13と独立して構成されてもよい。
FIG. 2 is a block diagram of a
図示するように、プロセッサ16及び画像処理回路20は、記憶部18と動作可能に連結される。より具体的には、プロセッサ16及び画像処理回路20は、記憶部18に記憶されているプログラムを実行することで、例えば画像データを生成又は/及び送信するなど、車両用表示システム10の操作を行うことができる。プロセッサ16又は/及び画像処理回路20は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。記憶部18は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVROMを含んでもよい。
As illustrated, the
図示するように、プロセッサ16は、I/Oインタフェース14と動作可能に連結されている。例えば、I/Oインタフェース14は、車両用表示システム10を、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi−Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)、4G又はLTE(登録商標)セルラーネットワークなどの広域ネットワーク(WAN)に接続する無線通信インタフェースを含むことができる。また、I/Oインタフェース14は、例えば、USBポート、シリアルポート、パラレルポート、OBDII、及び/又は他の任意の適切な有線通信ポートなどの有線通信インタフェースを含むことができる。
As shown, the
図示するように、プロセッサ16は、I/Oインタフェース14と相互動作可能に連結されることで、車両用表示システム10(I/Oインタフェース14)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース14には、例えば、自車両1に設けられたカメラ401、前方センサ403(第1センサ)、側方センサ405(第2センサ)、目位置検出部407、道路情報データベース409、及び自車位置検出部411などが動作可能に連結される。画像表示部11は、プロセッサ16及び画像処理回路20に動作可能に連結される。したがって、画像表示部11によって表示される画像は、プロセッサ16又は/及び画像処理回路20から受信された画像データに基づいてもよい。プロセッサ16及び画像処理回路20は、I/Oインタフェース14から得られる情報に基づき、画像表示部11が表示する画像を制御する。なお、I/Oインタフェース14は、車両用表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。
As shown in the figure, the
自車両1は、自車両1の前方を少なくとも撮像する1つ又はそれ以上のカメラ401を含んでいる。これに加えて、カメラ401は、自車両1の側方、又は/及び後側方を撮像するカメラを含んでいてもよい。カメラ401は、自車両1の1箇所又は数箇所に取り付けられた単眼又は複眼のCCDカメラ、赤外線カメラ、その他の撮像装置であり、撮像した撮像画像をプロセッサ16に送信してもよい。プロセッサ16は、取得した撮像画像を公知のパターンマッチング法などで解析して、特定の実オブジェクト(走行レーンの実区画線)を抽出する機能を有していてもよいが、カメラ401が解析機能を有していてもよい。この場合、カメラ401は、撮像画像の解析結果(実オブジェクト関連情報)をプロセッサ16に送信してもよい。
The host vehicle 1 includes one or
なお、カメラ401は、実オブジェクト関連情報を、その信頼度とともにプロセッサ16に送信し得る。例えば、カメラ401が、検出精度が低下する環境(雨、霧、雪などの悪天候)にある、カメラ401が泥などで覆われている、あるいは検出領域の一部のみに検出精度の低下を検出する、又は検出対象である走行レーンの区画線(実オブジェクトの一例)が、経年変化により一部が摩耗している、場合などには、カメラ401は、実オブジェクト関連情報の一部又は全部の信頼度を低い値として出力し、走行レーンの区画線がはっきりと確認できる場合などには、実オブジェクト関連情報の信頼度を高い値として出力してもよい。
It should be noted that the
自車両1は、自車両1の前方に存在する物標までの測距を行う1つ又はそれ以上の前方センサ403(第1センサ)を含んでいる。前方センサ403は、自車両1の1箇所又は数箇所に取り付けられたミリ波レーダー、レーザーレーダー、超音波レーダーなどのレーダー装置、又はソナーをなどの測距装置である。前方センサ403は、前方センサ403の受信信号をプロセッサ16に送信してもよい。プロセッサ16は、取得した前方センサ403の受信信号を解析して、物標の有無、物標の位置、物標までの距離、及び物標の種類を検出する機能を有していてもよいが、前方センサ403が解析機能を有していてもよい。この場合、前方センサ403は、前方センサ403の受信信号の解析結果(物標情報)をプロセッサ16に送信してもよい。
The host vehicle 1 includes one or more front sensors 403 (first sensor) that perform distance measurement to a target existing in front of the host vehicle 1. The
また、自車両1は、自車両1の側方に存在する物標までの測距を行う1つ又はそれ以上の側方センサ405(第2センサ)を含んでいてもよい。側方センサ405の構成は、前方センサ403と概ね同じであり、説明は省略する。なお、第2センサは、自車両1の後方に存在する物標までの測距を行ってもよい。
In addition, the host vehicle 1 may include one or more side sensors 405 (second sensor) that perform distance measurement to a target existing on the side of the host vehicle 1. The configuration of the
自車両1は、運転者4の目の位置を検出する赤外線カメラ等からなる目位置検出部407を含んでいてもよい。プロセッサ16は、赤外線カメラが撮像した画像(目の位置を推定可能な情報の一例)を取得し、この撮像画像を解析することで運転者4の目の位置を特定することができる。プロセッサ16は、赤外線カメラの撮像画像から特定された運転者4の目の位置の情報をI/Oインタフェース14から取得するものであってもよい。なお、自車両1の運転者4の目の位置、又は運転者4の目の位置を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。プロセッサ16は、運転者4の目の位置に基づき、線画像200の位置を少なくとも調整することで、前景300の所望の位置に重畳した線画像200を、目位置を検出した視認者(運転者4)に視認させてもよい。
The host vehicle 1 may include an eye position detection unit 407 including an infrared camera that detects the position of the eyes of the
自車両1は、ナビゲーションシステム等からなる道路情報データベース409を含んでいてもよい。道路情報データベース409は、後述する自車位置検出部411から取得される自車両1の位置に基づき、実オブジェクト関連情報の一例である自車両1が走行する道路情報(走行レーン,区画線,停止線,横断歩道,道路の幅員,走行レーン数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の有無、位置(自車両1までの距離を含む)、方向、形状、種類、詳細情報などを読み出し、プロセッサ16に送信することができる。特に、本実施形態では、プロセッサ16は、走行レーン脇に存在する静止物標の有無、静止物標の形状、静止物標の種類、静止物標の位置、静止物標から走行レーンの各区画線までの間隔、又は/及び各区画線同士の間隔を、道路情報データベース409から取得してもよい。
The host vehicle 1 may include a road information database 409 including a navigation system or the like. The road information database 409 includes road information (running lanes, lane markings, stop lines) on which the vehicle 1 travels, which is an example of actual object-related information, based on the position of the vehicle 1 acquired from a vehicle position detection unit 411 described later. Lines, pedestrian crossings, road width, number of driving lanes, intersections, curves, branches, traffic restrictions, etc.), presence/absence of feature information (buildings, bridges, rivers, etc.), position (including distance to own vehicle 1) , Direction, shape, type, detailed information, etc. can be read and transmitted to the
なお、プロセッサ16は、道路情報データベース409から取得する上記のような情報を、I/Oインタフェース14に接続された、図示しない携帯情報端末や車外通信接続機器から取得してもよい。携帯情報端末は、例えば、スマートフォン、ノートパソコン、スマートウォッチ、又は運転者4(又は自車両1の他の乗員)が携帯可能なその他の情報機器である。車外通信接続機器は、例えば、自車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、自車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。
The
自車両1は、GNSS(全地球航法衛星システム)等からなる自車位置検出部411を含んでいてもよい。道路情報データベース409、前記携帯情報端末、又は/及び車外通信接続機器は、自車位置検出部411から自車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、自車両1の周辺の情報を選択・生成して、プロセッサ16に送信することができる。
The host vehicle 1 may include a host vehicle position detection unit 411 including a GNSS (Global Navigation Satellite System) or the like. The road information database 409, the portable information terminal, and/or the communication device outside the vehicle obtains the position information of the own vehicle 1 from the own vehicle position detection unit 411 continuously, intermittently, or for each predetermined event, Information around the host vehicle 1 can be selected and generated and transmitted to the
記憶部18に記憶されたソフトウェア構成要素は、物標検出モジュール502、実区画線検出モジュール504、道路形状推定モジュール506、物標−区画線間隔算出モジュール508、基準物標決定モジュール510、実区画線検出精度判定モジュール512、区画線位置推定モジュール514、目位置検出モジュール516、画像決定モジュール518、及びグラフィックモジュール520を含む。
The software components stored in the storage unit 18 include the
物標検出モジュール502は、前方センサ403、側方センサ405が検出した複数の反射点(検出点の一例)を取得し、取得した複数の反射点を所定の条件に基づき同一の静止物標としてグルーピングする。例えば、物標検出モジュール502は、走行レーンの脇に連続的に存在する段差、壁、道路脇に断続的に存在するポールなどを同一の静止物標としてグルーピングすることができる。なお、静止物標として判定した場合、複数の反射点の間の反射点がない部分を、他の反射点で線形又は多項式で補間することで、静止物標の位置を部分的に推定してもよい。なお、物標検出モジュール502は、走行レーン脇に存在する静止物標の有無、静止物標の形状、静止物標の種類、静止物標の位置、を道路情報データベース409から取得し、同一の静止物標としてグルーピングする際の参考としてもよい。
The
また、物標検出モジュール502は、前方センサ403、側方センサ405が検出した複数の反射点(検出点の一例)のデータから、グルーピングされた同一の静止物標毎の信頼度を算出してもよい。例えば、物標検出モジュール502は、検出点の検出信号のレベルが低い静止物標、信号対ノイズ比(S/N比)が低い静止物標、信頼度の低い種類である静止物標、又は/及び道路情報データベース409から取得する静止物標との整合性の低い静止物標、を信頼度が低いと判定してもよい(静止物標の位置の信頼度を算出する方法はこれらに限定されない)。
In addition, the
実区画線検出モジュール504は、カメラ401が撮像した画像をパターンマッチングなどで解析することで、実区画線の位置を検出する。なお、実区画線検出モジュール504は、前方センサ403、側方センサ405が検出した検出点を解析することで、実区画線の位置を検出してもよく、又はカメラ401が検出した実区画線と、前方センサ403、側方センサ405が検出した実区画線と、をフュージョンすることで実区画線の位置を検出してもよい。
The real lane marking
道路形状推定モジュール506は、実区画線検出モジュール504が検出した実区画線を元に、道路形状を推定する。なお、道路形状推定モジュール506は、物標検出モジュール502が検出した走行レーンの脇に連続又は断続的に存在する静止物標の位置(形状)を元に道路形状を推定してもよく、実区画線検出モジュール504が検出した実区画線の位置(形状)との組み合わせで推定してもよい。
The road
物標−区画線間隔算出モジュール508は、静止物標と実区画線との間隔を連続的に算出し、この間隔データを蓄積する。具体的には、物標−区画線間隔算出モジュール508は、道路形状推定モジュール506により推定された道路形状を参照し、物標検出モジュール502で検出された静止物標の所定の点と、実区画線検出モジュール504で検出された実区画線の所定の点と、の間隔D(図3のD11〜D13、D21〜D23を参照)を算出し、この間隔Dのデータを記憶部18に蓄積してもよい。なお、間隔Dのデータは、自車両1の左側の実区画線と物標との間隔、右側の区画線と物標との間隔とを含む。また、連続又は断続的に検出される静止物標が複数存在する場合、物標−区画線間隔算出モジュール508は、連続又は断続的に検出される物標毎に区画線との間隔を算出して、間隔Dのデータを蓄積する。
The target-partition line
図3は、物標−区画線間隔算出モジュール508が蓄積する、物標と実区画線との間隔Dを説明する図である。図3に記載した走行レーンは、自車両1の走行レーン311と、この走行レーン311の右隣の走行レーン312と、である。また図3に記載した実区画線は、自車両1の走行レーン311の左側の実区画線321と、自車両1の走行レーン311の右側(右隣の走行レーン312の左側)の実区画線322と、右隣の走行レーン312の右側の実区画線323である。また、図3に記載した静止物標は、自車両1の走行レーン311の左側の外側に存在する静止物標331と、右隣の走行レーン312の右側の外側に存在する静止物標332と、である。物標−区画線間隔算出モジュール508は、静止物標331から最も近い実区画線321との間隔D11、2番目に近い実区画線322との間隔D12、3番目に近い実区画線323との間隔D13、及び静止物標332から最も近い実区画線323との間隔D23、2番目に近い実区画線322との間隔D22、3番目に近い実区画線321との間隔D21、を連続又は断続的に算出して、記憶部18に記憶(蓄積)する。
FIG. 3 is a diagram for explaining the distance D between the target and the actual marking line, which is accumulated by the target-marking line
再び図2を参照する。基準物標決定モジュール510は、区画線を精度良く推定可能な静止物標を決定する。基準物標決定モジュール510は、各静止物標331,332と左側の実区画線321との間隔D11,D21、各静止物標331,332と右側の実区画線322との間隔D12,D22、及び各静止物標331,332と隣接走行レーンの実区画線323との間隔D13,D23、のそれぞれの正規分布のパラメータ(例えば、標準偏差)を、各間隔Dのデータの信頼度として計算し、左側の実区画線321との間隔D11,D21の信頼度が高い静止物標、右側の実区画線322との間隔D12,D22の信頼度が高い静止物標、又は/及び隣接走行レーンの実区画線323との間隔D13,D23の信頼度が高い静止物標を決定する。なお、基準物標決定モジュール510は、静止物標と区画線との間隔Dの信頼度に代えて、又はこれに加えて物標検出モジュール502が算出した静止物標毎の検出された位置の信頼度を用いて、信頼度の高い静止物標を決定してもよい。なお、区画線を精度良く推定可能な静止物標を決定する方法は、これらに限定されない。
Referring back to FIG. The reference
実区画線検出精度判定モジュール512は、実区画線の検出の精度が低下する環境であるかを判定する。カメラ401や、前方センサ403において、区画線が検出できない部分があること、撮像画像(受信信号)のコントラスの低下、受信信号の減衰、検出ノイズの増加(S/N比の低下)、又は/及び解析時の信頼度の低下が検出された場合、実区画線検出精度判定モジュール512は、区画線検出の精度が低下する環境であると判定してもよい(判定方法は、これらに限定されない)。また、実区画線検出精度判定モジュール512は、図示しない携帯情報端末、車外通信接続機器などから車両が走行する位置の天候情報を取得することで、雨、霧、雪などの悪天候を判定し、区画線検出の精度が低下する環境であるかを判定してもよい。
The real lane marking detection
区画線位置推定モジュール514は、静止物標を基準にして、区画線の位置を推定する。具体的には、区画線位置推定モジュール514は、基準物標決定モジュール510が決定した静止物標を基準に、物標−区画線間隔算出モジュール508が算出した間隔Dの平均値に基づき、区画線の位置を推定する。
The marking line position estimation module 514 estimates the marking line position based on the stationary target. Specifically, the lane marking position estimation module 514 uses the stationary target determined by the reference
図4は、区画線位置推定モジュール514が推定する仮想区画線の位置を説明する図である。図4に記載した走行レーンは、自車両1の走行レーン311と、この走行レーン311の右隣の走行レーン312と、である。また、図4に記載した実区画線は、自車両1の走行レーン311の左側の実区画線321と、自車両1の走行レーン311の右側(右隣の走行レーン312の左側)の実区画線322と、右隣の走行レーン312の右側の実区画線323である。図4では、走行レーンの実区画線の検出精度が低下した又は走行レーンの実区画線が検出できず、推定された区画線(仮想区画線)を点線で記す。区画線位置推定モジュール514は、左側の実区画線321の先の(遠方の)仮想区画線EL1、右側の実区画線322の先の(遠方の)仮想区画線EL2、右隣の走行レーン312の右側の実区画線323の先の(遠方の)仮想区画線EL3を推測する。
FIG. 4 is a diagram illustrating the position of the virtual lane markings estimated by the lane marking position estimation module 514. The traveling lanes illustrated in FIG. 4 are the traveling
例えば、基準物標決定モジュール510は、自車両1の走行レーン311の左側の仮想区画線EL1を決定するに際し、記憶部18に蓄積された左側の静止物標331と実区画線321との間隔D11の標準偏差と、記憶部18に蓄積された右側の静止物標332と実区画線321との間隔D21の標準偏差と、を比較し、より信頼度の高い静止物標を決定する(ここでは、静止物標331の信頼度が高いものとする)。次に、物標検出モジュール502が検出した静止物標331を基準に、記憶部18に蓄積された静止物標331と実区画線321との間隔D11の平均値E11に基づき、仮想区画線EL1を推定する。同様に、基準物標決定モジュール510は、自車両1の走行レーン311の右側の仮想区画線EL2を決定するに際し、記憶部18に蓄積された左側の静止物標331と実区画線322との間隔D12の標準偏差と、記憶部18に蓄積された右側の静止物標332と実区画線322との間隔D22の標準偏差と、を比較し、より信頼度の高い静止物標を決定する(ここでは、静止物標332の信頼度が高いものとする)。次に、物標検出モジュール502が検出した静止物標332を基準に、記憶部18に蓄積された静止物標332と実区画線322との間隔D22の平均値E22に基づき、仮想区画線EL2を推定する。なお、静止物標の信頼度が記憶部18に記憶された所定の条件を満たさずに低いと判定される場合、自車両1の近傍で継続して検出可能な実区画線同士の間隔Daを参照し、静止物標を基準に推定された一方の仮想区画線からもう一方の仮想区画線を推定してもよい。
For example, the reference
目位置検出モジュール516は、自車両1の運転者4の眼の位置を検出する。目位置検出モジュール516は、複数段階で設けられた高さ領域のどこに運転者4の眼の高さがあるかの判定、運転者4の眼の高さ(Y軸方向の位置)の検出、運転者4の眼の高さ(Y軸方向の位置)及び奥行方向の位置(Z軸方向の位置)の検出、運転者4の眼の位置(X,Y,Z軸方向の位置)の検出、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。目位置検出モジュール516は、例えば、目位置検出部407から運転者4の眼の位置を取得する、又は、目位置検出部407から運転者4の目の高さを含む目の位置を推定可能な情報を受信し、運転者4の目の高さを含む目の位置を推定する。目の位置を推定可能な情報は、例えば、自車両1の運転席の位置、運転者4の顔の位置、座高の高さ、運転者4による図示しない操作部での入力値などであってもよい。
The eye
画像決定モジュール518は、推定した区画線である仮想区画線に沿うように運転者4に視認される線画像200の種類、位置、及びサイズを決定する。画像決定モジュール518は、線画像200の種類を、実区画線320の種類、線画像200の報知必要度、又は/及び区画線検出の精度の低下の度合いなどによって決定し得る。また、画像決定モジュール518は、線画像200の位置を、区画線位置推定モジュール514が推定した仮想区画線ELの位置に応じて、仮想区画線ELに沿うように配置する。画像決定モジュール518は、線画像200の位置を、仮想区画線ELと重なる位置としてもよく、仮想区画線ELからオフセットされた位置にしてもよい。また、画像決定モジュール518は、線画像200を遠近法で生成することでサイズを決定する。すなわち、遠方の前景300に重なる線画像200を小さく、近傍の前景300に重なる線画像200を大きくするように調整する。
The
グラフィックモジュール520は、表示される線画像200の、視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)、サイズ、表示位置、表示距離(運転者4から線画像200までの距離)を変更するための様々な既知のソフトウェア構成要素を含む。グラフィックモジュール520は、画像決定モジュール518が設定した種類、座標(運転者4が自車両1の運転席から表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)、画像サイズで運転者4に視認されるように線画像200を表示する。グラフィックモジュール520は、自車両1の進行に伴い運転者4から見える前景300が接近すると、その前景300に対する線画像200の相対位置が変化していないように、前景300に追従して線画像200の位置を連続的に調整してもよく、画像サイズも徐々に大きくなるように調整してもよい。
The
また、グラフィックモジュール520は、I/Oインタフェース14から取得される情報に基づき、線画像200を表示すべきではない(又は表示しない方がよい)と判定できる場合、線画像200の視認性を低下させてもよい(表示させないことも含む)。具体的には、グラフィックモジュール520は、図示しない自車両1のECUから取得した速度が所定の閾値以上であれば、線画像200の視認性を低下させてもよい。視界不良の環境でも線画像200が表示されると、それに安心して速度が過度に増加してしまうことも想定されるが、自車両1の速度が速くなった際に、線画像200の視認性を低下させることで、このような速度超過を抑制することもできる。また、グラフィックモジュール520は、道路情報データベース409から取得した情報に基づき、自車両1が交差点付近であると判定されると、線画像200の視認性を低下させてもよい。交差点付近では、走行レーンに沿った物標がなくなることが想定され、十分な信頼度で仮想区画線を推定できなくなることが想定されるが、自車両1が交差点に接近することを検出して、線画像200の視認性を低下させることで、信頼度の低い仮想区画線に沿った線画像200を視認させづらくすることができる。
Further, when the
図5A、図5B、及び図5Cは、自車両1の運転席から運転者4が前方を向いた際に視認される、前景300と、前景300に重なる線画像200とを示す図である。プロセッサ16及び画像処理回路20は、図5Aに示すように、自車両1の走行レーン311の左側の仮想区画線EL1に沿った線画像201と、右側の仮想区画線EL2に沿った線画像202と、を画像表示部11に表示させてもよい。また、プロセッサ16及び画像処理回路20は、図5Bに示すように、推定される仮想区画線ELの信頼度が低い場合、信頼度が高い左右いずれか一方の仮想区画線ELに沿った線画像201のみ表示させてもよい。また、プロセッサ16及び画像処理回路20は、図5Cに示すように、仮想区画線ELに沿うように、自車両1の走行レーン311の中央付近に線画像203を表示させてもよい。
5A, 5B, and 5C are diagrams showing a
図6は、いくつかの実施形態に係る、物標と実区画線との間隔を蓄積する処理のフロー図である。この処理は、自車両1が走行を開始してから走行を終了するまで繰り返し実行されるが、処理負荷を軽減するため、線画像200の表示が必要になる程に実区画線の検出の精度が低下してから、又は線画像200の表示は必要ではないが、実区画線の検出の精度が低下してから、この処理は実行されてもよい。
FIG. 6 is a flow diagram of a process of accumulating the distance between the target and the real marking line according to some embodiments. This processing is repeatedly executed from the start of the own vehicle 1 to the end of the traveling. However, in order to reduce the processing load, the accuracy of detection of the actual lane markings is required to display the
まず、プロセッサ16は、物標検出モジュール502を実行し、前方センサ403、又は/及び側方センサ405から走行レーンの脇に連続又は断続的に存在する物標の位置を少なくとも取得し、データを記憶部18に蓄積し(ステップS11)、実区画線検出モジュール504を実行し、カメラ401から走行レーンの左右の実区画線の位置を少なくとも取得し、データを記憶部18に蓄積し(ステップS12)、物標−区画線間隔算出モジュール508を実行し、静止物標と実区画線との間隔を算出し、データを記憶部18に蓄積する。
First, the
図7は、いくつかの実施形態に係る、線画像200の表示制御の処理を示すフロー図である。この処理は、自車両1が走行を開始してから走行を終了するまで繰り返し実行される。
FIG. 7 is a flowchart showing a process of display control of the
プロセッサ16は、実区画線検出精度判定モジュール512を実行し、実区画線の一部又は全部の検出の精度が低下する環境であるかを判定し(ステップS21)、実区画線の一部又は全部の検出の精度が低下していなければ(ステップS21でNo)、ステップS21を繰り返し、実区画線の一部又は全部の検出の精度が低下してれば(ステップS21でYes)、ステップS22に移行する。
The
次にプロセッサ16は、自車両1が閾値未満であるかを判定し(ステップS22)、かつ自車両1が交差点付近ではないかを判定し(ステップS23)、自車両1が閾値以上である(ステップS22でNo)、又は自車両1が交差点付近である(ステップS23でNo)場合、グラフィックモジュール520を実行し、線画像200の視認性を低下させる。
Next, the
プロセッサ16は、自車両1が閾値未満である(ステップS22でYes)、かつ自車両1が交差点付近である(ステップS23でYes)場合、基準物標決定モジュール510を実行し、複数の静止物標の中から仮想区画線を精度良く推定可能な静止物標を決定し(ステップS24)、決定した静止物標から仮想区画線の位置を推定し、その仮想区画線に沿うように線画像200を表示する(ステップS25)。
When the host vehicle 1 is less than the threshold value (Yes in step S22) and the host vehicle 1 is near the intersection (Yes in step S23), the
上述の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、又は/及びそれらの機能を代替えし得る一般的なハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。 The operations of the processing processes described above can be performed by executing one or more functional modules of an information processing device such as a general-purpose processor or an application-specific chip. All of these modules, a combination of these modules, and/or a combination with general hardware capable of substituting their functions are included in the scope of protection of the present invention.
車両用表示システム10の機能ブロックは、任意選択的に、説明される様々な実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図2で説明する機能ブロックが、説明される実施例の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。
The functional blocks of the
以上に説明したように、いくつかの実施形態では、1つ又はそれ以上のプロセッサ16は、1つ又はそれ以上のI/Oインタフェース14から、自車両1に設けられたカメラ401により撮像された画像に少なくとも基づく実区画線320の位置に関する情報と、自車両1に設けられたカメラ401と異なる検出方法を有する1つ又はそれ以上のセンサ403、405による検出に基づく自車両1の走行レーンに沿って設けられる静止物標330の位置に関する情報と、を取得し、実区画線320の位置に関する情報と、静止物標330の位置に関する情報と、から実区画線320と静止物標330との間隔Dを算出し、算出した間隔Dと、静止物標330の位置に関する情報と、から仮想区画線ELの位置を推定し、推定した仮想区画線ELに沿う線画像200を画像表示11が表示する。これにより、実区画線がカメラで検出しづらい環境でも、静止物標を基準にした仮想区画線を精度良く推定することができる。
As described above, in some embodiments, the one or
また、いくつかの実施形態では、1つ又はそれ以上のセンサ403、405による検出に基づく自車両1の走行レーンに沿って設けられる複数の静止物標330の位置に関する情報、を取得し、複数の静止物標330の信頼度を算出し、信頼度が高い静止物標330と、算出した間隔Dと、から仮想区画線ELの位置を推定してもよい。1つ又はそれ以上のセンサ403、405の検出結果から、物標の信頼度を算出して、信頼度の高い静止物標に基づいて、精度よく仮想区画線ELを推定可能である。
Further, in some embodiments, information regarding the positions of the plurality of stationary targets 330 provided along the traveling lane of the vehicle 1 based on the detection by the one or
また、いくつかの実施形態では、1つ又はそれ以上のプロセッサ16は、信頼度が高い静止物標330に近い方の仮想区画線ELの位置を、信頼度が高い静止物標330と、間隔Dと、から推定し、推定された、信頼度が高い静止物標330に近い方の仮想区画線ELに沿う線画像200のみ画像表示11が表示するようにしてもよい。信頼度の高いと判定された静止物標から、この信頼度の高い静止物標に近い仮想区画線を推定することで、誤差が小さく、仮想区画線を推定することができる。
Also, in some embodiments, one or
また、いくつかの実施形態では、1つ又はそれ以上のプロセッサ16は、自車両1に設けられたカメラ401により撮像された画像に少なくとも基づいて、自車両1の走行レーンの左右の実区画線321、322の間の走行レーン幅Da1に関する情報を取得し、信頼度の高い静止物標330に近い方の仮想区画線ELの位置を、信頼度が高い静止物標330と、算出した間隔Dと、から推定し、仮想区画線ELのもう一方の位置を、信頼度の高い静止物標330に近い方の仮想区画線ELの位置と、走行レーン幅Da1とから推定し、推定した、左右の仮想区画線EL1,EL2それぞれに沿う線画像200を画像表示11が表示するようにしてもよい。これによれば、信頼度の高い1つの静止物標から精度よく、複数の仮想区画線の位置を推定することができる。
Further, in some embodiments, the one or
また、いくつかの実施形態では、自車両1の前方における静止物標330を検出する第1センサ403と、自車両1の側方又は後側方における静止物標330を検出する第2センサ405と、を含み、前記カメラ401は、前記自車両1の側方又は後側方を撮像し、1つ又はそれ以上のプロセッサ16は、実区画線320の位置に関する情報と、第2センサ405から取得した静止物標330の位置に関する情報と、から間隔Dを算出し、算出した間隔Dと、第1センサ403から取得した静止物標330の位置に関する情報と、から仮想区画線ELの位置を推定してもよい。これによれば、自車両1の側方又は後側方で第2センサ405が検出した物標の位置と、自車両1の近傍(側方、又は後側方)でカメラ401が検出した実区画線320の位置と、に基づき、静止物標330と実区画線320との間隔Dを算出し、この算出した間隔Dと、自車両1の前方で第1センサ403が検出した静止物標330の位置とで、仮想区画線ELを推定する。すなわち、自車両1の側方又は後側方であれば、自車両1の近傍に実区画線320が存在するため、カメラ401で自車両1の前方の実区画線が検出しにくい環境下でも、実区画線と静止物標との間隔を取得し続けることができる。
In some embodiments, the
また、いくつかの実施形態では、1つ又はそれ以上のプロセッサ16は、実区画線320の位置に関する情報が部分的に取得できない、又は部分的に位置に関する情報の精度が低いと判定した場合、少なくとも判定された領域の仮想区画線ELに沿う線画像200を画像表示11が表示するようにしてもよい。すなわち、視認しづらい実区画線の部分に線画像200を表示することができ、実区画線が視認できる部分にも線画像200が過剰に表示されることを防止することができる。
Also, in some embodiments, if one or more of the
また、いくつかの実施形態では、1つ又はそれ以上のプロセッサ16は、1つ又はそれ以上のI/Oインタフェース14から、自車両1の速度に関する情報を取得し、自車両1の速度が所定の閾値より速いと判定されると、推定された、仮想区画線EL1,EL2に沿う線画像200の表示を画像表示11が停止するようしてもよい。
Further, in some embodiments, the one or
また、いくつかの実施形態では、1つ又はそれ以上のプロセッサ16は、1つ又はそれ以上のI/Oインタフェース14から、自車両1が交差点付近であるか推定可能な情報を取得し、自車両1が交差点付近であると判定されると、推定された、仮想区画線EL1,EL2に沿う線画像200の表示を画像表示11が停止するようにしてもよい。
Further, in some embodiments, the one or
1自車両、2…フロントウインドシールド、4…運転者、5…ダッシュボード、10…車両用表示システム、11…画像表示、11…画像表示部、11a…表示光、13…表示制御装置、14…I/Oインタフェース、16…プロセッサ、18…記憶部、20…画像処理回路、100…表示領域、200(201〜203)…線画像、300…前景、311…走行レーン、312…走行レーン、320(321〜323)…実区画線、330(331,332))…静止物標、401…カメラ、403…前方センサ(第1センサ)、405…側方センサ(第2センサ)、407…目位置検出部、409…道路情報データベース、411…自車位置検出部、413…携帯情報端末、420…車外通信接続機器、502…物標検出モジュール、504…実区画線検出モジュール、506…道路形状推定モジュール、508…区画線間隔算出モジュール、510…基準物標決定モジュール、512…実区画線検出精度判定モジュール、514…区画線位置推定モジュール、516…目位置検出モジュール、518…画像決定モジュール、520…グラフィックモジュール、Da1…走行レーン幅、E11…平均値、E22…平均値、EL(EL1〜EL3)…仮想区画線
1 Own vehicle, 2... Front windshield, 4... Driver, 5... Dashboard, 10... Vehicle display system, 11... Image display, 11... Image display part, 11a... Display light, 13... Display control device, 14 ... I/O interface, 16... Processor, 18... Storage section, 20... Image processing circuit, 100... Display area, 200 (201-203)... Line image, 300... Foreground, 311... Travel lane, 312... Travel lane, 320 (321 to 323)... Real marking line, 330 (331, 332))... Stationary target, 401... Camera, 403... Front sensor (first sensor), 405... Side sensor (second sensor), 407... Eye position detection unit, 409... Road information database, 411... Own vehicle position detection unit, 413... Portable information terminal, 420... External communication connection device, 502... Target detection module, 504... Real marking line detection module, 506... Road Shape estimation module, 508... marking line interval calculation module, 510... reference target determination module, 512... actual marking line detection accuracy determination module, 514... marking line position estimation module, 516... eye position detection module, 518...
Claims (20)
1つ又はそれ以上のI/Oインタフェース(14)と、
1つ又はそれ以上のプロセッサ(16)と、
メモリ(18)と、
前記メモリ(18)に格納され、前記1つ又はそれ以上のプロセッサ(16)によって実行されるように構成される1つ又はそれ以上のコンピュータ・プログラムと、を備え、
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記自車両(1)に設けられたカメラ(401)により撮像された画像に少なくとも基づく実区画線(320)の位置に関する情報と、
前記自車両(1)に設けられた前記カメラ(401)と異なる検出方法を有する1つ又はそれ以上のセンサ(403、405)による検出に基づく前記自車両(1)の走行レーンに沿って設けられる静止物標(330)の位置に関する情報と、を取得し、
前記実区画線(320)の位置に関する情報と、前記静止物標(330)の位置に関する情報と、から前記実区画線(320)と前記静止物標(330)との間隔(D)を算出し、
算出した前記間隔(D)と、前記静止物標(330)の位置に関する情報と、から仮想区画線(EL1,EL2)の位置を推定する、命令を実行する、
区画線推定装置。 In the marking line estimation device for estimating the position of the actual marking line (320) that divides the traveling lane of the host vehicle (1),
One or more I/O interfaces (14),
One or more processors (16),
A memory (18),
One or more computer programs stored in the memory (18) and configured to be executed by the one or more processors (16),
Said one or more processors (16)
From the one or more I/O interfaces (14),
Information on the position of the real marking line (320) based at least on the image taken by the camera (401) provided in the vehicle (1);
Provided along the traveling lane of the own vehicle (1) based on detection by one or more sensors (403, 405) having a detection method different from that of the camera (401) provided in the own vehicle (1) And the information about the position of the stationary target (330) to be acquired,
An interval (D) between the real marking line (320) and the stationary target (330) is calculated from information about the position of the real marking line (320) and information about the position of the stationary target (330). Then
Executing a command to estimate the position of the virtual lane markings (EL1, EL2) from the calculated distance (D) and information about the position of the stationary target (330),
Marking line estimation device.
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記1つ又はそれ以上のセンサ(403、405)による検出に基づく前記自車両(1)の走行レーンに沿って設けられる複数の静止物標(330)の位置に関する情報、を取得し、
前記複数の静止物標(330)の信頼度を算出し、
前記信頼度が高い前記静止物標(330)と、前記間隔(D)と、から前記仮想区画線(EL1,EL2)の位置を推定する、命令を実行する、
請求項1に記載の区画線推定装置。 Said one or more processors (16)
From the one or more I/O interfaces (14),
Acquiring information on the positions of a plurality of stationary targets (330) provided along the traveling lane of the vehicle (1) based on the detection by the one or more sensors (403, 405),
Calculating the reliability of the plurality of stationary targets (330),
Executing a command to estimate the position of the virtual lane markings (EL1, EL2) from the stationary target (330) with high reliability and the distance (D).
The marking line estimation device according to claim 1.
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記自車両(1)に設けられたカメラ(401)により撮像された画像に少なくとも基づいて、前記車両(1)の前記走行レーンの左右の実区画線(321、322)の間の走行レーン幅(Da1)に関する情報を取得し、
前記信頼度の高い前記静止物標(330)に近い方の前記仮想区画線(EL1,EL2)の位置を、前記信頼度が高い前記静止物標(330)と、前記間隔(D)と、から推定し、
前記仮想区画線(EL1,EL2)のもう一方の位置を、前記信頼度の高い前記静止物標(330)に近い方の前記仮想区画線(EL1,EL2)の位置と、前記走行レーン幅(Da1)とから推定する、命令を実行する、
請求項2に記載の区画線推定装置。 Said one or more processors (16)
From the one or more I/O interfaces (14),
A traveling lane width between the left and right real marking lines (321, 322) of the traveling lane of the vehicle (1) based on at least an image captured by a camera (401) provided in the vehicle (1). Get information about (Da1),
The position of the virtual marking line (EL1, EL2) closer to the highly reliable stationary target (330) is defined as the highly reliable stationary target (330) and the interval (D). Estimated from
The other position of the virtual lane markings (EL1, EL2) is set to the position of the virtual lane markings (EL1, EL2) closer to the highly reliable stationary target (330), and the travel lane width ( Execute the instruction, inferred from Da1),
The marking line estimation device according to claim 2.
前記自車両(1)の前方における前記静止物標(330)を検出する第1センサ(403)と、
前記自車両(1)の側方又は後側方における前記静止物標(330)を検出する第2センサ(405)と、を含み、
前記1つ又はそれ以上のプロセッサ(16)は、
前記実区画線(320)の位置に関する情報と、前記第2センサ(405)から取得した前記静止物標(330)の位置に関する情報と、から前記間隔(D)を算出し、
算出した前記間隔(D)と、前記第1センサ(403)から取得した前記静止物標(330)の位置に関する情報と、から前記仮想区画線(EL1,EL2)の位置を推定する、命令を実行する、
請求項1に記載の区画線推定装置。 The one or more sensors (403, 405) are
A first sensor (403) for detecting the stationary target (330) in front of the host vehicle (1);
A second sensor (405) for detecting the stationary target (330) on the side or the rear side of the host vehicle (1),
Said one or more processors (16)
The distance (D) is calculated from information about the position of the real marking line (320) and information about the position of the stationary target (330) acquired from the second sensor (405),
A command for estimating the position of the virtual lane markings (EL1, EL2) from the calculated distance (D) and information about the position of the stationary target (330) acquired from the first sensor (403) is issued. Run,
The marking line estimation device according to claim 1.
1つ又はそれ以上のI/Oインタフェース(14)と、
1つ又はそれ以上のプロセッサ(16)と、
メモリ(18)と、
前記メモリ(18)に格納され、前記1つ又はそれ以上のプロセッサ(16)によって実行されるように構成される1つ又はそれ以上のコンピュータ・プログラムと、を備え、
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記自車両(1)に設けられたカメラ(401)により撮像された画像に少なくとも基づく実区画線(320)の位置に関する情報と、
前記自車両(1)に設けられた前記カメラ(401)と異なる検出方法を有する1つ又はそれ以上のセンサ(403、405)による検出に基づく前記自車両(1)の走行レーンに沿って設けられる静止物標(330)の位置に関する情報と、を取得し、
前記実区画線(320)の位置に関する情報と、前記静止物標(330)の位置に関する情報と、から前記実区画線(320)と前記静止物標(330)との間隔(D)を算出し、
算出した前記間隔(D)と、前記静止物標(330)の位置に関する情報と、から前記仮想区画線(EL1,EL2)の位置を推定し、
推定した前記仮想区画線(EL1,EL2)に沿う前記線画像(200)を前記画像表示(11)が表示するように、命令を実行する、
表示制御装置。 The position of the real lane markings (320) of the traveling lane of the host vehicle (1) is estimated, and a line image (200) along the virtual lane markings (EL1, EL2) that is the estimated real lane markings (320) is displayed. In a display control device for controlling the image display unit (11),
One or more I/O interfaces (14),
One or more processors (16),
A memory (18),
One or more computer programs stored in the memory (18) and configured to be executed by the one or more processors (16),
Said one or more processors (16)
From the one or more I/O interfaces (14),
Information about the position of the real marking line (320) based at least on the image captured by the camera (401) provided in the vehicle (1);
Provided along the traveling lane of the own vehicle (1) based on detection by one or more sensors (403, 405) having a detection method different from that of the camera (401) provided in the own vehicle (1) Information about the position of the stationary target (330) to be acquired,
An interval (D) between the real marking line (320) and the stationary target (330) is calculated from information about the position of the real marking line (320) and information about the position of the stationary target (330). Then
Estimating the position of the virtual lane markings (EL1, EL2) from the calculated distance (D) and information about the position of the stationary target (330),
A command is executed so that the image display (11) displays the line image (200) along the estimated virtual lane markings (EL1, EL2),
Display controller.
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記1つ又はそれ以上のセンサ(403、405)による検出に基づく前記自車両(1)の走行レーンに沿って設けられる複数の静止物標(330)の位置に関する情報、を取得し、
前記複数の静止物標(330)の信頼度を算出し、
前記信頼度が高い前記静止物標(330)と、前記間隔(D)と、から前記仮想区画線(EL1,EL2)の位置を推定する、命令を実行する、
請求項5に記載の表示制御装置。 Said one or more processors (16)
From the one or more I/O interfaces (14),
Acquiring information on the positions of a plurality of stationary targets (330) provided along the traveling lane of the vehicle (1) based on the detection by the one or more sensors (403, 405),
Calculating the reliability of the plurality of stationary targets (330),
Executing a command to estimate the position of the virtual lane markings (EL1, EL2) from the stationary target (330) with high reliability and the distance (D).
The display control device according to claim 5.
前記信頼度が高い前記静止物標(330)に近い方の前記仮想区画線(EL1,EL2)の位置を、前記信頼度が高い前記静止物標(330)と、前記間隔(D)と、から推定し、
推定された、前記信頼度が高い前記静止物標(330)に近い方の前記仮想区画線(EL1,EL2)に沿う前記線画像(200)のみ前記画像表示(11)が表示するように、命令を実行する、
請求項6に記載の表示制御装置。 Said one or more processors (16)
The position of the virtual marking line (EL1, EL2) closer to the stationary target (330) with high reliability is the stationary target (330) with high reliability, and the interval (D), Estimated from
The image display (11) displays only the estimated line image (200) along the virtual lane marking (EL1, EL2) closer to the stationary target (330) with high reliability, Execute instructions,
The display control device according to claim 6.
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記自車両(1)に設けられたカメラ(401)により撮像された画像に少なくとも基づいて、前記車両(1)の前記走行レーンの左右の実区画線(321、322)の間の走行レーン幅(Da1)に関する情報を取得し、
前記信頼度の高い前記静止物標(330)に近い方の前記仮想区画線(EL1,EL2)の位置を、前記信頼度が高い前記静止物標(330)と、前記間隔(D)と、から推定し、
前記仮想区画線(EL1,EL2)のもう一方の位置を、前記信頼度の高い前記静止物標(330)に近い方の前記仮想区画線(EL1,EL2)の位置と、前記走行レーン幅(Da1)とから推定し、
推定した、左右の前記仮想区画線(EL1,EL2)それぞれに沿う前記線画像(200)を前記画像表示(11)が表示するように、命令を実行する、
請求項6に記載の表示制御装置。 Said one or more processors (16)
From the one or more I/O interfaces (14),
A traveling lane width between the left and right real marking lines (321, 322) of the traveling lane of the vehicle (1) based on at least an image captured by a camera (401) provided in the vehicle (1). Get information about (Da1),
The position of the virtual marking line (EL1, EL2) closer to the highly reliable stationary target (330) is defined as the highly reliable stationary target (330) and the interval (D). Estimated from
The other position of the virtual lane markings (EL1, EL2) is set to the position of the virtual lane markings (EL1, EL2) closer to the highly reliable stationary target (330), and the travel lane width ( Da1) and
A command is executed so that the image display (11) displays the estimated line image (200) along each of the left and right virtual lane markings (EL1, EL2).
The display control device according to claim 6.
前記自車両(1)の前方における前記静止物標(330)を検出する第1センサ(403)と、
前記自車両(1)の側方又は後側方における前記静止物標(330)を検出する第2センサ(405)と、を含み、
前記カメラ(401)は、前記自車両(1)の側方又は後側方を撮像し、
前記1つ又はそれ以上のプロセッサ(16)は、
前記実区画線(320)の位置に関する情報と、前記第2センサ(405)から取得した前記静止物標(330)の位置に関する情報と、から前記間隔(D)を算出し、
算出した前記間隔(D)と、前記第1センサ(403)から取得した前記静止物標(330)の位置に関する情報と、から前記仮想区画線(EL1,EL2)の位置を推定する、命令を実行する、
請求項5に記載の表示制御装置。 The one or more sensors (403, 405) are
A first sensor (403) for detecting the stationary target (330) in front of the host vehicle (1);
A second sensor (405) for detecting the stationary target (330) on the side or the rear side of the host vehicle (1),
The camera (401) images the side or rear side of the vehicle (1),
Said one or more processors (16)
The distance (D) is calculated from information about the position of the real marking line (320) and information about the position of the stationary target (330) acquired from the second sensor (405),
A command for estimating the position of the virtual lane markings (EL1, EL2) from the calculated distance (D) and information about the position of the stationary target (330) acquired from the first sensor (403) is issued. Run,
The display control device according to claim 5.
前記実区画線(320)の位置に関する情報が部分的に取得できない、又は部分的に位置に関する情報の精度が低いと判定した場合、少なくとも判定された領域の前記仮想区画線(EL1,EL2)に沿う前記線画像(200)を前記画像表示(11)が表示するように、命令を実行する、
請求項5に記載の表示制御装置。 Said one or more processors (16)
When it is determined that the information regarding the position of the real lane markings (320) cannot be partially acquired or the accuracy of the information regarding the position is partially low, at least the virtual lane markings (EL1, EL2) in the determined area are displayed. Execute instructions such that the image display (11) displays the line image (200) along
The display control device according to claim 5.
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記自車両(1)の速度に関する情報を取得し、
前記自車両(1)の速度が所定の閾値より速いと判定されると、
推定された、前記仮想区画線(EL1,EL2)に沿う前記線画像(200)の表示を前記画像表示(11)が停止するように、命令を実行する、
請求項5に記載の表示制御装置。 Said one or more processors (16)
From the one or more I/O interfaces (14),
Obtaining information about the speed of the own vehicle (1),
When it is determined that the speed of the host vehicle (1) is faster than a predetermined threshold,
Executing a command so that the image display (11) stops displaying the estimated line image (200) along the virtual lane markings (EL1, EL2),
The display control device according to claim 5.
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記自車両(1)が交差点付近であるか推定可能な情報を取得し、
前記自車両(1)が前記交差点付近であると判定されると、
推定された、前記仮想区画線(EL1,EL2)に沿う前記線画像(200)の表示を前記画像表示(11)が停止するように、命令を実行する、
請求項5に記載の表示制御装置。 Said one or more processors (16)
From the one or more I/O interfaces (14),
Acquiring information that can estimate whether the vehicle (1) is near an intersection,
When it is determined that the host vehicle (1) is near the intersection,
Executing a command so that the image display (11) stops displaying the estimated line image (200) along the virtual lane markings (EL1, EL2),
The display control device according to claim 5.
前記自車両(1)に設けられたカメラ(401)により撮像された画像に少なくとも基づく実区画線(320)の位置に関する情報を取得することと、
前記自車両(1)に設けられた前記カメラ(401)と異なる検出方法を有する1つ又はそれ以上のセンサ(403、405)による検出に基づく前記自車両(1)の走行レーンに沿って設けられる静止物標(330)の位置に関する情報を取得することと、
前記実区画線(320)の位置に関する情報と、前記静止物標(330)の位置に関する情報と、から前記実区画線(320)と前記静止物標(330)との間隔(D)を算出することと、
算出した前記間隔(D)と、前記静止物標(330)の位置に関する情報と、から前記仮想区画線(EL1,EL2)の位置を推定することと、
推定した前記仮想区画線(EL1,EL2)に沿う前記線画像(200)を前記画像表示(11)に表示させることと、を含む、
方法。 The position of the real lane markings (320) of the traveling lane of the host vehicle (1) is estimated, and a line image (200) along the virtual lane markings (EL1, EL2) that is the estimated real lane markings (320) is displayed. In the method of controlling the image display unit (11),
Acquiring information about the position of the real marking line (320) based at least on the image captured by the camera (401) provided in the vehicle (1);
Provided along the traveling lane of the own vehicle (1) based on detection by one or more sensors (403, 405) having a detection method different from that of the camera (401) provided in the own vehicle (1) Obtaining information about the position of the stationary target (330) to be captured,
An interval (D) between the real marking line (320) and the stationary target (330) is calculated from information about the position of the real marking line (320) and information about the position of the stationary target (330). What to do
Estimating the position of the virtual lane markings (EL1, EL2) from the calculated distance (D) and information about the position of the stationary target (330);
Displaying the line image (200) along the estimated virtual lane markings (EL1, EL2) on the image display (11).
Method.
前記複数の静止物標(330)の信頼度を算出することと、
前記信頼度が高い前記静止物標(330)と、前記間隔(D)と、から前記仮想区画線(EL1,EL2)の位置を推定することと、を含む、
請求項13に記載の方法。 Acquiring information about the positions of a plurality of stationary targets (330) provided along the traveling lane of the vehicle (1) based on detection by the one or more sensors (403, 405);
Calculating the reliability of the plurality of stationary targets (330);
Estimating the position of the virtual lane markings (EL1, EL2) from the stationary target (330) with high reliability and the distance (D).
The method of claim 13.
推定された、前記信頼度が高い前記静止物標(330)近い方の前記仮想区画線(EL1,EL2)に沿う前記線画像(200)のみ前記画像表示(11)が表示することと、を含む、
請求項14に記載の方法。 The position of the virtual marking line (EL1, EL2) closer to the stationary object (330) with high reliability is calculated from the stationary object (330) with high reliability and the interval (D). Estimating,
The image display (11) displays only the estimated line image (200) along the virtual lane markings (EL1, EL2) closer to the stationary target (330) with high reliability. Including,
The method according to claim 14.
前記信頼度の高い前記静止物標(330)に近い方の前記仮想区画線(EL1,EL2)の位置を、前記信頼度が高い前記静止物標(330)と、前記間隔(D)と、から推定することと、
前記仮想区画線(EL1,EL2)のもう一方の位置を、前記信頼度の高い前記静止物標(330)に近い方の前記仮想区画線(EL1,EL2)の位置と、前記走行レーン幅(Da1)とから推定することと、
推定した、左右の前記仮想区画線(EL1,EL2)それぞれに沿う前記線画像(200)を前記画像表示(11)が表示することと、を含む、
請求項14に記載の方法。 A traveling lane width between the left and right real marking lines (321, 322) of the traveling lane of the vehicle (1) based on at least an image captured by a camera (401) provided in the vehicle (1). Acquiring information about (Da1),
The position of the virtual marking line (EL1, EL2) closer to the highly reliable stationary target (330) is defined as the highly reliable stationary target (330) and the interval (D). From the
The other position of the virtual lane markings (EL1, EL2) is set to the position of the virtual lane markings (EL1, EL2) closer to the highly reliable stationary target (330), and the travel lane width ( Estimating from Da1) and
The image display (11) displaying the estimated line image (200) along each of the left and right virtual lane markings (EL1, EL2).
The method according to claim 14.
前記自車両(1)の側方又は後側方における前記静止物標(330)を検出する第2センサ(405)と、
前記自車両(1)の前方における前記静止物標(330)を検出する第1センサ(403)と、を含み、
前記カメラ(401)は、前記自車両(1)の側方又は後側方を撮像し、
前記実区画線(320)の位置に関する情報と、前記第1センサ(403)から取得した前記静止物標(330)の位置に関する情報と、から前記間隔(D)を算出することと、
算出した前記間隔(D)と、前記第1センサ(403)から取得した前記静止物標(330)の位置に関する情報と、から前記仮想区画線(EL1,EL2)の位置を推定することと、を含む、
請求項13に記載の方法。 The one or more sensors (403, 405) are
A second sensor (405) for detecting the stationary target (330) on the side or the rear side of the host vehicle (1);
A first sensor (403) for detecting the stationary target (330) in front of the host vehicle (1),
The camera (401) images the side or rear side of the vehicle (1),
Calculating the interval (D) from information about the position of the real marking line (320) and information about the position of the stationary target (330) acquired from the first sensor (403);
Estimating the position of the virtual lane markings (EL1, EL2) from the calculated distance (D) and information about the position of the stationary target (330) acquired from the first sensor (403); including,
The method of claim 13.
請求項13に記載の方法。 When it is determined that the information regarding the position of the real lane markings (320) cannot be partially acquired or the accuracy of the information regarding the position is partially low, at least the virtual lane markings (EL1, EL2) in the determined area are displayed. Displaying the line image (200) along the image display (11).
The method of claim 13.
前記自車両(1)の速度が所定の閾値より速いと判定されると、
推定された、前記仮想区画線(EL1,EL2)に沿う前記線画像(200)の表示を前記画像表示(11)が停止することと、を含む、
請求項13に記載の方法。 Obtaining information about the speed of the vehicle (1),
When it is determined that the speed of the host vehicle (1) is faster than a predetermined threshold,
Stopping the display of the line image (200) along the estimated virtual lane markings (EL1, EL2) by the image display (11).
The method of claim 13.
A computer program comprising instructions for performing the method according to any of claims 13-19.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018219805A JP2020086884A (en) | 2018-11-23 | 2018-11-23 | Lane marking estimation device, display control device, method and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018219805A JP2020086884A (en) | 2018-11-23 | 2018-11-23 | Lane marking estimation device, display control device, method and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020086884A true JP2020086884A (en) | 2020-06-04 |
Family
ID=70910008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018219805A Pending JP2020086884A (en) | 2018-11-23 | 2018-11-23 | Lane marking estimation device, display control device, method and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020086884A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114353817A (en) * | 2021-12-28 | 2022-04-15 | 重庆长安汽车股份有限公司 | Multi-source sensor lane line determination method, system, vehicle and computer-readable storage medium |
KR20230001925A (en) * | 2021-06-29 | 2023-01-05 | 주식회사대성엘텍 | Method and apparatus for supporting driving lines of vehicle in bad weather |
-
2018
- 2018-11-23 JP JP2018219805A patent/JP2020086884A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230001925A (en) * | 2021-06-29 | 2023-01-05 | 주식회사대성엘텍 | Method and apparatus for supporting driving lines of vehicle in bad weather |
KR102559534B1 (en) | 2021-06-29 | 2023-07-26 | 주식회사 디에이치오토웨어 | Method and apparatus for supporting driving lines of vehicle in bad weather |
CN114353817A (en) * | 2021-12-28 | 2022-04-15 | 重庆长安汽车股份有限公司 | Multi-source sensor lane line determination method, system, vehicle and computer-readable storage medium |
CN114353817B (en) * | 2021-12-28 | 2023-08-15 | 重庆长安汽车股份有限公司 | Multi-source sensor lane line determination method, system, vehicle and computer readable storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109215433B (en) | Vision-based driving scenario generator for automated driving simulation | |
US10502955B2 (en) | Head-up display device, navigation device, and display method | |
KR102504579B1 (en) | Conditional Availability of Vehicle Mixed Reality | |
US11535155B2 (en) | Superimposed-image display device and computer program | |
US9074906B2 (en) | Road shape recognition device | |
US9619719B2 (en) | Systems and methods for detecting traffic signs | |
JP7052786B2 (en) | Display control device and display control program | |
US20180260639A1 (en) | Systems and methods for detecting traffic signs | |
JP2020032866A (en) | Vehicular virtual reality providing device, method and computer program | |
US10922976B2 (en) | Display control device configured to control projection device, display control method for controlling projection device, and vehicle | |
KR20190052374A (en) | Device and method to visualize content | |
JP7255608B2 (en) | DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM | |
JP2020086884A (en) | Lane marking estimation device, display control device, method and computer program | |
JP7459883B2 (en) | Display control device, head-up display device, and method | |
JP6185327B2 (en) | Vehicle rear side warning device, vehicle rear side warning method, and other vehicle distance detection device | |
WO2020158601A1 (en) | Display control device, method, and computer program | |
KR101637298B1 (en) | Head-up display apparatus for vehicle using aumented reality | |
JP2020121607A (en) | Display control device, method and computer program | |
JP2020121704A (en) | Display control device, head-up display device, method and computer program | |
JP2020154468A (en) | Driving support device, method, and computer program | |
JP7416114B2 (en) | Display control device and display control program | |
JP7322886B2 (en) | Vehicle display, method and computer program | |
JP2020086882A (en) | Display control device, method and computer program | |
JP7434894B2 (en) | Vehicle display device | |
WO2022064542A1 (en) | Guidance control device and guidance control method |