JP2020086884A - Lane marking estimation device, display control device, method and computer program - Google Patents

Lane marking estimation device, display control device, method and computer program Download PDF

Info

Publication number
JP2020086884A
JP2020086884A JP2018219805A JP2018219805A JP2020086884A JP 2020086884 A JP2020086884 A JP 2020086884A JP 2018219805 A JP2018219805 A JP 2018219805A JP 2018219805 A JP2018219805 A JP 2018219805A JP 2020086884 A JP2020086884 A JP 2020086884A
Authority
JP
Japan
Prior art keywords
information
vehicle
stationary target
lane markings
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018219805A
Other languages
Japanese (ja)
Inventor
雄治 猪坂
Yuji Inosaka
雄治 猪坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2018219805A priority Critical patent/JP2020086884A/en
Publication of JP2020086884A publication Critical patent/JP2020086884A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide drive assistance useful for a driver by estimating a position of a lane marking of a cruising lane even in such an environment that it is hard for the driver to visually recognize the lane marking.SOLUTION: A processor acquires information on a position of a real lane marking 320 which is based on at least an image captured by a camera 401 provided in a self-vehicle and information on a position of a stationary object 330 which is provided along a cruising lane of the self-vehicle and is based on detection by one or more sensors 403, 405 provided in the self-vehicle and having a different detection method from that of the camera 401, calculates an interval D between the real lane marking 320 and the stationary object 330 on the basis of the information on the position of the real lane marking 320 and the information on the position of the stationary object 330, estimates a position of a virtual lane marking EL on the basis of the calculated interval D and the position of the stationary object detected by the sensors 403, 405 and then displays a line image 200 along the virtual lane marking EL.SELECTED DRAWING: Figure 1

Description

本開示は、区画線推定装置、表示制御装置、方法、及びコンピュータ・プログラムに関する。 The present disclosure relates to a marking line estimation device, a display control device, a method, and a computer program.

特許文献1には、カメラにより路面に描かれた白線(区画線)を検出し、自車両の走行レーンの左右の白線の間隔(道路幅)を逐次更新し、カメラにより一方のみの白線しか検出できなかった場合に、記憶しておいた道路幅のデータを用いて、カメラにより検出できている一方の白線を基準にして、もう一方の白線の位置を推定する仕切線認識装置が記載されている。 In Patent Document 1, a white line (compartment line) drawn on a road surface is detected by a camera, and an interval (road width) between the left and right white lines of a vehicle driving lane is sequentially updated, and only one white line is detected by a camera. If it is not possible, using the stored road width data, a partition line recognition device that estimates the position of the other white line based on the one white line detected by the camera is described. There is.

特開2003−44836号公報JP, 2003-44836, A

しかしながら、特許文献1では、左右の白線のうち、いずれか一方の白線が検出できることを前提にしているが、雨、霧、雪などの悪天候においては、左右両方の白線の検出が困難となることが想定される。 However, in Patent Document 1, it is assumed that either one of the left and right white lines can be detected, but it is difficult to detect both the left and right white lines in bad weather such as rain, fog, and snow. Is assumed.

本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。 A summary of the specific embodiments disclosed herein is provided below. It should be understood that these aspects are presented only to provide an overview of the reader to these particular embodiments and are not intended to limit the scope of this disclosure. Indeed, the present disclosure may include various aspects not described below.

本開示の概要は、走行レーンの区画線が視認しづらい環境でも区画線の位置を推定し、運転者に有益な運転支援を提供することに関する。より具体的には、走行レーンの区画線の位置を精度良く認識することにも関する。 The outline of the present disclosure relates to estimating the position of a lane marking even in an environment where the lane marking of a driving lane is difficult to see, and providing useful driving assistance to a driver. More specifically, it also relates to accurately recognizing the position of the lane markings in the traveling lane.

したがって、本明細書に記載される表示制御装置は、自車両に設けられたカメラにより撮像された画像に少なくとも基づく実区画線の位置に関する情報と、自車両に設けられたカメラと異なる検出方法を有する1つ又はそれ以上のセンサによる検出に基づく自車両の走行レーンに沿って設けられる静止物標の位置に関する情報と、を取得し、実区画線の位置に関する情報と、静止物標の位置に関する情報と、から実区画線と静止物標との間隔を算出し、算出した間隔と、静止物標の位置に関する情報と、から仮想区画線の位置を推定し、この仮想区画線に沿った画像を表示する。いくつかの実施形態では、1つ又はそれ以上のセンサによる検出に基づく自車両の走行レーンに沿って設けられる複数の静止物標の位置に関する情報、を取得し、複数の静止物標の信頼度を算出し、信頼度が高い静止物標と、間隔と、から仮想区画線の位置を推定してもよい。 Therefore, the display control device described in the present specification provides information regarding the position of the real lane markings based on at least the image captured by the camera provided in the own vehicle, and a detection method different from that of the camera provided in the own vehicle. The information about the position of the stationary target provided along the traveling lane of the own vehicle based on the detection by the one or more sensors having the information, and the information about the position of the real marking line and the position of the stationary target. The distance between the real marking line and the stationary target is calculated from the information, the position of the virtual marking line is estimated from the calculated distance and the information about the position of the stationary target, and the image along the virtual marking line is estimated. Is displayed. In some embodiments, information regarding positions of a plurality of stationary targets provided along a traveling lane of the vehicle based on detection by one or more sensors is acquired, and reliability of the plurality of stationary targets is acquired. May be calculated, and the position of the virtual lane marking may be estimated from the stationary target having high reliability and the interval.

いくつかの実施形態に係る、車両用表示システムの適用例を示す図である。It is a figure which shows the application example of the display system for vehicles which concerns on some embodiment. いくつかの実施形態に係る、車両用表示システムのブロック図である。FIG. 3 is a block diagram of a vehicular display system according to some embodiments. いくつかの実施形態に係る、区画線推定装置が算出する物標と実区画線との間隔を説明する図である。It is a figure explaining the space|interval of the target and real lane markings which a lane marking estimating device calculates concerning some embodiments. いくつかの実施形態に係る、区画線推定装置が推定する仮想区画線の位置を説明する図である。It is a figure explaining the position of the virtual lane marking which a lane marking estimating device estimates concerning some embodiments. いくつかの実施形態に係る、運転席から運転者が前方を向いた際に視認する前景と、この前景に重なって視認される車両用表示システムが表示する線画像と、を示す図である。It is a figure which shows the foreground which a driver|operator visually recognizes when facing a front from a driver|operator's seat, and the line image which the vehicle display system visually recognizes by overlapping with this foreground according to some embodiments. いくつかの実施形態に係る、運転席から運転者が前方を向いた際に視認する前景と、この前景に重なって視認される車両用表示システムが表示する線画像と、を示す図である。It is a figure which shows the foreground which a driver|operator visually recognizes when facing a front from a driver|operator's seat, and the line image which the vehicle display system visually recognizes by overlapping with this foreground according to some embodiments. いくつかの実施形態に係る、運転席から運転者が前方を向いた際に視認する前景と、この前景に重なって視認される車両用表示システムが表示する線画像と、を示す図である。It is a figure which shows the foreground which a driver|operator visually recognizes when facing a front from a driver|operator's seat, and the line image which the vehicle display system visually recognizes by overlapping with this foreground according to some embodiments. いくつかの実施形態に係る、区画線推定装置が実行する物標と実区画線との間隔を蓄積する処理のフロー図である。It is a flowchart of the process which accumulates the space|interval of the target and an actual lane marking which a lane marking estimating device performs according to some embodiments. いくつかの実施形態に係る、表示制御装置が実行する線画像の表示制御の処理を示すフロー図である。It is a flow figure showing processing of display control of a line picture which a display control device performs concerning some embodiments.

以下に、本発明に係る実施形態について図面を参照して説明する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 Embodiments according to the present invention will be described below with reference to the drawings. The present invention is not limited to the following embodiments (including the contents of the drawings). Of course, changes (including deletion of components) can be added to the following embodiments. Further, in the following description, in order to facilitate understanding of the present invention, description of known technical matters will be appropriately omitted.

以下、図1及び図2では、例示的な車両用表示システムの構成の説明を提供する。図3、図4、図6、図7では、例示的な制御の処理の流れを説明する。図5A、図5B、図5Cでは、表示例を提供する。 In the following, FIGS. 1 and 2 provide a description of the configuration of an exemplary vehicle display system. An exemplary control processing flow will be described with reference to FIGS. 3, 4, 6, and 7. 5A, 5B, 5C provide example displays.

図1を参照する。車両用表示システム10における線画像200を表示する画像表示部11は、自車両1のダッシュボード5内に設けられたヘッドアップディスプレイ(HUD:Head−Up Display)装置である。HUD装置は、表示光11aをフロントウインドシールド2(被投影部材の一例である)に向けて出射し、仮想的な表示領域100内に線画像200を表示することで、フロントウインドシールド2を介して視認される現実空間である前景300に重ねて線画像200を視認させる。 Please refer to FIG. The image display unit 11 that displays the line image 200 in the vehicular display system 10 is a head-up display (HUD: Head-Up Display) device provided in the dashboard 5 of the vehicle 1. The HUD device emits the display light 11a toward the front windshield 2 (which is an example of a member to be projected) and displays a line image 200 in the virtual display area 100, so that the display light 11a is transmitted through the front windshield 2. The line image 200 is visually recognized by superimposing it on the foreground 300 which is the real space visually recognized.

また、画像表示部11は、ヘッドマウントディスプレイ(以下、HMD)装置であってもよい。運転者4は、HMD装置を頭部に装着して自車両1の座席に着座することで、表示される線画像200を、自車両1のフロントウインドシールド2を介した前景300に重畳して視認する。車両用表示システム10が所定の線画像200を表示する表示領域100は、自車両1の座標系を基準とした特定の位置に固定され、運転者4がその方向を向くと、その特定の位置に固定された表示領域100内に表示された線画像200を視認することができる。 Further, the image display unit 11 may be a head mounted display (hereinafter, HMD) device. The driver 4 mounts the HMD device on his/her head and sits on the seat of the host vehicle 1 to superimpose the displayed line image 200 on the foreground 300 through the front windshield 2 of the host vehicle 1. To see. The display area 100 in which the vehicle display system 10 displays a predetermined line image 200 is fixed at a specific position with the coordinate system of the host vehicle 1 as a reference, and when the driver 4 faces in that direction, the specific position. The line image 200 displayed in the display area 100 fixed to can be visually recognized.

画像表示部11は、表示制御装置13の制御に基づいて、自車両1のフロントウインドシールド2を介して視認される現実空間である前景300に存在する、障害物(歩行者、自転車、自動二輪車、他車両)、路面、道路標識(区画線)、及び建物、などの実オブジェクトの近傍(画像と実オブジェクトとの位置関係の一例)、前記実オブジェクトに重なる位置(画像と実オブジェクトとの位置関係の一例)、又は前記実オブジェクトを基準に設定された位置(画像と実オブジェクトとの位置関係の一例)に線画像200を表示することで、視覚的な拡張現実(AR:Augmented Reality)を形成することもできる。 The image display unit 11 is an obstacle (pedestrian, bicycle, motorcycle) existing in the foreground 300 which is a real space visually recognized through the front windshield 2 of the vehicle 1 under the control of the display control device 13. , Other vehicles), road surfaces, road signs (lane markings), buildings, etc., near real objects (an example of the positional relationship between images and real objects), positions that overlap the real objects (positions between images and real objects) By displaying the line image 200 at a position (an example of the positional relationship between the image and the real object) set with reference to the real object, thereby making a visual augmented reality (AR). It can also be formed.

図2は、いくつかの実施形態に係る、車両用表示システム10のブロック図である。車両用表示システム10は、画像表示部11と、画像表示部11を制御する表示制御装置13と、で構成される。表示制御装置13は、1つ又はそれ以上のI/Oインタフェース14、1つ又はそれ以上のプロセッサ16、1つ又はそれ以上の記憶部18、及び1つ又はそれ以上の画像処理回路20を備える。図2に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図2は、実施態様の一実施例に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路20(例えば、グラフィック処理ユニット)が、1つ又はそれ以上のプロセッサ16に含まれてもよい。また、以下の説明では、本実施形態の表示制御装置13は、区画線推定装置としての機能も含むものとするが、区画線推定装置は、表示制御装置13と独立して構成されてもよい。 FIG. 2 is a block diagram of a vehicular display system 10 according to some embodiments. The vehicle display system 10 includes an image display unit 11 and a display control device 13 that controls the image display unit 11. The display controller 13 includes one or more I/O interfaces 14, one or more processors 16, one or more storage units 18, and one or more image processing circuits 20. .. The various functional blocks depicted in FIG. 2 may be implemented in hardware, software, or a combination of both. FIG. 2 is only one example of an embodiment, and the illustrated components may be combined into fewer components or there may be additional components. For example, image processing circuitry 20 (eg, a graphics processing unit) may be included in one or more processors 16. Further, in the following description, the display control device 13 of the present embodiment also includes a function as a marking line estimation device, but the marking line estimation device may be configured independently of the display control device 13.

図示するように、プロセッサ16及び画像処理回路20は、記憶部18と動作可能に連結される。より具体的には、プロセッサ16及び画像処理回路20は、記憶部18に記憶されているプログラムを実行することで、例えば画像データを生成又は/及び送信するなど、車両用表示システム10の操作を行うことができる。プロセッサ16又は/及び画像処理回路20は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。記憶部18は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVROMを含んでもよい。 As illustrated, the processor 16 and the image processing circuit 20 are operably connected to the storage unit 18. More specifically, the processor 16 and the image processing circuit 20 execute the program stored in the storage unit 18 to operate the vehicle display system 10, such as generating or/and transmitting image data. It can be carried out. The processor 16 or/and the image processing circuit 20 may be at least one general purpose microprocessor (eg, central processing unit (CPU)), at least one application specific integrated circuit (ASIC), at least one field programmable gate array (FPGA). , Or any combination thereof. The storage unit 18 includes any type of magnetic medium such as a hard disk, any type of optical medium such as CD and DVD, any type of semiconductor memory such as volatile memory, and non-volatile memory. Volatile memory may include DRAM and SRAM, and non-volatile memory may include ROM and NVROM.

図示するように、プロセッサ16は、I/Oインタフェース14と動作可能に連結されている。例えば、I/Oインタフェース14は、車両用表示システム10を、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi−Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)、4G又はLTE(登録商標)セルラーネットワークなどの広域ネットワーク(WAN)に接続する無線通信インタフェースを含むことができる。また、I/Oインタフェース14は、例えば、USBポート、シリアルポート、パラレルポート、OBDII、及び/又は他の任意の適切な有線通信ポートなどの有線通信インタフェースを含むことができる。 As shown, the processor 16 is operably coupled to the I/O interface 14. For example, the I/O interface 14 configures the vehicle display system 10 as a personal area network (PAN) such as a Bluetooth (registered trademark) network or a local area network (LAN) such as an 802.11x Wi-Fi (registered trademark) network. A wireless communication interface for connecting to a wide area network (WAN) such as a 4G or LTE cellular network can be included. The I/O interface 14 may also include a wired communication interface such as, for example, a USB port, a serial port, a parallel port, an OBDII, and/or any other suitable wired communication port.

図示するように、プロセッサ16は、I/Oインタフェース14と相互動作可能に連結されることで、車両用表示システム10(I/Oインタフェース14)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース14には、例えば、自車両1に設けられたカメラ401、前方センサ403(第1センサ)、側方センサ405(第2センサ)、目位置検出部407、道路情報データベース409、及び自車位置検出部411などが動作可能に連結される。画像表示部11は、プロセッサ16及び画像処理回路20に動作可能に連結される。したがって、画像表示部11によって表示される画像は、プロセッサ16又は/及び画像処理回路20から受信された画像データに基づいてもよい。プロセッサ16及び画像処理回路20は、I/Oインタフェース14から得られる情報に基づき、画像表示部11が表示する画像を制御する。なお、I/Oインタフェース14は、車両用表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。 As shown in the figure, the processor 16 is interoperably connected to the I/O interface 14 so as to be informed of various other electronic devices connected to the vehicle display system 10 (I/O interface 14). Can be given and received. The I/O interface 14 includes, for example, a camera 401, a front sensor 403 (first sensor), a side sensor 405 (second sensor), an eye position detection unit 407, a road information database 409 provided in the vehicle 1. Also, the vehicle position detection unit 411 and the like are operably connected. The image display unit 11 is operably connected to the processor 16 and the image processing circuit 20. Therefore, the image displayed by the image display unit 11 may be based on the image data received from the processor 16 and/or the image processing circuit 20. The processor 16 and the image processing circuit 20 control the image displayed by the image display unit 11 based on the information obtained from the I/O interface 14. The I/O interface 14 may include a function of processing (converting, calculating, analyzing) information received from another electronic device or the like connected to the vehicle display system 10.

自車両1は、自車両1の前方を少なくとも撮像する1つ又はそれ以上のカメラ401を含んでいる。これに加えて、カメラ401は、自車両1の側方、又は/及び後側方を撮像するカメラを含んでいてもよい。カメラ401は、自車両1の1箇所又は数箇所に取り付けられた単眼又は複眼のCCDカメラ、赤外線カメラ、その他の撮像装置であり、撮像した撮像画像をプロセッサ16に送信してもよい。プロセッサ16は、取得した撮像画像を公知のパターンマッチング法などで解析して、特定の実オブジェクト(走行レーンの実区画線)を抽出する機能を有していてもよいが、カメラ401が解析機能を有していてもよい。この場合、カメラ401は、撮像画像の解析結果(実オブジェクト関連情報)をプロセッサ16に送信してもよい。 The host vehicle 1 includes one or more cameras 401 that capture at least the front of the host vehicle 1. In addition to this, the camera 401 may include a camera that images the side and/or the rear side of the vehicle 1. The camera 401 is a monocular or compound-eye CCD camera, an infrared camera, or another imaging device attached to one or several locations of the vehicle 1, and may transmit the captured image to the processor 16. The processor 16 may have a function of analyzing the acquired captured image by a known pattern matching method or the like to extract a specific real object (real lane marking of the driving lane), but the camera 401 has an analysis function. May have. In this case, the camera 401 may send the analysis result of the captured image (real object related information) to the processor 16.

なお、カメラ401は、実オブジェクト関連情報を、その信頼度とともにプロセッサ16に送信し得る。例えば、カメラ401が、検出精度が低下する環境(雨、霧、雪などの悪天候)にある、カメラ401が泥などで覆われている、あるいは検出領域の一部のみに検出精度の低下を検出する、又は検出対象である走行レーンの区画線(実オブジェクトの一例)が、経年変化により一部が摩耗している、場合などには、カメラ401は、実オブジェクト関連情報の一部又は全部の信頼度を低い値として出力し、走行レーンの区画線がはっきりと確認できる場合などには、実オブジェクト関連情報の信頼度を高い値として出力してもよい。 It should be noted that the camera 401 can send the real object related information to the processor 16 together with its reliability. For example, the camera 401 is in an environment (such as bad weather such as rain, fog, or snow) in which the detection accuracy decreases, or the camera 401 is covered with mud or the detection accuracy is detected only in a part of the detection area. If the lane markings (an example of real objects) of the traveling lane that is the detection target are partially worn due to aging, the camera 401 determines that part or all of the real object related information is present. The reliability may be output as a low value, and the reliability of the real object related information may be output as a high value when the lane markings of the traveling lane can be clearly confirmed.

自車両1は、自車両1の前方に存在する物標までの測距を行う1つ又はそれ以上の前方センサ403(第1センサ)を含んでいる。前方センサ403は、自車両1の1箇所又は数箇所に取り付けられたミリ波レーダー、レーザーレーダー、超音波レーダーなどのレーダー装置、又はソナーをなどの測距装置である。前方センサ403は、前方センサ403の受信信号をプロセッサ16に送信してもよい。プロセッサ16は、取得した前方センサ403の受信信号を解析して、物標の有無、物標の位置、物標までの距離、及び物標の種類を検出する機能を有していてもよいが、前方センサ403が解析機能を有していてもよい。この場合、前方センサ403は、前方センサ403の受信信号の解析結果(物標情報)をプロセッサ16に送信してもよい。 The host vehicle 1 includes one or more front sensors 403 (first sensor) that perform distance measurement to a target existing in front of the host vehicle 1. The front sensor 403 is a radar device such as a millimeter wave radar, a laser radar, an ultrasonic radar, or a distance measuring device such as a sonar, which is attached to one or several places of the vehicle 1. The front sensor 403 may transmit the reception signal of the front sensor 403 to the processor 16. The processor 16 may have a function of analyzing the acquired reception signal of the front sensor 403 and detecting the presence or absence of a target, the position of the target, the distance to the target, and the type of the target. The front sensor 403 may have an analysis function. In this case, the front sensor 403 may transmit the analysis result (target information) of the reception signal of the front sensor 403 to the processor 16.

また、自車両1は、自車両1の側方に存在する物標までの測距を行う1つ又はそれ以上の側方センサ405(第2センサ)を含んでいてもよい。側方センサ405の構成は、前方センサ403と概ね同じであり、説明は省略する。なお、第2センサは、自車両1の後方に存在する物標までの測距を行ってもよい。 In addition, the host vehicle 1 may include one or more side sensors 405 (second sensor) that perform distance measurement to a target existing on the side of the host vehicle 1. The configuration of the side sensor 405 is substantially the same as that of the front sensor 403, and the description thereof will be omitted. The second sensor may measure the distance to the target existing behind the vehicle 1.

自車両1は、運転者4の目の位置を検出する赤外線カメラ等からなる目位置検出部407を含んでいてもよい。プロセッサ16は、赤外線カメラが撮像した画像(目の位置を推定可能な情報の一例)を取得し、この撮像画像を解析することで運転者4の目の位置を特定することができる。プロセッサ16は、赤外線カメラの撮像画像から特定された運転者4の目の位置の情報をI/Oインタフェース14から取得するものであってもよい。なお、自車両1の運転者4の目の位置、又は運転者4の目の位置を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。プロセッサ16は、運転者4の目の位置に基づき、線画像200の位置を少なくとも調整することで、前景300の所望の位置に重畳した線画像200を、目位置を検出した視認者(運転者4)に視認させてもよい。 The host vehicle 1 may include an eye position detection unit 407 including an infrared camera that detects the position of the eyes of the driver 4. The processor 16 can specify the eye position of the driver 4 by acquiring an image captured by the infrared camera (an example of information that can estimate the eye position) and analyzing the captured image. The processor 16 may acquire the information on the position of the eyes of the driver 4 identified from the image captured by the infrared camera from the I/O interface 14. The method for acquiring the position of the eyes of the driver 4 of the vehicle 1 or the information capable of estimating the position of the eyes of the driver 4 is not limited to these, and known eye position detection (estimation) It may be acquired using a technology. The processor 16 adjusts at least the position of the line image 200 based on the position of the eyes of the driver 4 so that the line image 200 superimposed on a desired position of the foreground 300 is detected by the viewer (driver). You may make it visible to 4).

自車両1は、ナビゲーションシステム等からなる道路情報データベース409を含んでいてもよい。道路情報データベース409は、後述する自車位置検出部411から取得される自車両1の位置に基づき、実オブジェクト関連情報の一例である自車両1が走行する道路情報(走行レーン,区画線,停止線,横断歩道,道路の幅員,走行レーン数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の有無、位置(自車両1までの距離を含む)、方向、形状、種類、詳細情報などを読み出し、プロセッサ16に送信することができる。特に、本実施形態では、プロセッサ16は、走行レーン脇に存在する静止物標の有無、静止物標の形状、静止物標の種類、静止物標の位置、静止物標から走行レーンの各区画線までの間隔、又は/及び各区画線同士の間隔を、道路情報データベース409から取得してもよい。 The host vehicle 1 may include a road information database 409 including a navigation system or the like. The road information database 409 includes road information (running lanes, lane markings, stop lines) on which the vehicle 1 travels, which is an example of actual object-related information, based on the position of the vehicle 1 acquired from a vehicle position detection unit 411 described later. Lines, pedestrian crossings, road width, number of driving lanes, intersections, curves, branches, traffic restrictions, etc.), presence/absence of feature information (buildings, bridges, rivers, etc.), position (including distance to own vehicle 1) , Direction, shape, type, detailed information, etc. can be read and transmitted to the processor 16. In particular, in the present embodiment, the processor 16 determines whether or not there is a stationary target existing beside the traveling lane, the shape of the stationary target, the type of the stationary target, the position of the stationary target, and each section from the stationary target to the traveling lane. The distance to the line or/and the distance between the respective division lines may be acquired from the road information database 409.

なお、プロセッサ16は、道路情報データベース409から取得する上記のような情報を、I/Oインタフェース14に接続された、図示しない携帯情報端末や車外通信接続機器から取得してもよい。携帯情報端末は、例えば、スマートフォン、ノートパソコン、スマートウォッチ、又は運転者4(又は自車両1の他の乗員)が携帯可能なその他の情報機器である。車外通信接続機器は、例えば、自車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、自車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。 The processor 16 may acquire the above-described information acquired from the road information database 409 from a portable information terminal (not shown) connected to the I/O interface 14 or a communication connection device outside the vehicle. The mobile information terminal is, for example, a smartphone, a laptop computer, a smart watch, or another information device that can be carried by the driver 4 (or another occupant of the vehicle 1). The outside-vehicle communication connection device is, for example, another vehicle connected to the own vehicle 1 by vehicle-to-vehicle communication (V2V: Vehicle To Vehicle), or a pedestrian (pedestrian) connected by vehicle-to-vehicle communication (V2P: Vehicle To Pedestal). Mobile communication terminal), and network communication equipment connected by road-to-vehicle communication (V2I: vehicle to load infrastructure), and in a broad sense, all network devices connected by communication (V2X: vehicle to everything). Including things.

自車両1は、GNSS(全地球航法衛星システム)等からなる自車位置検出部411を含んでいてもよい。道路情報データベース409、前記携帯情報端末、又は/及び車外通信接続機器は、自車位置検出部411から自車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、自車両1の周辺の情報を選択・生成して、プロセッサ16に送信することができる。 The host vehicle 1 may include a host vehicle position detection unit 411 including a GNSS (Global Navigation Satellite System) or the like. The road information database 409, the portable information terminal, and/or the communication device outside the vehicle obtains the position information of the own vehicle 1 from the own vehicle position detection unit 411 continuously, intermittently, or for each predetermined event, Information around the host vehicle 1 can be selected and generated and transmitted to the processor 16.

記憶部18に記憶されたソフトウェア構成要素は、物標検出モジュール502、実区画線検出モジュール504、道路形状推定モジュール506、物標−区画線間隔算出モジュール508、基準物標決定モジュール510、実区画線検出精度判定モジュール512、区画線位置推定モジュール514、目位置検出モジュール516、画像決定モジュール518、及びグラフィックモジュール520を含む。 The software components stored in the storage unit 18 include the target detection module 502, the actual lane marking detection module 504, the road shape estimation module 506, the target-division line interval calculation module 508, the reference target determination module 510, and the actual division. A line detection accuracy determination module 512, a marking line position estimation module 514, an eye position detection module 516, an image determination module 518, and a graphics module 520 are included.

物標検出モジュール502は、前方センサ403、側方センサ405が検出した複数の反射点(検出点の一例)を取得し、取得した複数の反射点を所定の条件に基づき同一の静止物標としてグルーピングする。例えば、物標検出モジュール502は、走行レーンの脇に連続的に存在する段差、壁、道路脇に断続的に存在するポールなどを同一の静止物標としてグルーピングすることができる。なお、静止物標として判定した場合、複数の反射点の間の反射点がない部分を、他の反射点で線形又は多項式で補間することで、静止物標の位置を部分的に推定してもよい。なお、物標検出モジュール502は、走行レーン脇に存在する静止物標の有無、静止物標の形状、静止物標の種類、静止物標の位置、を道路情報データベース409から取得し、同一の静止物標としてグルーピングする際の参考としてもよい。 The target detection module 502 acquires a plurality of reflection points (an example of detection points) detected by the front sensor 403 and the side sensor 405, and sets the acquired plurality of reflection points as the same stationary target based on a predetermined condition. Group. For example, the target detection module 502 can group a step, a wall, and a pole that are intermittently present on the side of the driving lane as the same stationary target. When it is determined as a stationary target, the position of the stationary target is partially estimated by linearly or polynomial interpolating other reflective points at the part where there are no reflective points. Good. The target detection module 502 acquires the presence/absence of a stationary target existing on the side of the traveling lane, the shape of the stationary target, the type of the stationary target, and the position of the stationary target from the road information database 409, and the same. It may be used as a reference when grouping as a stationary target.

また、物標検出モジュール502は、前方センサ403、側方センサ405が検出した複数の反射点(検出点の一例)のデータから、グルーピングされた同一の静止物標毎の信頼度を算出してもよい。例えば、物標検出モジュール502は、検出点の検出信号のレベルが低い静止物標、信号対ノイズ比(S/N比)が低い静止物標、信頼度の低い種類である静止物標、又は/及び道路情報データベース409から取得する静止物標との整合性の低い静止物標、を信頼度が低いと判定してもよい(静止物標の位置の信頼度を算出する方法はこれらに限定されない)。 In addition, the target detection module 502 calculates the reliability of each grouped stationary target from the data of a plurality of reflection points (an example of detection points) detected by the front sensor 403 and the side sensor 405. Good. For example, the target detection module 502 includes a stationary target with a low detection signal level at a detection point, a stationary target with a low signal-to-noise ratio (S/N ratio), a stationary target of a low reliability type, or / And a static target having low consistency with the static target acquired from the road information database 409 may be determined to have low reliability (the method of calculating the reliability of the position of the static target is limited to these). Not).

実区画線検出モジュール504は、カメラ401が撮像した画像をパターンマッチングなどで解析することで、実区画線の位置を検出する。なお、実区画線検出モジュール504は、前方センサ403、側方センサ405が検出した検出点を解析することで、実区画線の位置を検出してもよく、又はカメラ401が検出した実区画線と、前方センサ403、側方センサ405が検出した実区画線と、をフュージョンすることで実区画線の位置を検出してもよい。 The real lane marking detection module 504 detects the position of the real lane marking by analyzing the image captured by the camera 401 by pattern matching or the like. The real marking line detection module 504 may detect the position of the real marking line by analyzing the detection points detected by the front sensor 403 and the side sensor 405, or the real marking line detected by the camera 401. The position of the real marking line may be detected by fusing the front marking sensor 403 and the real marking line detected by the side sensor 405.

道路形状推定モジュール506は、実区画線検出モジュール504が検出した実区画線を元に、道路形状を推定する。なお、道路形状推定モジュール506は、物標検出モジュール502が検出した走行レーンの脇に連続又は断続的に存在する静止物標の位置(形状)を元に道路形状を推定してもよく、実区画線検出モジュール504が検出した実区画線の位置(形状)との組み合わせで推定してもよい。 The road shape estimation module 506 estimates the road shape based on the real lane markings detected by the real lane marking detection module 504. The road shape estimation module 506 may estimate the road shape based on the position (shape) of a stationary target continuously or intermittently beside the traveling lane detected by the target detection module 502. The estimation may be performed in combination with the position (shape) of the actual marking line detected by the marking line detection module 504.

物標−区画線間隔算出モジュール508は、静止物標と実区画線との間隔を連続的に算出し、この間隔データを蓄積する。具体的には、物標−区画線間隔算出モジュール508は、道路形状推定モジュール506により推定された道路形状を参照し、物標検出モジュール502で検出された静止物標の所定の点と、実区画線検出モジュール504で検出された実区画線の所定の点と、の間隔D(図3のD11〜D13、D21〜D23を参照)を算出し、この間隔Dのデータを記憶部18に蓄積してもよい。なお、間隔Dのデータは、自車両1の左側の実区画線と物標との間隔、右側の区画線と物標との間隔とを含む。また、連続又は断続的に検出される静止物標が複数存在する場合、物標−区画線間隔算出モジュール508は、連続又は断続的に検出される物標毎に区画線との間隔を算出して、間隔Dのデータを蓄積する。 The target-partition line interval calculation module 508 continuously calculates the interval between the stationary target and the actual lane markings, and stores the interval data. Specifically, the target-lane line spacing calculation module 508 refers to the road shape estimated by the road shape estimation module 506, and determines the predetermined point of the stationary target detected by the target detection module 502 and the actual point. An interval D (see D11 to D13 and D21 to D23 in FIG. 3) between a predetermined point of the actual lane marking detected by the lane marking detection module 504 is calculated, and the data of the distance D is accumulated in the storage unit 18. You may. The data of the distance D includes the distance between the actual marking line on the left side of the host vehicle 1 and the target, and the distance between the marking line on the right side and the target. Further, when there are a plurality of stationary targets that are detected continuously or intermittently, the target-partition line interval calculation module 508 calculates the interval with the marking line for each target that is detected continuously or intermittently. Then, the data of the interval D is accumulated.

図3は、物標−区画線間隔算出モジュール508が蓄積する、物標と実区画線との間隔Dを説明する図である。図3に記載した走行レーンは、自車両1の走行レーン311と、この走行レーン311の右隣の走行レーン312と、である。また図3に記載した実区画線は、自車両1の走行レーン311の左側の実区画線321と、自車両1の走行レーン311の右側(右隣の走行レーン312の左側)の実区画線322と、右隣の走行レーン312の右側の実区画線323である。また、図3に記載した静止物標は、自車両1の走行レーン311の左側の外側に存在する静止物標331と、右隣の走行レーン312の右側の外側に存在する静止物標332と、である。物標−区画線間隔算出モジュール508は、静止物標331から最も近い実区画線321との間隔D11、2番目に近い実区画線322との間隔D12、3番目に近い実区画線323との間隔D13、及び静止物標332から最も近い実区画線323との間隔D23、2番目に近い実区画線322との間隔D22、3番目に近い実区画線321との間隔D21、を連続又は断続的に算出して、記憶部18に記憶(蓄積)する。 FIG. 3 is a diagram for explaining the distance D between the target and the actual marking line, which is accumulated by the target-marking line distance calculation module 508. The traveling lanes illustrated in FIG. 3 are the traveling lane 311 of the host vehicle 1 and the traveling lane 312 on the right of the traveling lane 311. The actual lane markings illustrated in FIG. 3 are the actual lane markings 321 on the left side of the traveling lane 311 of the host vehicle 1 and the actual lane markings on the right side of the driving lane 311 of the subject vehicle 1 (on the left of the adjacent traveling lane 312 on the right). 322 and an actual partition line 323 on the right side of the traveling lane 312 on the right side. The stationary targets shown in FIG. 3 are a stationary target 331 existing outside the left side of the traveling lane 311 of the host vehicle 1 and a stationary target 332 existing outside of the right side of the traveling lane 312 on the right side. ,. The target-partition line interval calculation module 508 calculates a distance D11 between the stationary target 331 and the closest real partition line 321 and a distance D12 between the stationary target 331 and the second closest real partition line 322, and a third closest real partition line 323. The distance D13 and the distance D23 from the stationary target 332 to the closest real marking line 323, the distance D22 to the second closest real marking line 322, and the distance D21 to the third closest real marking line 321 are continuous or intermittent. Calculated and stored (accumulated) in the storage unit 18.

再び図2を参照する。基準物標決定モジュール510は、区画線を精度良く推定可能な静止物標を決定する。基準物標決定モジュール510は、各静止物標331,332と左側の実区画線321との間隔D11,D21、各静止物標331,332と右側の実区画線322との間隔D12,D22、及び各静止物標331,332と隣接走行レーンの実区画線323との間隔D13,D23、のそれぞれの正規分布のパラメータ(例えば、標準偏差)を、各間隔Dのデータの信頼度として計算し、左側の実区画線321との間隔D11,D21の信頼度が高い静止物標、右側の実区画線322との間隔D12,D22の信頼度が高い静止物標、又は/及び隣接走行レーンの実区画線323との間隔D13,D23の信頼度が高い静止物標を決定する。なお、基準物標決定モジュール510は、静止物標と区画線との間隔Dの信頼度に代えて、又はこれに加えて物標検出モジュール502が算出した静止物標毎の検出された位置の信頼度を用いて、信頼度の高い静止物標を決定してもよい。なお、区画線を精度良く推定可能な静止物標を決定する方法は、これらに限定されない。 Referring back to FIG. The reference target determination module 510 determines a stationary target capable of accurately estimating the marking line. The reference target determination module 510 includes distances D11 and D21 between the stationary targets 331 and 332 and the left lane marking 321 and distances D12 and D22 between the stationary targets 331 and 332 and the right lane marking 322, respectively. And parameters (for example, standard deviation) of the respective normal distributions of the intervals D13 and D23 between the stationary targets 331 and 332 and the actual lane markings 323 of the adjacent traveling lanes are calculated as the reliability of the data of the intervals D. , A stationary target with high reliability of the distances D11 and D21 from the left real lane marking 321 and a stationary target with high reliability of distances D12 and D22 from the right lane marking 322, and/or of adjacent traveling lanes. A stationary target having a high reliability of the distances D13 and D23 from the real marking line 323 is determined. Note that the reference target determination module 510 replaces the reliability of the distance D between the stationary target and the marking line, or in addition to this, with the detected position of each stationary target calculated by the target detection module 502. The reliability may be used to determine a highly reliable stationary target. The method of determining a stationary target that can accurately estimate the marking line is not limited to these.

実区画線検出精度判定モジュール512は、実区画線の検出の精度が低下する環境であるかを判定する。カメラ401や、前方センサ403において、区画線が検出できない部分があること、撮像画像(受信信号)のコントラスの低下、受信信号の減衰、検出ノイズの増加(S/N比の低下)、又は/及び解析時の信頼度の低下が検出された場合、実区画線検出精度判定モジュール512は、区画線検出の精度が低下する環境であると判定してもよい(判定方法は、これらに限定されない)。また、実区画線検出精度判定モジュール512は、図示しない携帯情報端末、車外通信接続機器などから車両が走行する位置の天候情報を取得することで、雨、霧、雪などの悪天候を判定し、区画線検出の精度が低下する環境であるかを判定してもよい。 The real lane marking detection accuracy determination module 512 determines whether the environment is such that the accuracy of detecting the real lane markings decreases. In the camera 401 or the front sensor 403, there is a part where the marking line cannot be detected, the contrast of the captured image (reception signal) is reduced, the reception signal is attenuated, the detection noise is increased (S/N ratio is reduced), or In addition, when a decrease in reliability at the time of analysis is detected, the actual lane marking detection accuracy determination module 512 may determine that the environment is one in which the lane marking detection accuracy decreases (the determination method is not limited to these. ). In addition, the real lane marking detection accuracy determination module 512 determines bad weather such as rain, fog, and snow by acquiring weather information of a position where the vehicle travels from a portable information terminal (not shown), an external communication connection device, and the like, It may be determined whether or not the environment is one in which the accuracy of lane marking detection is reduced.

区画線位置推定モジュール514は、静止物標を基準にして、区画線の位置を推定する。具体的には、区画線位置推定モジュール514は、基準物標決定モジュール510が決定した静止物標を基準に、物標−区画線間隔算出モジュール508が算出した間隔Dの平均値に基づき、区画線の位置を推定する。 The marking line position estimation module 514 estimates the marking line position based on the stationary target. Specifically, the lane marking position estimation module 514 uses the stationary target determined by the reference target determination module 510 as a reference, based on the average value of the distance D calculated by the target-lane marking distance calculation module 508, Estimate the position of the line.

図4は、区画線位置推定モジュール514が推定する仮想区画線の位置を説明する図である。図4に記載した走行レーンは、自車両1の走行レーン311と、この走行レーン311の右隣の走行レーン312と、である。また、図4に記載した実区画線は、自車両1の走行レーン311の左側の実区画線321と、自車両1の走行レーン311の右側(右隣の走行レーン312の左側)の実区画線322と、右隣の走行レーン312の右側の実区画線323である。図4では、走行レーンの実区画線の検出精度が低下した又は走行レーンの実区画線が検出できず、推定された区画線(仮想区画線)を点線で記す。区画線位置推定モジュール514は、左側の実区画線321の先の(遠方の)仮想区画線EL1、右側の実区画線322の先の(遠方の)仮想区画線EL2、右隣の走行レーン312の右側の実区画線323の先の(遠方の)仮想区画線EL3を推測する。 FIG. 4 is a diagram illustrating the position of the virtual lane markings estimated by the lane marking position estimation module 514. The traveling lanes illustrated in FIG. 4 are the traveling lane 311 of the host vehicle 1 and the traveling lane 312 on the right of the traveling lane 311. In addition, the actual lane markings shown in FIG. 4 are the actual lane markings 321 on the left side of the traveling lane 311 of the host vehicle 1 and the actual lanes on the right side of the traveling lane 311 of the subject vehicle 1 (on the left of the adjacent traveling lane 312 on the right). A line 322 and an actual lane marking 323 on the right side of the traveling lane 312 on the right side. In FIG. 4, the accuracy of detection of the actual lane markings of the traveling lane is lowered, or the actual lane markings of the traveling lane cannot be detected, and the estimated lane markings (virtual lane markings) are indicated by dotted lines. The partition line position estimation module 514 uses the virtual partition line EL1 ahead (far) of the real partition line 321 on the left side, the virtual partition line EL2 ahead (far) of the real partition line 322 on the right side, and the traveling lane 312 on the right side. The virtual lane marking EL3 ahead (far) of the real lane marking 323 on the right side of is estimated.

例えば、基準物標決定モジュール510は、自車両1の走行レーン311の左側の仮想区画線EL1を決定するに際し、記憶部18に蓄積された左側の静止物標331と実区画線321との間隔D11の標準偏差と、記憶部18に蓄積された右側の静止物標332と実区画線321との間隔D21の標準偏差と、を比較し、より信頼度の高い静止物標を決定する(ここでは、静止物標331の信頼度が高いものとする)。次に、物標検出モジュール502が検出した静止物標331を基準に、記憶部18に蓄積された静止物標331と実区画線321との間隔D11の平均値E11に基づき、仮想区画線EL1を推定する。同様に、基準物標決定モジュール510は、自車両1の走行レーン311の右側の仮想区画線EL2を決定するに際し、記憶部18に蓄積された左側の静止物標331と実区画線322との間隔D12の標準偏差と、記憶部18に蓄積された右側の静止物標332と実区画線322との間隔D22の標準偏差と、を比較し、より信頼度の高い静止物標を決定する(ここでは、静止物標332の信頼度が高いものとする)。次に、物標検出モジュール502が検出した静止物標332を基準に、記憶部18に蓄積された静止物標332と実区画線322との間隔D22の平均値E22に基づき、仮想区画線EL2を推定する。なお、静止物標の信頼度が記憶部18に記憶された所定の条件を満たさずに低いと判定される場合、自車両1の近傍で継続して検出可能な実区画線同士の間隔Daを参照し、静止物標を基準に推定された一方の仮想区画線からもう一方の仮想区画線を推定してもよい。 For example, the reference target determination module 510 determines the distance between the left stationary target 331 and the actual lane marking 321 accumulated in the storage unit 18 when determining the virtual lane marking EL1 on the left side of the traveling lane 311 of the vehicle 1. The standard deviation of D11 and the standard deviation of the distance D21 between the stationary object 332 on the right side and the actual marking line 321 accumulated in the storage unit 18 are compared to determine a stationary object with higher reliability (here. Then, it is assumed that the stationary target 331 has high reliability). Next, based on the stationary target 331 detected by the target detection module 502, based on the average value E11 of the distance D11 between the stationary target 331 and the real marking line 321 accumulated in the storage unit 18, the virtual marking line EL1 To estimate. Similarly, when the reference target determination module 510 determines the virtual lane marking EL2 on the right side of the traveling lane 311 of the host vehicle 1, the reference target 331 and the real lane marking 322 on the left side accumulated in the storage unit 18 are stored. The standard deviation of the distance D12 and the standard deviation of the distance D22 between the stationary object 332 on the right side and the actual lane marking 322 accumulated in the storage unit 18 are compared, and a stationary object having higher reliability is determined ( Here, the reliability of the stationary target 332 is assumed to be high). Next, based on the stationary target 332 detected by the target detection module 502, the virtual marking line EL2 is calculated based on the average value E22 of the distance D22 between the stationary target 332 and the real marking line 322 accumulated in the storage unit 18. To estimate. In addition, when the reliability of the stationary target is determined to be low without satisfying the predetermined condition stored in the storage unit 18, the distance Da between the actual lane markings that can be continuously detected in the vicinity of the vehicle 1 is set. The other virtual lane marking may be estimated from one virtual lane marking estimated with reference to the stationary target.

目位置検出モジュール516は、自車両1の運転者4の眼の位置を検出する。目位置検出モジュール516は、複数段階で設けられた高さ領域のどこに運転者4の眼の高さがあるかの判定、運転者4の眼の高さ(Y軸方向の位置)の検出、運転者4の眼の高さ(Y軸方向の位置)及び奥行方向の位置(Z軸方向の位置)の検出、運転者4の眼の位置(X,Y,Z軸方向の位置)の検出、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。目位置検出モジュール516は、例えば、目位置検出部407から運転者4の眼の位置を取得する、又は、目位置検出部407から運転者4の目の高さを含む目の位置を推定可能な情報を受信し、運転者4の目の高さを含む目の位置を推定する。目の位置を推定可能な情報は、例えば、自車両1の運転席の位置、運転者4の顔の位置、座高の高さ、運転者4による図示しない操作部での入力値などであってもよい。 The eye position detection module 516 detects the position of the eyes of the driver 4 of the vehicle 1. The eye position detection module 516 determines where the eye height of the driver 4 is in the height region provided in a plurality of stages, detects the eye height of the driver 4 (position in the Y-axis direction), Detection of the eye height (position in the Y-axis direction) and depth position (position in the Z-axis direction) of the driver 4, detection of eye position (position in the X, Y, Z-axis directions) of the driver 4 , And various software components for performing various operations related to. The eye position detection module 516 can acquire the eye position of the driver 4 from the eye position detection unit 407, or can estimate the eye position including the eye height of the driver 4 from the eye position detection unit 407, for example. Information is received and the eye position including the eye height of the driver 4 is estimated. The information capable of estimating the position of the eyes includes, for example, the position of the driver's seat of the vehicle 1, the position of the driver's 4 face, the height of the sitting height, the input value by the driver 4 on the operation unit (not shown), and the like. Good.

画像決定モジュール518は、推定した区画線である仮想区画線に沿うように運転者4に視認される線画像200の種類、位置、及びサイズを決定する。画像決定モジュール518は、線画像200の種類を、実区画線320の種類、線画像200の報知必要度、又は/及び区画線検出の精度の低下の度合いなどによって決定し得る。また、画像決定モジュール518は、線画像200の位置を、区画線位置推定モジュール514が推定した仮想区画線ELの位置に応じて、仮想区画線ELに沿うように配置する。画像決定モジュール518は、線画像200の位置を、仮想区画線ELと重なる位置としてもよく、仮想区画線ELからオフセットされた位置にしてもよい。また、画像決定モジュール518は、線画像200を遠近法で生成することでサイズを決定する。すなわち、遠方の前景300に重なる線画像200を小さく、近傍の前景300に重なる線画像200を大きくするように調整する。 The image determination module 518 determines the type, position, and size of the line image 200 visually recognized by the driver 4 along the virtual lane marking that is the estimated lane marking. The image determination module 518 can determine the type of the line image 200 based on the type of the actual lane marking 320, the notification necessity of the line image 200, and/or the degree of deterioration of the lane marking detection accuracy. Further, the image determination module 518 arranges the position of the line image 200 along the virtual lane marking EL according to the position of the virtual lane marking EL estimated by the lane marking position estimation module 514. The image determination module 518 may set the position of the line image 200 to a position overlapping with the virtual lane marking EL, or a position offset from the virtual lane marking EL. Further, the image determination module 518 determines the size by generating the line image 200 by the perspective method. That is, the line image 200 overlapping the distant foreground 300 is adjusted to be small, and the line image 200 overlapping the nearby foreground 300 is adjusted to be large.

グラフィックモジュール520は、表示される線画像200の、視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)、サイズ、表示位置、表示距離(運転者4から線画像200までの距離)を変更するための様々な既知のソフトウェア構成要素を含む。グラフィックモジュール520は、画像決定モジュール518が設定した種類、座標(運転者4が自車両1の運転席から表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)、画像サイズで運転者4に視認されるように線画像200を表示する。グラフィックモジュール520は、自車両1の進行に伴い運転者4から見える前景300が接近すると、その前景300に対する線画像200の相対位置が変化していないように、前景300に追従して線画像200の位置を連続的に調整してもよく、画像サイズも徐々に大きくなるように調整してもよい。 The graphics module 520 may include visual effects (eg, brightness, transparency, saturation, contrast, or other visual characteristic), size, display position, display distance (from driver 4 to line image 200) of the displayed line image 200. Various known software components for changing the distance to. The graphic module 520 includes the type and coordinates set by the image determination module 518 (the left-right direction (X-axis direction) when the driver 4 views the display area 100 from the driver's seat of the vehicle 1 and the vertical direction (Y). The line image 200 is displayed so as to be visually recognized by the driver 4 in the image size (including at least the axial direction). The graphic module 520 follows the foreground 300 so that the relative position of the line image 200 with respect to the foreground 300 does not change when the foreground 300 seen by the driver 4 approaches as the vehicle 1 advances. The position of may be adjusted continuously, or the image size may be adjusted to gradually increase.

また、グラフィックモジュール520は、I/Oインタフェース14から取得される情報に基づき、線画像200を表示すべきではない(又は表示しない方がよい)と判定できる場合、線画像200の視認性を低下させてもよい(表示させないことも含む)。具体的には、グラフィックモジュール520は、図示しない自車両1のECUから取得した速度が所定の閾値以上であれば、線画像200の視認性を低下させてもよい。視界不良の環境でも線画像200が表示されると、それに安心して速度が過度に増加してしまうことも想定されるが、自車両1の速度が速くなった際に、線画像200の視認性を低下させることで、このような速度超過を抑制することもできる。また、グラフィックモジュール520は、道路情報データベース409から取得した情報に基づき、自車両1が交差点付近であると判定されると、線画像200の視認性を低下させてもよい。交差点付近では、走行レーンに沿った物標がなくなることが想定され、十分な信頼度で仮想区画線を推定できなくなることが想定されるが、自車両1が交差点に接近することを検出して、線画像200の視認性を低下させることで、信頼度の低い仮想区画線に沿った線画像200を視認させづらくすることができる。 Further, when the graphic module 520 can determine that the line image 200 should not be displayed (or should not be displayed) based on the information acquired from the I/O interface 14, the visibility of the line image 200 is reduced. You may allow it (including not displaying it). Specifically, the graphic module 520 may reduce the visibility of the line image 200 if the speed acquired from the ECU of the host vehicle 1 (not shown) is equal to or higher than a predetermined threshold. When the line image 200 is displayed even in an environment with poor visibility, it is assumed that the speed may excessively increase with peace of mind, but when the speed of the host vehicle 1 increases, the visibility of the line image 200 may be increased. It is also possible to suppress such an excessive speed by reducing Further, the graphic module 520 may reduce the visibility of the line image 200 when it is determined that the vehicle 1 is near the intersection based on the information acquired from the road information database 409. In the vicinity of the intersection, it is assumed that there will be no target along the driving lane, and it will be impossible to estimate the virtual lane markings with sufficient reliability. However, when the own vehicle 1 detects that the vehicle approaches the intersection. By reducing the visibility of the line image 200, it is possible to make it difficult to visually recognize the line image 200 along the virtual partition line with low reliability.

図5A、図5B、及び図5Cは、自車両1の運転席から運転者4が前方を向いた際に視認される、前景300と、前景300に重なる線画像200とを示す図である。プロセッサ16及び画像処理回路20は、図5Aに示すように、自車両1の走行レーン311の左側の仮想区画線EL1に沿った線画像201と、右側の仮想区画線EL2に沿った線画像202と、を画像表示部11に表示させてもよい。また、プロセッサ16及び画像処理回路20は、図5Bに示すように、推定される仮想区画線ELの信頼度が低い場合、信頼度が高い左右いずれか一方の仮想区画線ELに沿った線画像201のみ表示させてもよい。また、プロセッサ16及び画像処理回路20は、図5Cに示すように、仮想区画線ELに沿うように、自車両1の走行レーン311の中央付近に線画像203を表示させてもよい。 5A, 5B, and 5C are diagrams showing a foreground 300 and a line image 200 overlapping the foreground 300 that are visually recognized when the driver 4 faces forward from the driver's seat of the vehicle 1. The processor 16 and the image processing circuit 20 are, as shown in FIG. 5A, a line image 201 along the virtual lane marking line EL1 on the left side of the driving lane 311 of the host vehicle 1 and a line image 202 along the virtual lane marking line EL2 on the right side. And may be displayed on the image display unit 11. Further, as shown in FIG. 5B, when the reliability of the estimated virtual lane markings EL is low, the processor 16 and the image processing circuit 20 show a line image along one of the left and right virtual lane markings EL with high reliability. Only 201 may be displayed. Further, as shown in FIG. 5C, the processor 16 and the image processing circuit 20 may display the line image 203 near the center of the traveling lane 311 of the host vehicle 1 along the virtual lane markings EL.

図6は、いくつかの実施形態に係る、物標と実区画線との間隔を蓄積する処理のフロー図である。この処理は、自車両1が走行を開始してから走行を終了するまで繰り返し実行されるが、処理負荷を軽減するため、線画像200の表示が必要になる程に実区画線の検出の精度が低下してから、又は線画像200の表示は必要ではないが、実区画線の検出の精度が低下してから、この処理は実行されてもよい。 FIG. 6 is a flow diagram of a process of accumulating the distance between the target and the real marking line according to some embodiments. This processing is repeatedly executed from the start of the own vehicle 1 to the end of the traveling. However, in order to reduce the processing load, the accuracy of detection of the actual lane markings is required to display the line image 200. Is not required, or the line image 200 is not required to be displayed, but this process may be performed after the accuracy of detecting the actual marking line is reduced.

まず、プロセッサ16は、物標検出モジュール502を実行し、前方センサ403、又は/及び側方センサ405から走行レーンの脇に連続又は断続的に存在する物標の位置を少なくとも取得し、データを記憶部18に蓄積し(ステップS11)、実区画線検出モジュール504を実行し、カメラ401から走行レーンの左右の実区画線の位置を少なくとも取得し、データを記憶部18に蓄積し(ステップS12)、物標−区画線間隔算出モジュール508を実行し、静止物標と実区画線との間隔を算出し、データを記憶部18に蓄積する。 First, the processor 16 executes the target detection module 502 to acquire at least the position of the target existing continuously or intermittently beside the traveling lane from the front sensor 403 and/or the side sensor 405, and obtains the data. The data is stored in the storage unit 18 (step S11), the real lane marking detection module 504 is executed, at least the positions of the real lane markings on the left and right of the traveling lane are acquired from the camera 401, and the data is stored in the storage unit 18 (step S12). ), the target-partition line interval calculation module 508 is executed, the interval between the stationary target and the actual lane marking is calculated, and the data is accumulated in the storage unit 18.

図7は、いくつかの実施形態に係る、線画像200の表示制御の処理を示すフロー図である。この処理は、自車両1が走行を開始してから走行を終了するまで繰り返し実行される。 FIG. 7 is a flowchart showing a process of display control of the line image 200 according to some embodiments. This process is repeatedly executed from the time the host vehicle 1 starts running to the end of running.

プロセッサ16は、実区画線検出精度判定モジュール512を実行し、実区画線の一部又は全部の検出の精度が低下する環境であるかを判定し(ステップS21)、実区画線の一部又は全部の検出の精度が低下していなければ(ステップS21でNo)、ステップS21を繰り返し、実区画線の一部又は全部の検出の精度が低下してれば(ステップS21でYes)、ステップS22に移行する。 The processor 16 executes the real lane marking detection accuracy determination module 512 to determine whether the environment is such that the detection accuracy of part or all of the real lane markings decreases (step S21), and the real lane markings If the accuracy of all detections has not deteriorated (No in step S21), step S21 is repeated. If the accuracy of detection of part or all of the real marking lines has decreased (Yes in step S21), step S22. Move to.

次にプロセッサ16は、自車両1が閾値未満であるかを判定し(ステップS22)、かつ自車両1が交差点付近ではないかを判定し(ステップS23)、自車両1が閾値以上である(ステップS22でNo)、又は自車両1が交差点付近である(ステップS23でNo)場合、グラフィックモジュール520を実行し、線画像200の視認性を低下させる。 Next, the processor 16 determines whether the host vehicle 1 is less than the threshold value (step S22), and determines whether the host vehicle 1 is near the intersection (step S23), and the host vehicle 1 is equal to or more than the threshold value (step S23). If No in step S22) or if the vehicle 1 is near the intersection (No in step S23), the graphic module 520 is executed to reduce the visibility of the line image 200.

プロセッサ16は、自車両1が閾値未満である(ステップS22でYes)、かつ自車両1が交差点付近である(ステップS23でYes)場合、基準物標決定モジュール510を実行し、複数の静止物標の中から仮想区画線を精度良く推定可能な静止物標を決定し(ステップS24)、決定した静止物標から仮想区画線の位置を推定し、その仮想区画線に沿うように線画像200を表示する(ステップS25)。 When the host vehicle 1 is less than the threshold value (Yes in step S22) and the host vehicle 1 is near the intersection (Yes in step S23), the processor 16 executes the reference target determination module 510 to execute a plurality of stationary objects. A stationary target that can accurately estimate the virtual marking line is determined from the targets (step S24), the position of the virtual marking line is estimated from the determined stationary target, and the line image 200 is arranged along the virtual marking line. Is displayed (step S25).

上述の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、又は/及びそれらの機能を代替えし得る一般的なハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。 The operations of the processing processes described above can be performed by executing one or more functional modules of an information processing device such as a general-purpose processor or an application-specific chip. All of these modules, a combination of these modules, and/or a combination with general hardware capable of substituting their functions are included in the scope of protection of the present invention.

車両用表示システム10の機能ブロックは、任意選択的に、説明される様々な実施例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図2で説明する機能ブロックが、説明される実施例の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。 The functional blocks of the vehicular display system 10 are optionally implemented by hardware, software, or a combination of hardware and software to implement the principles of the various described embodiments. The functional blocks described in FIG. 2 may optionally be combined or one functional block may be separated into two or more sub-blocks to implement the principles of the described embodiments. As will be appreciated by those skilled in the art. Thus, the description herein optionally supports any possible combination or division of the functional blocks described herein.

以上に説明したように、いくつかの実施形態では、1つ又はそれ以上のプロセッサ16は、1つ又はそれ以上のI/Oインタフェース14から、自車両1に設けられたカメラ401により撮像された画像に少なくとも基づく実区画線320の位置に関する情報と、自車両1に設けられたカメラ401と異なる検出方法を有する1つ又はそれ以上のセンサ403、405による検出に基づく自車両1の走行レーンに沿って設けられる静止物標330の位置に関する情報と、を取得し、実区画線320の位置に関する情報と、静止物標330の位置に関する情報と、から実区画線320と静止物標330との間隔Dを算出し、算出した間隔Dと、静止物標330の位置に関する情報と、から仮想区画線ELの位置を推定し、推定した仮想区画線ELに沿う線画像200を画像表示11が表示する。これにより、実区画線がカメラで検出しづらい環境でも、静止物標を基準にした仮想区画線を精度良く推定することができる。 As described above, in some embodiments, the one or more processors 16 are imaged by the camera 401 provided in the vehicle 1 from the one or more I/O interfaces 14. Information regarding the position of the real lane marking 320 based on at least the image and the traveling lane of the host vehicle 1 based on the detection by one or more sensors 403 and 405 having a detection method different from that of the camera 401 provided in the host vehicle 1. The information about the position of the stationary target 330 provided along the information is acquired, and the information about the position of the real marking line 320 and the information about the position of the stationary target 330 are acquired. The distance D is calculated, the position of the virtual lane marking EL is estimated from the calculated distance D and the information about the position of the stationary target 330, and the image display 11 displays the line image 200 along the estimated virtual lane marking EL. To do. As a result, even in an environment where the actual marking line is difficult to detect with the camera, the virtual marking line based on the stationary target can be accurately estimated.

また、いくつかの実施形態では、1つ又はそれ以上のセンサ403、405による検出に基づく自車両1の走行レーンに沿って設けられる複数の静止物標330の位置に関する情報、を取得し、複数の静止物標330の信頼度を算出し、信頼度が高い静止物標330と、算出した間隔Dと、から仮想区画線ELの位置を推定してもよい。1つ又はそれ以上のセンサ403、405の検出結果から、物標の信頼度を算出して、信頼度の高い静止物標に基づいて、精度よく仮想区画線ELを推定可能である。 Further, in some embodiments, information regarding the positions of the plurality of stationary targets 330 provided along the traveling lane of the vehicle 1 based on the detection by the one or more sensors 403 and 405 is acquired, and The reliability of the stationary target 330 may be calculated, and the position of the virtual lane marking EL may be estimated from the stationary target 330 having high reliability and the calculated interval D. The reliability of the target can be calculated from the detection results of the one or more sensors 403 and 405, and the virtual marking line EL can be accurately estimated based on the highly reliable stationary target.

また、いくつかの実施形態では、1つ又はそれ以上のプロセッサ16は、信頼度が高い静止物標330に近い方の仮想区画線ELの位置を、信頼度が高い静止物標330と、間隔Dと、から推定し、推定された、信頼度が高い静止物標330に近い方の仮想区画線ELに沿う線画像200のみ画像表示11が表示するようにしてもよい。信頼度の高いと判定された静止物標から、この信頼度の高い静止物標に近い仮想区画線を推定することで、誤差が小さく、仮想区画線を推定することができる。 Also, in some embodiments, one or more processors 16 may determine the position of the virtual lane marking EL closer to the highly reliable stationary target 330 to be spaced from the more reliable stationary target 330. Alternatively, the image display 11 may display only the line image 200 along the virtual lane marking EL that is estimated from D and that is closer to the highly reliable stationary target 330. By estimating a virtual marking line close to the highly reliable stationary target from the stationary target determined to have high reliability, the error is small and the virtual marking line can be estimated.

また、いくつかの実施形態では、1つ又はそれ以上のプロセッサ16は、自車両1に設けられたカメラ401により撮像された画像に少なくとも基づいて、自車両1の走行レーンの左右の実区画線321、322の間の走行レーン幅Da1に関する情報を取得し、信頼度の高い静止物標330に近い方の仮想区画線ELの位置を、信頼度が高い静止物標330と、算出した間隔Dと、から推定し、仮想区画線ELのもう一方の位置を、信頼度の高い静止物標330に近い方の仮想区画線ELの位置と、走行レーン幅Da1とから推定し、推定した、左右の仮想区画線EL1,EL2それぞれに沿う線画像200を画像表示11が表示するようにしてもよい。これによれば、信頼度の高い1つの静止物標から精度よく、複数の仮想区画線の位置を推定することができる。 Further, in some embodiments, the one or more processors 16 are configured so that the real lane markings on the left and right of the traveling lane of the host vehicle 1 are based on at least the image captured by the camera 401 provided in the host vehicle 1. The information about the travel lane width Da1 between 321 and 322 is acquired, and the position of the virtual lane marking EL closer to the highly reliable stationary target 330 is calculated as the calculated highly reliable stationary target 330 and the calculated distance D. And the other position of the virtual lane marking EL is estimated from the position of the virtual lane marking EL closer to the highly reliable stationary target 330 and the traveling lane width Da1. The image display 11 may display the line images 200 along the virtual lane markings EL1 and EL2. According to this, it is possible to accurately estimate the positions of the plurality of virtual lane markings from one highly reliable stationary target.

また、いくつかの実施形態では、自車両1の前方における静止物標330を検出する第1センサ403と、自車両1の側方又は後側方における静止物標330を検出する第2センサ405と、を含み、前記カメラ401は、前記自車両1の側方又は後側方を撮像し、1つ又はそれ以上のプロセッサ16は、実区画線320の位置に関する情報と、第2センサ405から取得した静止物標330の位置に関する情報と、から間隔Dを算出し、算出した間隔Dと、第1センサ403から取得した静止物標330の位置に関する情報と、から仮想区画線ELの位置を推定してもよい。これによれば、自車両1の側方又は後側方で第2センサ405が検出した物標の位置と、自車両1の近傍(側方、又は後側方)でカメラ401が検出した実区画線320の位置と、に基づき、静止物標330と実区画線320との間隔Dを算出し、この算出した間隔Dと、自車両1の前方で第1センサ403が検出した静止物標330の位置とで、仮想区画線ELを推定する。すなわち、自車両1の側方又は後側方であれば、自車両1の近傍に実区画線320が存在するため、カメラ401で自車両1の前方の実区画線が検出しにくい環境下でも、実区画線と静止物標との間隔を取得し続けることができる。 In some embodiments, the first sensor 403 that detects the stationary target 330 in front of the host vehicle 1 and the second sensor 405 that detects the stationary target 330 on the side or the rear side of the host vehicle 1. And the camera 401 images the side or rear side of the host vehicle 1, and the one or more processors 16 include information regarding the position of the real marking line 320 and the second sensor 405. The distance D is calculated from the acquired information about the position of the stationary target 330, and the position of the virtual lane marking EL is calculated from the calculated interval D and the information about the position of the stationary target 330 acquired from the first sensor 403. It may be estimated. According to this, the position of the target detected by the second sensor 405 on the side or the rear side of the host vehicle 1 and the actual position detected by the camera 401 in the vicinity (side or rear side) of the host vehicle 1. Based on the position of the marking line 320, the distance D between the stationary target 330 and the actual marking line 320 is calculated, and the calculated distance D and the stationary target detected by the first sensor 403 in front of the vehicle 1. The virtual lane marking EL is estimated at the position of 330. That is, if the vehicle is on the side or the rear side of the host vehicle 1, the actual lane marking 320 exists near the host vehicle 1, so that even in an environment where it is difficult for the camera 401 to detect the actual lane marking in front of the vehicle 1. , It is possible to continue to acquire the distance between the real marking line and the stationary target.

また、いくつかの実施形態では、1つ又はそれ以上のプロセッサ16は、実区画線320の位置に関する情報が部分的に取得できない、又は部分的に位置に関する情報の精度が低いと判定した場合、少なくとも判定された領域の仮想区画線ELに沿う線画像200を画像表示11が表示するようにしてもよい。すなわち、視認しづらい実区画線の部分に線画像200を表示することができ、実区画線が視認できる部分にも線画像200が過剰に表示されることを防止することができる。 Also, in some embodiments, if one or more of the processors 16 determines that the information about the position of the real marking line 320 is partially unobtainable or that the position information is partially inaccurate, The image display 11 may display a line image 200 along at least the virtual demarcation line EL of the determined region. That is, it is possible to display the line image 200 on the part of the real marking line that is difficult to visually recognize, and prevent the line image 200 from being excessively displayed on the part where the real marking line is visible.

また、いくつかの実施形態では、1つ又はそれ以上のプロセッサ16は、1つ又はそれ以上のI/Oインタフェース14から、自車両1の速度に関する情報を取得し、自車両1の速度が所定の閾値より速いと判定されると、推定された、仮想区画線EL1,EL2に沿う線画像200の表示を画像表示11が停止するようしてもよい。 Further, in some embodiments, the one or more processors 16 obtain information regarding the speed of the host vehicle 1 from the one or more I/O interfaces 14, and the speed of the host vehicle 1 is predetermined. The image display 11 may stop displaying the estimated line image 200 along the virtual lane markings EL1, EL2 when it is determined to be faster than the threshold value.

また、いくつかの実施形態では、1つ又はそれ以上のプロセッサ16は、1つ又はそれ以上のI/Oインタフェース14から、自車両1が交差点付近であるか推定可能な情報を取得し、自車両1が交差点付近であると判定されると、推定された、仮想区画線EL1,EL2に沿う線画像200の表示を画像表示11が停止するようにしてもよい。
Further, in some embodiments, the one or more processors 16 obtain information from the one or more I/O interfaces 14 that it can estimate whether the vehicle 1 is near an intersection, When it is determined that the vehicle 1 is near the intersection, the image display 11 may stop displaying the estimated line image 200 along the virtual lane markings EL1, EL2.

1自車両、2…フロントウインドシールド、4…運転者、5…ダッシュボード、10…車両用表示システム、11…画像表示、11…画像表示部、11a…表示光、13…表示制御装置、14…I/Oインタフェース、16…プロセッサ、18…記憶部、20…画像処理回路、100…表示領域、200(201〜203)…線画像、300…前景、311…走行レーン、312…走行レーン、320(321〜323)…実区画線、330(331,332))…静止物標、401…カメラ、403…前方センサ(第1センサ)、405…側方センサ(第2センサ)、407…目位置検出部、409…道路情報データベース、411…自車位置検出部、413…携帯情報端末、420…車外通信接続機器、502…物標検出モジュール、504…実区画線検出モジュール、506…道路形状推定モジュール、508…区画線間隔算出モジュール、510…基準物標決定モジュール、512…実区画線検出精度判定モジュール、514…区画線位置推定モジュール、516…目位置検出モジュール、518…画像決定モジュール、520…グラフィックモジュール、Da1…走行レーン幅、E11…平均値、E22…平均値、EL(EL1〜EL3)…仮想区画線 1 Own vehicle, 2... Front windshield, 4... Driver, 5... Dashboard, 10... Vehicle display system, 11... Image display, 11... Image display part, 11a... Display light, 13... Display control device, 14 ... I/O interface, 16... Processor, 18... Storage section, 20... Image processing circuit, 100... Display area, 200 (201-203)... Line image, 300... Foreground, 311... Travel lane, 312... Travel lane, 320 (321 to 323)... Real marking line, 330 (331, 332))... Stationary target, 401... Camera, 403... Front sensor (first sensor), 405... Side sensor (second sensor), 407... Eye position detection unit, 409... Road information database, 411... Own vehicle position detection unit, 413... Portable information terminal, 420... External communication connection device, 502... Target detection module, 504... Real marking line detection module, 506... Road Shape estimation module, 508... marking line interval calculation module, 510... reference target determination module, 512... actual marking line detection accuracy determination module, 514... marking line position estimation module, 516... eye position detection module, 518... image determination module 520... Graphic module, Da1... Running lane width, E11... Average value, E22... Average value, EL (EL1 to EL3)... Virtual partition line

Claims (20)

自車両(1)の走行レーンを区画する実区画線(320)の位置を推定する区画線推定装置において、
1つ又はそれ以上のI/Oインタフェース(14)と、
1つ又はそれ以上のプロセッサ(16)と、
メモリ(18)と、
前記メモリ(18)に格納され、前記1つ又はそれ以上のプロセッサ(16)によって実行されるように構成される1つ又はそれ以上のコンピュータ・プログラムと、を備え、
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記自車両(1)に設けられたカメラ(401)により撮像された画像に少なくとも基づく実区画線(320)の位置に関する情報と、
前記自車両(1)に設けられた前記カメラ(401)と異なる検出方法を有する1つ又はそれ以上のセンサ(403、405)による検出に基づく前記自車両(1)の走行レーンに沿って設けられる静止物標(330)の位置に関する情報と、を取得し、
前記実区画線(320)の位置に関する情報と、前記静止物標(330)の位置に関する情報と、から前記実区画線(320)と前記静止物標(330)との間隔(D)を算出し、
算出した前記間隔(D)と、前記静止物標(330)の位置に関する情報と、から仮想区画線(EL1,EL2)の位置を推定する、命令を実行する、
区画線推定装置。
In the marking line estimation device for estimating the position of the actual marking line (320) that divides the traveling lane of the host vehicle (1),
One or more I/O interfaces (14),
One or more processors (16),
A memory (18),
One or more computer programs stored in the memory (18) and configured to be executed by the one or more processors (16),
Said one or more processors (16)
From the one or more I/O interfaces (14),
Information on the position of the real marking line (320) based at least on the image taken by the camera (401) provided in the vehicle (1);
Provided along the traveling lane of the own vehicle (1) based on detection by one or more sensors (403, 405) having a detection method different from that of the camera (401) provided in the own vehicle (1) And the information about the position of the stationary target (330) to be acquired,
An interval (D) between the real marking line (320) and the stationary target (330) is calculated from information about the position of the real marking line (320) and information about the position of the stationary target (330). Then
Executing a command to estimate the position of the virtual lane markings (EL1, EL2) from the calculated distance (D) and information about the position of the stationary target (330),
Marking line estimation device.
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記1つ又はそれ以上のセンサ(403、405)による検出に基づく前記自車両(1)の走行レーンに沿って設けられる複数の静止物標(330)の位置に関する情報、を取得し、
前記複数の静止物標(330)の信頼度を算出し、
前記信頼度が高い前記静止物標(330)と、前記間隔(D)と、から前記仮想区画線(EL1,EL2)の位置を推定する、命令を実行する、
請求項1に記載の区画線推定装置。
Said one or more processors (16)
From the one or more I/O interfaces (14),
Acquiring information on the positions of a plurality of stationary targets (330) provided along the traveling lane of the vehicle (1) based on the detection by the one or more sensors (403, 405),
Calculating the reliability of the plurality of stationary targets (330),
Executing a command to estimate the position of the virtual lane markings (EL1, EL2) from the stationary target (330) with high reliability and the distance (D).
The marking line estimation device according to claim 1.
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記自車両(1)に設けられたカメラ(401)により撮像された画像に少なくとも基づいて、前記車両(1)の前記走行レーンの左右の実区画線(321、322)の間の走行レーン幅(Da1)に関する情報を取得し、
前記信頼度の高い前記静止物標(330)に近い方の前記仮想区画線(EL1,EL2)の位置を、前記信頼度が高い前記静止物標(330)と、前記間隔(D)と、から推定し、
前記仮想区画線(EL1,EL2)のもう一方の位置を、前記信頼度の高い前記静止物標(330)に近い方の前記仮想区画線(EL1,EL2)の位置と、前記走行レーン幅(Da1)とから推定する、命令を実行する、
請求項2に記載の区画線推定装置。
Said one or more processors (16)
From the one or more I/O interfaces (14),
A traveling lane width between the left and right real marking lines (321, 322) of the traveling lane of the vehicle (1) based on at least an image captured by a camera (401) provided in the vehicle (1). Get information about (Da1),
The position of the virtual marking line (EL1, EL2) closer to the highly reliable stationary target (330) is defined as the highly reliable stationary target (330) and the interval (D). Estimated from
The other position of the virtual lane markings (EL1, EL2) is set to the position of the virtual lane markings (EL1, EL2) closer to the highly reliable stationary target (330), and the travel lane width ( Execute the instruction, inferred from Da1),
The marking line estimation device according to claim 2.
前記1つ又はそれ以上のセンサ(403、405)は、
前記自車両(1)の前方における前記静止物標(330)を検出する第1センサ(403)と、
前記自車両(1)の側方又は後側方における前記静止物標(330)を検出する第2センサ(405)と、を含み、
前記1つ又はそれ以上のプロセッサ(16)は、
前記実区画線(320)の位置に関する情報と、前記第2センサ(405)から取得した前記静止物標(330)の位置に関する情報と、から前記間隔(D)を算出し、
算出した前記間隔(D)と、前記第1センサ(403)から取得した前記静止物標(330)の位置に関する情報と、から前記仮想区画線(EL1,EL2)の位置を推定する、命令を実行する、
請求項1に記載の区画線推定装置。
The one or more sensors (403, 405) are
A first sensor (403) for detecting the stationary target (330) in front of the host vehicle (1);
A second sensor (405) for detecting the stationary target (330) on the side or the rear side of the host vehicle (1),
Said one or more processors (16)
The distance (D) is calculated from information about the position of the real marking line (320) and information about the position of the stationary target (330) acquired from the second sensor (405),
A command for estimating the position of the virtual lane markings (EL1, EL2) from the calculated distance (D) and information about the position of the stationary target (330) acquired from the first sensor (403) is issued. Run,
The marking line estimation device according to claim 1.
自車両(1)の走行レーンの実区画線(320)の位置を推定し、推定した前記実区画線(320)である仮想区画線(EL1,EL2)に沿う線画像(200)を表示する画像表示部(11)を制御する表示制御装置において、
1つ又はそれ以上のI/Oインタフェース(14)と、
1つ又はそれ以上のプロセッサ(16)と、
メモリ(18)と、
前記メモリ(18)に格納され、前記1つ又はそれ以上のプロセッサ(16)によって実行されるように構成される1つ又はそれ以上のコンピュータ・プログラムと、を備え、
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記自車両(1)に設けられたカメラ(401)により撮像された画像に少なくとも基づく実区画線(320)の位置に関する情報と、
前記自車両(1)に設けられた前記カメラ(401)と異なる検出方法を有する1つ又はそれ以上のセンサ(403、405)による検出に基づく前記自車両(1)の走行レーンに沿って設けられる静止物標(330)の位置に関する情報と、を取得し、
前記実区画線(320)の位置に関する情報と、前記静止物標(330)の位置に関する情報と、から前記実区画線(320)と前記静止物標(330)との間隔(D)を算出し、
算出した前記間隔(D)と、前記静止物標(330)の位置に関する情報と、から前記仮想区画線(EL1,EL2)の位置を推定し、
推定した前記仮想区画線(EL1,EL2)に沿う前記線画像(200)を前記画像表示(11)が表示するように、命令を実行する、
表示制御装置。
The position of the real lane markings (320) of the traveling lane of the host vehicle (1) is estimated, and a line image (200) along the virtual lane markings (EL1, EL2) that is the estimated real lane markings (320) is displayed. In a display control device for controlling the image display unit (11),
One or more I/O interfaces (14),
One or more processors (16),
A memory (18),
One or more computer programs stored in the memory (18) and configured to be executed by the one or more processors (16),
Said one or more processors (16)
From the one or more I/O interfaces (14),
Information about the position of the real marking line (320) based at least on the image captured by the camera (401) provided in the vehicle (1);
Provided along the traveling lane of the own vehicle (1) based on detection by one or more sensors (403, 405) having a detection method different from that of the camera (401) provided in the own vehicle (1) Information about the position of the stationary target (330) to be acquired,
An interval (D) between the real marking line (320) and the stationary target (330) is calculated from information about the position of the real marking line (320) and information about the position of the stationary target (330). Then
Estimating the position of the virtual lane markings (EL1, EL2) from the calculated distance (D) and information about the position of the stationary target (330),
A command is executed so that the image display (11) displays the line image (200) along the estimated virtual lane markings (EL1, EL2),
Display controller.
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記1つ又はそれ以上のセンサ(403、405)による検出に基づく前記自車両(1)の走行レーンに沿って設けられる複数の静止物標(330)の位置に関する情報、を取得し、
前記複数の静止物標(330)の信頼度を算出し、
前記信頼度が高い前記静止物標(330)と、前記間隔(D)と、から前記仮想区画線(EL1,EL2)の位置を推定する、命令を実行する、
請求項5に記載の表示制御装置。
Said one or more processors (16)
From the one or more I/O interfaces (14),
Acquiring information on the positions of a plurality of stationary targets (330) provided along the traveling lane of the vehicle (1) based on the detection by the one or more sensors (403, 405),
Calculating the reliability of the plurality of stationary targets (330),
Executing a command to estimate the position of the virtual lane markings (EL1, EL2) from the stationary target (330) with high reliability and the distance (D).
The display control device according to claim 5.
前記1つ又はそれ以上のプロセッサ(16)は、
前記信頼度が高い前記静止物標(330)に近い方の前記仮想区画線(EL1,EL2)の位置を、前記信頼度が高い前記静止物標(330)と、前記間隔(D)と、から推定し、
推定された、前記信頼度が高い前記静止物標(330)に近い方の前記仮想区画線(EL1,EL2)に沿う前記線画像(200)のみ前記画像表示(11)が表示するように、命令を実行する、
請求項6に記載の表示制御装置。
Said one or more processors (16)
The position of the virtual marking line (EL1, EL2) closer to the stationary target (330) with high reliability is the stationary target (330) with high reliability, and the interval (D), Estimated from
The image display (11) displays only the estimated line image (200) along the virtual lane marking (EL1, EL2) closer to the stationary target (330) with high reliability, Execute instructions,
The display control device according to claim 6.
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記自車両(1)に設けられたカメラ(401)により撮像された画像に少なくとも基づいて、前記車両(1)の前記走行レーンの左右の実区画線(321、322)の間の走行レーン幅(Da1)に関する情報を取得し、
前記信頼度の高い前記静止物標(330)に近い方の前記仮想区画線(EL1,EL2)の位置を、前記信頼度が高い前記静止物標(330)と、前記間隔(D)と、から推定し、
前記仮想区画線(EL1,EL2)のもう一方の位置を、前記信頼度の高い前記静止物標(330)に近い方の前記仮想区画線(EL1,EL2)の位置と、前記走行レーン幅(Da1)とから推定し、
推定した、左右の前記仮想区画線(EL1,EL2)それぞれに沿う前記線画像(200)を前記画像表示(11)が表示するように、命令を実行する、
請求項6に記載の表示制御装置。
Said one or more processors (16)
From the one or more I/O interfaces (14),
A traveling lane width between the left and right real marking lines (321, 322) of the traveling lane of the vehicle (1) based on at least an image captured by a camera (401) provided in the vehicle (1). Get information about (Da1),
The position of the virtual marking line (EL1, EL2) closer to the highly reliable stationary target (330) is defined as the highly reliable stationary target (330) and the interval (D). Estimated from
The other position of the virtual lane markings (EL1, EL2) is set to the position of the virtual lane markings (EL1, EL2) closer to the highly reliable stationary target (330), and the travel lane width ( Da1) and
A command is executed so that the image display (11) displays the estimated line image (200) along each of the left and right virtual lane markings (EL1, EL2).
The display control device according to claim 6.
前記1つ又はそれ以上のセンサ(403、405)は、
前記自車両(1)の前方における前記静止物標(330)を検出する第1センサ(403)と、
前記自車両(1)の側方又は後側方における前記静止物標(330)を検出する第2センサ(405)と、を含み、
前記カメラ(401)は、前記自車両(1)の側方又は後側方を撮像し、
前記1つ又はそれ以上のプロセッサ(16)は、
前記実区画線(320)の位置に関する情報と、前記第2センサ(405)から取得した前記静止物標(330)の位置に関する情報と、から前記間隔(D)を算出し、
算出した前記間隔(D)と、前記第1センサ(403)から取得した前記静止物標(330)の位置に関する情報と、から前記仮想区画線(EL1,EL2)の位置を推定する、命令を実行する、
請求項5に記載の表示制御装置。
The one or more sensors (403, 405) are
A first sensor (403) for detecting the stationary target (330) in front of the host vehicle (1);
A second sensor (405) for detecting the stationary target (330) on the side or the rear side of the host vehicle (1),
The camera (401) images the side or rear side of the vehicle (1),
Said one or more processors (16)
The distance (D) is calculated from information about the position of the real marking line (320) and information about the position of the stationary target (330) acquired from the second sensor (405),
A command for estimating the position of the virtual lane markings (EL1, EL2) from the calculated distance (D) and information about the position of the stationary target (330) acquired from the first sensor (403) is issued. Run,
The display control device according to claim 5.
前記1つ又はそれ以上のプロセッサ(16)は、
前記実区画線(320)の位置に関する情報が部分的に取得できない、又は部分的に位置に関する情報の精度が低いと判定した場合、少なくとも判定された領域の前記仮想区画線(EL1,EL2)に沿う前記線画像(200)を前記画像表示(11)が表示するように、命令を実行する、
請求項5に記載の表示制御装置。
Said one or more processors (16)
When it is determined that the information regarding the position of the real lane markings (320) cannot be partially acquired or the accuracy of the information regarding the position is partially low, at least the virtual lane markings (EL1, EL2) in the determined area are displayed. Execute instructions such that the image display (11) displays the line image (200) along
The display control device according to claim 5.
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記自車両(1)の速度に関する情報を取得し、
前記自車両(1)の速度が所定の閾値より速いと判定されると、
推定された、前記仮想区画線(EL1,EL2)に沿う前記線画像(200)の表示を前記画像表示(11)が停止するように、命令を実行する、
請求項5に記載の表示制御装置。
Said one or more processors (16)
From the one or more I/O interfaces (14),
Obtaining information about the speed of the own vehicle (1),
When it is determined that the speed of the host vehicle (1) is faster than a predetermined threshold,
Executing a command so that the image display (11) stops displaying the estimated line image (200) along the virtual lane markings (EL1, EL2),
The display control device according to claim 5.
前記1つ又はそれ以上のプロセッサ(16)は、
前記1つ又はそれ以上のI/Oインタフェース(14)から、
前記自車両(1)が交差点付近であるか推定可能な情報を取得し、
前記自車両(1)が前記交差点付近であると判定されると、
推定された、前記仮想区画線(EL1,EL2)に沿う前記線画像(200)の表示を前記画像表示(11)が停止するように、命令を実行する、
請求項5に記載の表示制御装置。
Said one or more processors (16)
From the one or more I/O interfaces (14),
Acquiring information that can estimate whether the vehicle (1) is near an intersection,
When it is determined that the host vehicle (1) is near the intersection,
Executing a command so that the image display (11) stops displaying the estimated line image (200) along the virtual lane markings (EL1, EL2),
The display control device according to claim 5.
自車両(1)の走行レーンの実区画線(320)の位置を推定し、推定した前記実区画線(320)である仮想区画線(EL1,EL2)に沿う線画像(200)を表示する画像表示部(11)を制御する方法において、
前記自車両(1)に設けられたカメラ(401)により撮像された画像に少なくとも基づく実区画線(320)の位置に関する情報を取得することと、
前記自車両(1)に設けられた前記カメラ(401)と異なる検出方法を有する1つ又はそれ以上のセンサ(403、405)による検出に基づく前記自車両(1)の走行レーンに沿って設けられる静止物標(330)の位置に関する情報を取得することと、
前記実区画線(320)の位置に関する情報と、前記静止物標(330)の位置に関する情報と、から前記実区画線(320)と前記静止物標(330)との間隔(D)を算出することと、
算出した前記間隔(D)と、前記静止物標(330)の位置に関する情報と、から前記仮想区画線(EL1,EL2)の位置を推定することと、
推定した前記仮想区画線(EL1,EL2)に沿う前記線画像(200)を前記画像表示(11)に表示させることと、を含む、
方法。
The position of the real lane markings (320) of the traveling lane of the host vehicle (1) is estimated, and a line image (200) along the virtual lane markings (EL1, EL2) that is the estimated real lane markings (320) is displayed. In the method of controlling the image display unit (11),
Acquiring information about the position of the real marking line (320) based at least on the image captured by the camera (401) provided in the vehicle (1);
Provided along the traveling lane of the own vehicle (1) based on detection by one or more sensors (403, 405) having a detection method different from that of the camera (401) provided in the own vehicle (1) Obtaining information about the position of the stationary target (330) to be captured,
An interval (D) between the real marking line (320) and the stationary target (330) is calculated from information about the position of the real marking line (320) and information about the position of the stationary target (330). What to do
Estimating the position of the virtual lane markings (EL1, EL2) from the calculated distance (D) and information about the position of the stationary target (330);
Displaying the line image (200) along the estimated virtual lane markings (EL1, EL2) on the image display (11).
Method.
前記1つ又はそれ以上のセンサ(403、405)による検出に基づく前記自車両(1)の走行レーンに沿って設けられる複数の静止物標(330)の位置に関する情報を取得することと、
前記複数の静止物標(330)の信頼度を算出することと、
前記信頼度が高い前記静止物標(330)と、前記間隔(D)と、から前記仮想区画線(EL1,EL2)の位置を推定することと、を含む、
請求項13に記載の方法。
Acquiring information about the positions of a plurality of stationary targets (330) provided along the traveling lane of the vehicle (1) based on detection by the one or more sensors (403, 405);
Calculating the reliability of the plurality of stationary targets (330);
Estimating the position of the virtual lane markings (EL1, EL2) from the stationary target (330) with high reliability and the distance (D).
The method of claim 13.
前記信頼度が高い前記静止物標(330)近い方の前記仮想区画線(EL1,EL2)の位置を、前記信頼度が高い前記静止物標(330)と、前記間隔(D)と、から推定することと、
推定された、前記信頼度が高い前記静止物標(330)近い方の前記仮想区画線(EL1,EL2)に沿う前記線画像(200)のみ前記画像表示(11)が表示することと、を含む、
請求項14に記載の方法。
The position of the virtual marking line (EL1, EL2) closer to the stationary object (330) with high reliability is calculated from the stationary object (330) with high reliability and the interval (D). Estimating,
The image display (11) displays only the estimated line image (200) along the virtual lane markings (EL1, EL2) closer to the stationary target (330) with high reliability. Including,
The method according to claim 14.
前記自車両(1)に設けられたカメラ(401)により撮像された画像に少なくとも基づいて、前記車両(1)の前記走行レーンの左右の実区画線(321、322)の間の走行レーン幅(Da1)に関する情報を取得することと、
前記信頼度の高い前記静止物標(330)に近い方の前記仮想区画線(EL1,EL2)の位置を、前記信頼度が高い前記静止物標(330)と、前記間隔(D)と、から推定することと、
前記仮想区画線(EL1,EL2)のもう一方の位置を、前記信頼度の高い前記静止物標(330)に近い方の前記仮想区画線(EL1,EL2)の位置と、前記走行レーン幅(Da1)とから推定することと、
推定した、左右の前記仮想区画線(EL1,EL2)それぞれに沿う前記線画像(200)を前記画像表示(11)が表示することと、を含む、
請求項14に記載の方法。
A traveling lane width between the left and right real marking lines (321, 322) of the traveling lane of the vehicle (1) based on at least an image captured by a camera (401) provided in the vehicle (1). Acquiring information about (Da1),
The position of the virtual marking line (EL1, EL2) closer to the highly reliable stationary target (330) is defined as the highly reliable stationary target (330) and the interval (D). From the
The other position of the virtual lane markings (EL1, EL2) is set to the position of the virtual lane markings (EL1, EL2) closer to the highly reliable stationary target (330), and the travel lane width ( Estimating from Da1) and
The image display (11) displaying the estimated line image (200) along each of the left and right virtual lane markings (EL1, EL2).
The method according to claim 14.
前記1つ又はそれ以上のセンサ(403、405)は、
前記自車両(1)の側方又は後側方における前記静止物標(330)を検出する第2センサ(405)と、
前記自車両(1)の前方における前記静止物標(330)を検出する第1センサ(403)と、を含み、
前記カメラ(401)は、前記自車両(1)の側方又は後側方を撮像し、
前記実区画線(320)の位置に関する情報と、前記第1センサ(403)から取得した前記静止物標(330)の位置に関する情報と、から前記間隔(D)を算出することと、
算出した前記間隔(D)と、前記第1センサ(403)から取得した前記静止物標(330)の位置に関する情報と、から前記仮想区画線(EL1,EL2)の位置を推定することと、を含む、
請求項13に記載の方法。
The one or more sensors (403, 405) are
A second sensor (405) for detecting the stationary target (330) on the side or the rear side of the host vehicle (1);
A first sensor (403) for detecting the stationary target (330) in front of the host vehicle (1),
The camera (401) images the side or rear side of the vehicle (1),
Calculating the interval (D) from information about the position of the real marking line (320) and information about the position of the stationary target (330) acquired from the first sensor (403);
Estimating the position of the virtual lane markings (EL1, EL2) from the calculated distance (D) and information about the position of the stationary target (330) acquired from the first sensor (403); including,
The method of claim 13.
前記実区画線(320)の位置に関する情報が部分的に取得できない、又は部分的に位置に関する情報の精度が低いと判定した場合、少なくとも判定された領域の前記仮想区画線(EL1,EL2)に沿う前記線画像(200)を前記画像表示(11)が表示することと、を含む、
請求項13に記載の方法。
When it is determined that the information regarding the position of the real lane markings (320) cannot be partially acquired or the accuracy of the information regarding the position is partially low, at least the virtual lane markings (EL1, EL2) in the determined area are displayed. Displaying the line image (200) along the image display (11).
The method of claim 13.
前記自車両(1)の速度に関する情報を取得することと、
前記自車両(1)の速度が所定の閾値より速いと判定されると、
推定された、前記仮想区画線(EL1,EL2)に沿う前記線画像(200)の表示を前記画像表示(11)が停止することと、を含む、
請求項13に記載の方法。
Obtaining information about the speed of the vehicle (1),
When it is determined that the speed of the host vehicle (1) is faster than a predetermined threshold,
Stopping the display of the line image (200) along the estimated virtual lane markings (EL1, EL2) by the image display (11).
The method of claim 13.
請求項13乃至19のいずれかに記載の方法を実行するための命令を含む、コンピュータ・プログラム。







A computer program comprising instructions for performing the method according to any of claims 13-19.







JP2018219805A 2018-11-23 2018-11-23 Lane marking estimation device, display control device, method and computer program Pending JP2020086884A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018219805A JP2020086884A (en) 2018-11-23 2018-11-23 Lane marking estimation device, display control device, method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018219805A JP2020086884A (en) 2018-11-23 2018-11-23 Lane marking estimation device, display control device, method and computer program

Publications (1)

Publication Number Publication Date
JP2020086884A true JP2020086884A (en) 2020-06-04

Family

ID=70910008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018219805A Pending JP2020086884A (en) 2018-11-23 2018-11-23 Lane marking estimation device, display control device, method and computer program

Country Status (1)

Country Link
JP (1) JP2020086884A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114353817A (en) * 2021-12-28 2022-04-15 重庆长安汽车股份有限公司 Multi-source sensor lane line determination method, system, vehicle and computer-readable storage medium
KR20230001925A (en) * 2021-06-29 2023-01-05 주식회사대성엘텍 Method and apparatus for supporting driving lines of vehicle in bad weather

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230001925A (en) * 2021-06-29 2023-01-05 주식회사대성엘텍 Method and apparatus for supporting driving lines of vehicle in bad weather
KR102559534B1 (en) 2021-06-29 2023-07-26 주식회사 디에이치오토웨어 Method and apparatus for supporting driving lines of vehicle in bad weather
CN114353817A (en) * 2021-12-28 2022-04-15 重庆长安汽车股份有限公司 Multi-source sensor lane line determination method, system, vehicle and computer-readable storage medium
CN114353817B (en) * 2021-12-28 2023-08-15 重庆长安汽车股份有限公司 Multi-source sensor lane line determination method, system, vehicle and computer readable storage medium

Similar Documents

Publication Publication Date Title
CN109215433B (en) Vision-based driving scenario generator for automated driving simulation
US10502955B2 (en) Head-up display device, navigation device, and display method
KR102504579B1 (en) Conditional Availability of Vehicle Mixed Reality
US11535155B2 (en) Superimposed-image display device and computer program
US9074906B2 (en) Road shape recognition device
US9619719B2 (en) Systems and methods for detecting traffic signs
JP7052786B2 (en) Display control device and display control program
US20180260639A1 (en) Systems and methods for detecting traffic signs
JP2020032866A (en) Vehicular virtual reality providing device, method and computer program
US10922976B2 (en) Display control device configured to control projection device, display control method for controlling projection device, and vehicle
KR20190052374A (en) Device and method to visualize content
JP7255608B2 (en) DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM
JP2020086884A (en) Lane marking estimation device, display control device, method and computer program
JP7459883B2 (en) Display control device, head-up display device, and method
JP6185327B2 (en) Vehicle rear side warning device, vehicle rear side warning method, and other vehicle distance detection device
WO2020158601A1 (en) Display control device, method, and computer program
KR101637298B1 (en) Head-up display apparatus for vehicle using aumented reality
JP2020121607A (en) Display control device, method and computer program
JP2020121704A (en) Display control device, head-up display device, method and computer program
JP2020154468A (en) Driving support device, method, and computer program
JP7416114B2 (en) Display control device and display control program
JP7322886B2 (en) Vehicle display, method and computer program
JP2020086882A (en) Display control device, method and computer program
JP7434894B2 (en) Vehicle display device
WO2022064542A1 (en) Guidance control device and guidance control method