JP2021026693A - Display control apparatus, display control method, and display control program - Google Patents

Display control apparatus, display control method, and display control program Download PDF

Info

Publication number
JP2021026693A
JP2021026693A JP2019146525A JP2019146525A JP2021026693A JP 2021026693 A JP2021026693 A JP 2021026693A JP 2019146525 A JP2019146525 A JP 2019146525A JP 2019146525 A JP2019146525 A JP 2019146525A JP 2021026693 A JP2021026693 A JP 2021026693A
Authority
JP
Japan
Prior art keywords
lane marking
display
vehicle
road
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019146525A
Other languages
Japanese (ja)
Inventor
清水 泰博
Yasuhiro Shimizu
泰博 清水
大祐 竹森
Daisuke Takemori
大祐 竹森
明彦 柳生
Akihiko Yagyu
明彦 柳生
一輝 小島
Kazuteru Kojima
一輝 小島
しおり 間根山
Shiori MANEYAMA
しおり 間根山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019146525A priority Critical patent/JP2021026693A/en
Publication of JP2021026693A publication Critical patent/JP2021026693A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Instrument Panels (AREA)

Abstract

To allow a driver of a vehicle to easily grasp or presume a degree of matching between a display state of a content corresponding to a lane marking and an actual condition of the lane marking, in superimposing the display content on a road surface located forward of the vehicle.SOLUTION: A detection result acquisition unit (211) acquires a result of detecting a lane marking on a road surface located forward of a vehicle. A lane marking information acquisition unit (214) acquires lane marking information corresponding to the road surface on the basis of map information including lane marking information on a condition of a lane marking and current location of the vehicle. An accuracy determination unit (215) determines recognition accuracy of the lane marking on the road surface on the basis of the detection result acquired by the detection result acquisition unit and the lane marking information acquired by the lane marking information acquisition unit. A display control unit (219) superimposes an accuracy content, which is a display image corresponding to the recognition accuracy determined by the accuracy determination unit, on the road surface.SELECTED DRAWING: Figure 4

Description

本発明は、車両のフロントウィンドシールド越しに視認される前景に表示画像を重畳表示するヘッドアップディスプレイ装置における表示画像の表示を制御する、表示制御装置、表示制御方法、および表示制御プログラムに関する。 The present invention relates to a display control device, a display control method, and a display control program that control the display of a display image in a head-up display device that superimposes and displays a display image on a foreground that is visually recognized through a front windshield of a vehicle.

この種の装置として、例えば、特許文献1に記載されたARシステムが知られている。ARはAugmented Realityの略である。特許文献1に記載のARシステムは、判定手段と、第一の生成手段と、第二の生成手段と、提供手段と、表示手段とを有する。判定手段は、センサによって取得された環境データに基づいて、車両の運転者が車両前方の道路上の車線境界線を識別できるか否かを判定する。環境データは、カメラ等の外部センサによって測定された記録を表すデータである。「車線境界線」は「道路区画線」とも称される。第一の生成手段は、車両の運転者が車線境界線を識別できないと判定手段が判定した場合に、環境データと車両の現在位置とに基づいて境界線データを生成する。第二の生成手段は、境界線データに基づいて、AR視覚装置に車線境界線をグラフィック表示させるためのARデータを生成する。提供手段は、ARデータをAR視覚装置に提供する。表示手段は、車両の運転者の頭部位置に基づいて、AR視覚装置に、ARデータに基づくグラフィックを生成して表示させる。 As an apparatus of this type, for example, the AR system described in Patent Document 1 is known. AR is an abbreviation for Augmented Reality. The AR system described in Patent Document 1 includes a determination means, a first generation means, a second generation means, a provision means, and a display means. The determination means determines whether or not the driver of the vehicle can identify the lane boundary on the road in front of the vehicle based on the environmental data acquired by the sensor. Environmental data is data representing a record measured by an external sensor such as a camera. The "lane boundary" is also called the "road lane marking". The first generation means generates boundary line data based on the environmental data and the current position of the vehicle when the determination means determines that the driver of the vehicle cannot identify the lane boundary line. The second generation means generates AR data for displaying the lane boundary line graphically on the AR visual device based on the boundary line data. The providing means provides the AR data to the AR visual device. The display means causes the AR visual device to generate and display a graphic based on the AR data based on the head position of the driver of the vehicle.

境界線データは2つの方法で生成することができる。第1の例では、車両は、GPSデータを生成するのに使用される、DSRC準拠のGPSユニットを備えている。GPSはGlobal Positioning Systemの略である。DSRCはDedicated Short Range Communicationの略である。ARシステムは、環境データと、車両の現在位置を記述するGPSデータとを使用して、車線マップを生成する。GPSデータは、車線レベルの精度で車両の位置を記述する。車線マップは、車道にて車線境界線がどこに位置するかを記述する。ARシステムは、車線マップを使用して境界線データを生成する。第2の例では、ARシステムは、外部センサから受信した環境データ、DSRC準拠のGPSユニットから受信したGPSデータ、および位置推定マップから、車両の現在位置を決定する。ARシステムは、車両の現在位置および環境データを使用して境界線データを生成する。 Boundary data can be generated in two ways. In the first example, the vehicle is equipped with a DSRC compliant GPS unit used to generate GPS data. GPS is an abbreviation for Global Positioning System. DSRC is an abbreviation for Dedicated Short Range Communication. The AR system uses environmental data and GPS data that describes the current position of the vehicle to generate a lane map. GPS data describes the position of the vehicle with lane-level accuracy. A lane map describes where the lane boundaries are located on the roadway. The AR system uses lane maps to generate boundary data. In the second example, the AR system determines the current position of the vehicle from environmental data received from an external sensor, GPS data received from a DSRC compliant GPS unit, and a position estimation map. The AR system uses the vehicle's current position and environmental data to generate boundary data.

特許文献1に記載のARシステムは、例えば、雪、雨、照明条件、道路上のゴム、等のため、運転者が車線境界線を認識できないと判定する。ARシステムは、運転者に車線境界線の位置が分かるように、車線境界線を表したオーバーレイを生成する。これにより、運転者が車線境界線の位置を心配する必要がなくなるので、運転者の安全性が向上し、運転がより快適になる。 The AR system described in Patent Document 1 determines that the driver cannot recognize the lane boundary line due to, for example, snow, rain, lighting conditions, rubber on the road, and the like. The AR system creates an overlay that represents the lane boundaries so that the driver knows the location of the lane boundaries. This improves driver safety and makes driving more comfortable because the driver does not have to worry about the position of the lane boundary.

特開2018−190410号公報JP-A-2018-190410

特許文献1に記載のARシステムにおいては、道路区画線をAR表示するための境界線データは、環境データおよびGPSデータから生成される。このため、気象条件、道路メンテナンスタイミング、ソフトウエア更新タイミング、等によっては、境界線データと実際の道路区画線の敷設状況との一致度が低くなる懸念がある。 In the AR system described in Patent Document 1, the boundary line data for displaying the road marking line in AR is generated from the environmental data and the GPS data. Therefore, depending on the weather conditions, road maintenance timing, software update timing, etc., there is a concern that the degree of agreement between the boundary line data and the actual road marking line laying status may be low.

本発明は、上記に例示した事情等に鑑みてなされたものである。すなわち、本発明は、例えば、道路区画線に対応する表示画像を車両の進行先の路面に重畳表示するに際し、当該表示画像の表示状況と実際の道路区画線の敷設状況との一致度合を車両の運転者が容易に把握あるいは推認可能とする技術を提供する。 The present invention has been made in view of the circumstances exemplified above. That is, in the present invention, for example, when the display image corresponding to the road lane marking is superimposed and displayed on the road surface of the vehicle's destination, the degree of coincidence between the display status of the display image and the actual laying status of the road lane marking is determined by the vehicle. Provide technology that can be easily grasped or inferred by the driver of the vehicle.

請求項1に記載の表示制御装置(20)は、車両(1)のフロントウィンドシールド(4)越しに視認される前景に表示画像を重畳表示するヘッドアップディスプレイ装置(192)における前記表示画像の表示を制御するように構成されている。
この表示制御装置は、
前記車両の進行先の路面(RS)における道路区画線の検知結果を取得する検知結果取得部(211)と、
前記道路区画線の敷設状態に関する区画線情報を含む地図情報と、前記車両の現在位置とに基づいて、前記路面に対応する前記区画線情報を取得する区画線情報取得部(214)と、
前記検知結果取得部により取得した前記検知結果と、前記区画線情報取得部により取得した前記区画線情報とに基づいて、前記路面における前記道路区画線の認識精度を決定する精度決定部(217)と、
前記精度決定部により決定した前記認識精度に応じた前記表示画像である精度コンテンツ(CL、CR、CS)を前記路面に重畳表示する表示制御部(219)と、
を備えている。
請求項10に記載の表示制御方法は、車両(1)のフロントウィンドシールド(4)越しに視認される前景に表示画像を重畳表示するヘッドアップディスプレイ装置(192)における前記表示画像の表示を制御する方法であって、
前記車両の進行先の路面(RS)における道路区画線の検知結果を取得する処理と、
前記道路区画線の敷設状態に関する区画線情報を含む地図情報と、前記車両の現在位置とに基づいて、前記路面に対応する前記区画線情報を取得する処理と、
取得した前記検知結果と前記区画線情報とに基づいて、前記路面における前記道路区画線の認識精度を決定する処理と、
決定した前記認識精度に応じた前記表示画像である精度コンテンツ(CL、CR、CS)を前記路面に重畳表示する処理と、
を含む。
請求項11に記載の表示制御プログラムは、
車両(1)のフロントウィンドシールド(4)越しに視認される前景に表示画像を重畳表示するヘッドアップディスプレイ装置(192)における前記表示画像の表示を制御するように構成された表示制御装置(20)により実行されるプログラムであって、
前記表示制御装置により実行される処理は、
前記車両の進行先の路面(RS)における道路区画線の検知結果を取得する処理と、
前記道路区画線の敷設状態に関する区画線情報を含む地図情報と、前記車両の現在位置とに基づいて、前記路面に対応する前記区画線情報を取得する処理と、
取得した前記検知結果と前記区画線情報とに基づいて、前記路面における前記道路区画線の認識精度を決定する処理と、
決定した前記認識精度に応じた前記表示画像である精度コンテンツ(CL、CR、CS、CP)を前記路面に重畳表示する処理と、
を含む。
The display control device (20) according to claim 1 is a head-up display device (192) for displaying a display image superimposed on a foreground that is visible through a front windshield (4) of a vehicle (1). It is configured to control the display.
This display control device
The detection result acquisition unit (211) for acquiring the detection result of the road lane marking on the road surface (RS) where the vehicle is traveling, and
A lane marking information acquisition unit (214) that acquires the lane marking information corresponding to the road surface based on map information including lane marking information regarding the laying state of the road lane marking and the current position of the vehicle.
An accuracy determination unit (217) that determines the recognition accuracy of the road lane marking on the road surface based on the detection result acquired by the detection result acquisition unit and the lane marking information acquired by the lane marking information acquisition unit. When,
A display control unit (219) that superimposes and displays accuracy content (CL, CR, CS), which is the display image according to the recognition accuracy determined by the accuracy determination unit, on the road surface.
Is equipped with.
The display control method according to claim 10 controls the display of the display image in the head-up display device (192) that superimposes the display image on the foreground that is visually recognized through the front windshield (4) of the vehicle (1). How to do
The process of acquiring the detection result of the road lane marking on the road surface (RS) where the vehicle is traveling, and
A process of acquiring the lane marking information corresponding to the road surface based on the map information including the lane marking information regarding the laying state of the road lane marking and the current position of the vehicle.
A process of determining the recognition accuracy of the road lane marking on the road surface based on the acquired detection result and the lane marking information.
A process of superimposing and displaying accuracy content (CL, CR, CS), which is the display image according to the determined recognition accuracy, on the road surface.
including.
The display control program according to claim 11 is
A display control device (20) configured to control the display of the display image in the head-up display device (192) that superimposes and displays the display image on the foreground that is visually recognized through the front windshield (4) of the vehicle (1). ) Is a program executed by
The process executed by the display control device is
The process of acquiring the detection result of the road lane marking on the road surface (RS) where the vehicle is traveling, and
A process of acquiring the lane marking information corresponding to the road surface based on the map information including the lane marking information regarding the laying state of the road lane marking and the current position of the vehicle.
A process of determining the recognition accuracy of the road lane marking on the road surface based on the acquired detection result and the lane marking information.
A process of superimposing and displaying precision content (CL, CR, CS, CP), which is the display image according to the determined recognition accuracy, on the road surface.
including.

かかる構成および方法は、前記車両の進行先の前記路面における前記道路区画線の検知結果を取得する。また、かかる構成および方法は、前記道路区画線の敷設状態に関する前記区画線情報を含む前記地図情報と、前記車両の現在位置とに基づいて、前記車両の進行先の前記路面に対応する前記区画線情報を取得する。また、かかる構成および方法は、取得した前記検知結果および前記区画線情報に基づいて、前記車両の進行先の前記路面における前記道路区画線の前記認識精度を決定する。そして、かかる構成および方法は、決定した前記認識精度に応じた前記表示画像である前記精度コンテンツを、前記ヘッドアップディスプレイ装置により前記路面に重畳表示する。 Such a configuration and a method acquire the detection result of the road lane marking on the road surface where the vehicle is traveling. Further, such a configuration and method are based on the map information including the lane marking information regarding the laying state of the road lane marking and the current position of the vehicle, and the lane marking corresponding to the road surface to which the vehicle is traveling. Get line information. Further, such a configuration and method determine the recognition accuracy of the road lane marking on the road surface to which the vehicle travels, based on the acquired detection result and the lane marking information. Then, in such a configuration and method, the accuracy content, which is the display image according to the determined recognition accuracy, is superimposed and displayed on the road surface by the head-up display device.

このように、かかる構成および方法によれば、前記道路区画線の前記検知結果と前記地図情報からの前記区画線情報の取得結果とに基づいて、前記認識精度が決定される。そして、決定した前記認識精度に応じた前記表示画像である前記精度コンテンツが、前記ヘッドアップディスプレイ装置により前記路面に重畳表示される。したがって、前記道路区画線に対応する前記表示画像を前記車両の進行先の前記路面に重畳表示するに際し、当該表示画像の表示状況と実際の前記道路区画線の敷設状況との一致度合を、前記車両の運転者が容易に把握あるいは推認することが可能となる。 As described above, according to such a configuration and method, the recognition accuracy is determined based on the detection result of the road lane marking and the acquisition result of the lane marking information from the map information. Then, the accuracy content, which is the display image according to the determined recognition accuracy, is superimposed and displayed on the road surface by the head-up display device. Therefore, when the display image corresponding to the road lane marking is superimposed and displayed on the road surface where the vehicle is traveling, the degree of coincidence between the display status of the display image and the actual laying status of the road lane marking is determined. It becomes possible for the driver of the vehicle to easily grasp or infer.

なお、出願書類中の各欄において、各要素に括弧付きの参照符号が付されている場合がある。この場合、参照符号は、単に、同要素と後述する実施形態に記載の具体的構成との対応関係の一例を示すものである。よって、本発明は、参照符号の記載によって、何ら限定されるものではない。 In each column of the application documents, each element may have a reference code in parentheses. In this case, the reference reference numeral simply indicates an example of the correspondence between the same element and the specific configuration described in the embodiment described later. Therefore, the present invention is not limited to the description of the reference code.

実施形態に係る表示制御装置を含む車載システムを搭載した車両の概略構成図である。It is a schematic block diagram of the vehicle equipped with the in-vehicle system including the display control device which concerns on embodiment. 図1に示された運転者における視点からフロントウィンドシールド越しの車両前方の路面とダッシュボードの一部とを見た様子を示す概略図である。FIG. 5 is a schematic view showing a state in which the road surface in front of the vehicle and a part of the dashboard are viewed through the front windshield from the viewpoint of the driver shown in FIG. 図1に示された車載システムの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the in-vehicle system shown in FIG. 図3に示された表示制御装置の概略的な機能構成を示すブロック図である。It is a block diagram which shows the schematic functional structure of the display control device shown in FIG. 図4に示された表示制御装置の一動作例に用いられるテーブルである。It is a table used for one operation example of the display control device shown in FIG. 図4に示された表示制御装置の一動作例に用いられるテーブルである。It is a table used for one operation example of the display control device shown in FIG. 図4に示された表示制御装置による表示制御の第一例を示す概略図である。It is the schematic which shows the 1st example of the display control by the display control apparatus shown in FIG. 図4に示された表示制御装置の一動作例を示すフローチャートである。It is a flowchart which shows one operation example of the display control apparatus shown in FIG. 図4に示された表示制御装置による表示制御の第二例を示す概略図である。It is the schematic which shows the 2nd example of the display control by the display control apparatus shown in FIG. 図4に示された表示制御装置による表示制御の第三例を示す概略図である。It is the schematic which shows the 3rd example of the display control by the display control device shown in FIG. 図4に示された表示制御装置による表示制御の第四例を示す概略図である。It is the schematic which shows the 4th example of the display control by the display control device shown in FIG. 図4に示された表示制御装置による表示制御の第五例を示す概略図である。It is the schematic which shows the 5th example of the display control by the display control device shown in FIG. 図4に示された表示制御装置による表示制御の第六例を示す概略図である。It is the schematic which shows the sixth example of the display control by the display control device shown in FIG. 図4に示された表示制御装置による表示制御の第七例を示す概略図である。It is the schematic which shows the 7th example of the display control by the display control device shown in FIG. 図4に示された表示制御装置による表示制御の第八例を示す概略図である。It is the schematic which shows the 8th example of the display control by the display control device shown in FIG. 図4に示された表示制御装置による表示制御の第八例を示す概略図である。It is the schematic which shows the 8th example of the display control by the display control device shown in FIG. 図4に示された表示制御装置による表示制御の第九例を示す概略図である。It is the schematic which shows the 9th example of the display control by the display control device shown in FIG. 図4に示された表示制御装置による表示制御の第十例を示す概略図である。It is the schematic which shows the tenth example of the display control by the display control device shown in FIG. 図4に示された表示制御装置の他の一動作例に用いられるテーブルである。It is a table used for another operation example of the display control device shown in FIG.

(実施形態)
以下、本発明の実施形態を、図面に基づいて説明する。なお、一つの実施形態に対して適用可能な各種の変形例については、当該実施形態に関する一連の説明の途中に挿入されると、当該実施形態の理解が妨げられるおそれがある。このため、変形例については、当該実施形態に関する一連の説明の途中ではなく、その後にまとめて説明する。
(Embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. If various modifications applicable to one embodiment are inserted in the middle of a series of explanations relating to the embodiment, the understanding of the embodiment may be hindered. For this reason, the modified examples will be described collectively afterwards, not in the middle of a series of explanations relating to the embodiment.

(車両)
図1を参照すると、車両1は、いわゆる四輪自動車であって、鉛直上方から車両1を見た平面視にて略矩形状の車体2を備えている。以下の説明の便宜上、車両1における「前」「後」「左」「右」「上」および「下」を、図1中にて矢印で示された通りに定義する。これらの方向概念は、前進走行中の車両1における運転席に搭乗する乗員である運転者Pを基準としたものである。前後方向は、車両全長方向と同義である。また、左右方向は、車幅方向と同義である。また、上下方向は、車高方向と同義である。車両全長方向は、車幅方向と直交し且つ車高方向と直交する方向である。車高方向は、車両1の車高を規定する方向であって、車両1を水平面に載置した場合の重力作用方向と平行な方向である。
(vehicle)
Referring to FIG. 1, the vehicle 1 is a so-called four-wheeled vehicle, and includes a vehicle body 2 having a substantially rectangular shape in a plan view of the vehicle 1 viewed from above vertically. For convenience of the following description, "front", "rear", "left", "right", "top" and "bottom" in the vehicle 1 are defined as indicated by arrows in FIG. These directional concepts are based on the driver P, who is a occupant in the driver's seat of the vehicle 1 traveling forward. The front-rear direction is synonymous with the vehicle overall length direction. The left-right direction is synonymous with the vehicle width direction. In addition, the vertical direction is synonymous with the vehicle height direction. The vehicle overall length direction is a direction orthogonal to the vehicle width direction and orthogonal to the vehicle height direction. The vehicle height direction is a direction that defines the vehicle height of the vehicle 1, and is a direction parallel to the gravitational action direction when the vehicle 1 is placed on a horizontal plane.

車体2における、乗員が搭乗する内部空間である車室3は、前方をフロントウィンドシールド4によって覆われている。フロントウィンドシールド4は、透光性のガラスあるいは合成樹脂により板状に形成されている。フロントウィンドシールド4は、車幅方向と平行な視線で見た側方視にて、下端部よりも上端部の方が後方に位置するように傾斜配置されている。 The passenger compartment 3 in the vehicle body 2, which is the internal space on which the occupants board, is covered in front by the front windshield 4. The front windshield 4 is formed in a plate shape by translucent glass or synthetic resin. The front windshield 4 is inclined so that the upper end portion is located rearward than the lower end portion in a lateral view viewed from a line of sight parallel to the vehicle width direction.

図2は、前進走行中の車両1の運転者Pにおける視点EPから、当該車両1の進行先の路面RSをフロントウィンドシールド4越しに見た様子を示す。図2中、DLは道路区画線、LSは自車線、LXは他車線を示す。自車線LSは、車両1が現在走行中の車線である。他車線LXは、自車線LSとは異なる車線であり、典型的には幅員方向について自車線LSに隣接する車線である。 FIG. 2 shows a state in which the road surface RS to which the vehicle 1 is traveling is viewed through the front windshield 4 from the viewpoint EP of the driver P of the vehicle 1 traveling forward. In FIG. 2, DL indicates a road marking line, LS indicates an own lane, and LX indicates another lane. The own lane LS is the lane in which the vehicle 1 is currently traveling. The other lane LX is a lane different from the own lane LS, and is typically a lane adjacent to the own lane LS in the width direction.

図1および図2に示されているように、車室3内における、フロントウィンドシールド4の下方には、ダッシュボード5が配置されている。ダッシュボード5から運転者Pに向かって、ステアリングコラム6が延設されている。ステアリングコラム6には、ステアリングホイール7が取り付けられている。 As shown in FIGS. 1 and 2, a dashboard 5 is arranged below the front windshield 4 in the passenger compartment 3. A steering column 6 extends from the dashboard 5 toward the driver P. A steering wheel 7 is attached to the steering column 6.

(車載システム)
車両1には、車載システム10が搭載されている。車載システム10は、車載通信回線10Aおよびこの車載通信回線10Aを介して相互に接続された各ノードを含む車載ネットワークであって、車両1の運転時の各種制御およびこれに伴う各種表示動作等を実行可能に構成されている。車載システム10は、CAN(国際登録商標:国際登録番号1048262A)等の所定の通信規格に準拠するように構成されている。CAN(国際登録商標)はController Area Networkの略である。
(In-vehicle system)
The vehicle 1 is equipped with an in-vehicle system 10. The in-vehicle system 10 is an in-vehicle network including an in-vehicle communication line 10A and each node connected to each other via the in-vehicle communication line 10A, and performs various controls during driving of the vehicle 1 and various display operations associated therewith. It is configured to be executable. The in-vehicle system 10 is configured to comply with a predetermined communication standard such as CAN (international registered trademark: international registration number 1048262A). CAN (Internationally Registered Trademark) is an abbreviation for Controller Area Network.

以下、図1〜図3を参照しつつ、車載システム10の構成の詳細について説明する。なお、車載システム10を搭載する車両1を「自車両」と称することがある。車載システム10は、車両状態センサ11と、外界状態センサ12と、周辺監視センサ13と、ロケータ14と、DCM15と、運転支援ECU16とを備えている。DCMはData Communication Moduleの略である。ECUはElectronic Control Unitの略である。車両状態センサ11、外界状態センサ12、周辺監視センサ13、ロケータ14、およびDCM15は、車載通信回線10Aと接続されている。運転支援ECU16は、車載通信回線10Aに接続されたノードとして設けられている。 Hereinafter, the details of the configuration of the in-vehicle system 10 will be described with reference to FIGS. 1 to 3. The vehicle 1 equipped with the in-vehicle system 10 may be referred to as a "own vehicle". The in-vehicle system 10 includes a vehicle state sensor 11, an external state sensor 12, a peripheral monitoring sensor 13, a locator 14, a DCM 15, and a driving support ECU 16. DCM is an abbreviation for Data Communication Module. ECU is an abbreviation for Electronic Control Unit. The vehicle state sensor 11, the external state sensor 12, the peripheral monitoring sensor 13, the locator 14, and the DCM 15 are connected to the vehicle-mounted communication line 10A. The driving support ECU 16 is provided as a node connected to the vehicle-mounted communication line 10A.

また、車載システム10は、DSM17と、入力操作部18と、表示装置19と、表示制御装置20とを備えている。DSMはDriver Status Monitorの略である。本実施形態においては、DSM17、入力操作部18、および表示装置19は、表示制御装置20と、車載通信回線10Aとは異なるサブ通信回線を介して情報通信可能に接続されている。表示制御装置20は、車載通信回線10Aに接続されたノードとして設けられている。 Further, the in-vehicle system 10 includes a DSM 17, an input operation unit 18, a display device 19, and a display control device 20. DSM is an abbreviation for Driver Status Monitor. In the present embodiment, the DSM 17, the input operation unit 18, and the display device 19 are connected to the display control device 20 so as to be capable of information communication via a sub-communication line different from the vehicle-mounted communication line 10A. The display control device 20 is provided as a node connected to the vehicle-mounted communication line 10A.

車両状態センサ11は、自車両の運転状態に関連する諸量に対応する出力を発生するように設けられている。「運転状態に関連する諸量」は、例えば、アクセル操作量、ブレーキ操作量、シフトポジション、操舵角、等の、運転者Pによる運転操作状態に関連する諸量を含む。また、「運転状態に関連する諸量」は、例えば、車速、角速度、前後方向加速度、左右方向加速度、等の、自車両の挙動に関連する物理量を含む。すなわち、車両状態センサ11は、アクセル開度センサ、操舵角センサ、車輪速センサ、角速度センサ、加速度センサ、等の、運転制御に必要な周知のセンサ類を、図示および説明の簡略化のために総称したものである。車両状態センサ11は、車載通信回線10Aを介して、ロケータ14等の各部に検出出力を提供可能に設けられている。 The vehicle state sensor 11 is provided so as to generate an output corresponding to various quantities related to the driving state of the own vehicle. The "various amounts related to the driving state" include, for example, various quantities related to the driving operation state by the driver P, such as the accelerator operation amount, the brake operation amount, the shift position, the steering angle, and the like. Further, the "various quantities related to the driving state" include physical quantities related to the behavior of the own vehicle, such as vehicle speed, angular velocity, front-rear direction acceleration, left-right direction acceleration, and the like. That is, the vehicle state sensor 11 provides well-known sensors necessary for driving control, such as an accelerator opening sensor, a steering angle sensor, a wheel speed sensor, an angular velocity sensor, and an acceleration sensor, for simplification of illustration and description. It is a generic term. The vehicle state sensor 11 is provided so as to be able to provide detection output to each part of the locator 14 and the like via the vehicle-mounted communication line 10A.

外界状態センサ12は、自車両の周囲の自然環境に関連する諸量に対応する出力を発生するように設けられている。「自然環境に関連する諸量」は、例えば、外気温、降雨量、照度、等の物理量を含む。すなわち、外界状態センサ12は、外気温センサ、雨滴センサ、照度センサ、等の周知のセンサ類を、図示および説明の簡略化のために総称したものである。外界状態センサ12は、車載通信回線10Aを介して、運転支援ECU16等の各部に検出出力を提供可能に設けられている。 The external state sensor 12 is provided so as to generate an output corresponding to various quantities related to the natural environment around the own vehicle. "Various quantities related to the natural environment" include, for example, physical quantities such as outside air temperature, rainfall, and illuminance. That is, the external state sensor 12 is a general term for well-known sensors such as an outside air temperature sensor, a raindrop sensor, an illuminance sensor, and the like for simplification of illustration and description. The external state sensor 12 is provided so as to be able to provide detection output to each part of the driving support ECU 16 and the like via the vehicle-mounted communication line 10A.

周辺監視センサ13は、自車両の周囲の交通環境事象のうち、主として外界状態センサ12により検知可能なもの以外を検知するように設けられている。具体的には、周辺監視センサ13は、自車両の周囲の所定の検出範囲における、移動物体および静止物体を検出可能に構成されている。「移動物体」は、歩行者、サイクリスト、動物、および他車両を含む。「静止物体」は、路上落下物、ガードレール、縁石、道路標識、および道路標示に加えて、道路脇の構造物(例えば建造物等)を含む。本実施形態においては、周辺監視センサ13は、移動物体および静止物体を検出するための構成として、フロントカメラ131とレーダセンサ132とを有している。 The peripheral monitoring sensor 13 is provided so as to detect traffic environment events around the own vehicle other than those that can be mainly detected by the external state sensor 12. Specifically, the peripheral monitoring sensor 13 is configured to be capable of detecting moving objects and stationary objects in a predetermined detection range around the own vehicle. "Moving objects" include pedestrians, cyclists, animals, and other vehicles. "Still objects" include roadside structures (eg, structures, etc.) in addition to road fall objects, guardrails, curbs, road signs, and road markings. In the present embodiment, the peripheral monitoring sensor 13 has a front camera 131 and a radar sensor 132 as a configuration for detecting moving objects and stationary objects.

フロントカメラ131は、自車両の前方および前側方範囲の画像を撮影するように設けられている。本実施形態においては、フロントカメラ131は、デジタルカメラ装置であって、CCDあるいはCMOS等のイメージセンサを備えている。CCDはCharge Coupled Deviceの略である。CMOSはComplementary MOSの略である。 The front camera 131 is provided so as to capture an image of the front and front side ranges of the own vehicle. In the present embodiment, the front camera 131 is a digital camera device and includes an image sensor such as a CCD or CMOS. CCD is an abbreviation for Charge Coupled Device. CMOS is an abbreviation for Complementary MOS.

レーダセンサ132は、レーダ波を送受信するミリ波レーダセンサ、サブミリ波レーダセンサ、またはレーザレーダセンサであって、車体2の前面部に装着されている。レーダセンサ132は、反射点の位置および相対速度に対応する信号を出力するように構成されている。「反射点」は、自車両の周囲の物体の表面上における、レーダ波を反射したと推定される点である。「相対速度」は、反射点すなわちレーダ波を反射した物体の、自車両に対する相対速度である。 The radar sensor 132 is a millimeter-wave radar sensor, a submillimeter-wave radar sensor, or a laser radar sensor that transmits and receives radar waves, and is mounted on the front surface of the vehicle body 2. The radar sensor 132 is configured to output a signal corresponding to the position of the reflection point and the relative speed. The "reflection point" is a point on the surface of an object around the own vehicle that is presumed to have reflected radar waves. The "relative velocity" is the relative velocity of the reflection point, that is, the object reflecting the radar wave, with respect to the own vehicle.

ロケータ14は、いわゆる複合測位により、自車両の高精度な位置情報等を決定するように構成されている。具体的には、ロケータ14は、GNSS受信器141と、慣性取得部142と、高精度地図DB143と、ロケータECU144とを有している。GNSSはGlobal Navigation Satellite Systemの略である。DBはデータベースの略である。 The locator 14 is configured to determine highly accurate position information and the like of the own vehicle by so-called compound positioning. Specifically, the locator 14 has a GNSS receiver 141, an inertia acquisition unit 142, a high-precision map DB 143, and a locator ECU 144. GNSS is an abbreviation for Global Navigation Satellite System. DB is an abbreviation for database.

GNSS受信器141は、複数の測位衛星すなわち人工衛星から送信された測位信号を受信するように設けられている。本実施形態においては、GNSS受信器141は、GPS、QZSS、GLONASS、Galileo、IRNSS、北斗衛星導航系統、等の衛星測位システムのうちの少なくとも1つにおける測位衛星からの測位信号を受信可能に構成されている。QZSSはQuasi-Zenith Satellite Systemの略である。GLONASSはGlobal Navigation Satellite Systemの略である。IRNSSはIndian Regional Navigation Satellite Systemの略である。 The GNSS receiver 141 is provided to receive positioning signals transmitted from a plurality of positioning satellites, that is, artificial satellites. In the present embodiment, the GNSS receiver 141 is configured to be capable of receiving positioning signals from positioning satellites in at least one of satellite positioning systems such as GPS, QZSS, GLONASS, Galileo, IRNSS, Beidou satellite navigation system, and the like. Has been done. QZSS is an abbreviation for Quasi-Zenith Satellite System. GLONASS is an abbreviation for Global Navigation Satellite System. IRNSS is an abbreviation for Indian Regional Navigation Satellite System.

慣性取得部142は、自車両に作用する加速度および角速度を取得するように構成されている。本実施形態においては、慣性取得部142は、ロケータ14における箱状の筐体内に内蔵された3軸ジャイロセンサおよび3軸加速度センサとして設けられている。 The inertia acquisition unit 142 is configured to acquire the acceleration and the angular velocity acting on the own vehicle. In the present embodiment, the inertia acquisition unit 142 is provided as a 3-axis gyro sensor and a 3-axis acceleration sensor built in the box-shaped housing of the locator 14.

高精度地図DB143は、高精度地図情報を書き換え可能に記憶するとともに電源遮断中にも記憶内容を保持するように、不揮発性リライタブルメモリを主体に構成されている。不揮発性リライタブルメモリは、例えば、ハードディスク、EEPROM、フラッシュROM、等である。EEPROMはElectronically Erasable and Programmable Read Only Memoryの略である。ROMはRead Only Memoryの略である。高精度地図情報は、高精度地図データとも称され得る。高精度地図情報には、目的地への経路案内を行う通常あるいは従来のカーナビゲーションシステムに用いられる地図情報よりも高精度な地図情報が含まれている。具体的には、高精度地図DB143には、ADASIS規格等の所定の規格に準拠して、三次元道路形状情報、レーン数情報、規制情報、等の、高度運転支援あるいは自動運転に利用可能な情報が格納されている。ADASISはAdvanced Driver Assistance Systems Interface Specificationの略である。 The high-precision map DB 143 is mainly composed of a non-volatile rewritable memory so as to store the high-precision map information in a rewritable manner and to retain the stored contents even when the power is cut off. The non-volatile rewritable memory is, for example, a hard disk, EEPROM, flash ROM, or the like. EEPROM is an abbreviation for Electronically Erasable and Programmable Read Only Memory. ROM is an abbreviation for Read Only Memory. The high-precision map information can also be referred to as high-precision map data. The high-precision map information includes map information that is more accurate than the map information used in a normal or conventional car navigation system that guides a route to a destination. Specifically, the high-precision map DB143 can be used for advanced driving support or automatic driving such as three-dimensional road shape information, lane number information, regulation information, etc., in accordance with a predetermined standard such as the ADASIS standard. Information is stored. ADASIS is an abbreviation for Advanced Driver Assistance Systems Interface Specification.

ロケータECU144は、図示しないCPU、ROM、RAM、入出力インタフェース、等を備えた、いわゆる車載マイクロコンピュータとして構成されている。CPUはCentral Processing Unitの略である。RAMはRandom Access Memoryの略である。ロケータECU144は、GNSS受信器141にて受信した測位信号、慣性取得部142にて取得した加速度および角速度、車両状態センサ11から取得した車速、等に基づいて、自車両の位置および方角等を逐次決定するようになっている。そして、ロケータ14は、ロケータECU144による位置および方角等の決定結果を、車載通信回線10Aを介して、運転支援ECU16および表示制御装置20等の各部に提供可能に設けられている。 The locator ECU 144 is configured as a so-called in-vehicle microcomputer provided with a CPU, ROM, RAM, input / output interface, etc. (not shown). CPU is an abbreviation for Central Processing Unit. RAM is an abbreviation for Random Access Memory. The locator ECU 144 sequentially determines the position and direction of the own vehicle based on the positioning signal received by the GNSS receiver 141, the acceleration and angular velocity acquired by the inertia acquisition unit 142, the vehicle speed acquired from the vehicle state sensor 11, and the like. It is supposed to decide. The locator 14 is provided so that the determination result of the position, direction, and the like by the locator ECU 144 can be provided to each part of the driving support ECU 16, the display control device 20, and the like via the vehicle-mounted communication line 10A.

DCM15は、車載通信モジュールであって、LTEあるいは5G等の通信規格に準拠した無線通信により、自車両の周囲の基地局との間で情報通信可能に設けられている。LTEはLong Term Evolutionの略である。5Gは5th Generationの略である。具体的には、例えば、DCM15は、クラウド上のプローブサーバから最新の高精度地図情報を取得するように構成されている。また、DCM15は、取得した最新の高精度地図情報を、ロケータECU144と連携することで、高精度地図DB143に格納するようになっている。 The DCM15 is an in-vehicle communication module, and is provided so that information can be communicated with base stations around the own vehicle by wireless communication conforming to a communication standard such as LTE or 5G. LTE is an abbreviation for Long Term Evolution. 5G is an abbreviation for 5th Generation. Specifically, for example, the DCM15 is configured to acquire the latest high-precision map information from a probe server on the cloud. Further, the DCM15 stores the acquired latest high-precision map information in the high-precision map DB 143 by linking with the locator ECU 144.

運転支援ECU16は、図示しないCPU、ROM、RAM、入出力インタフェース、等を備えた、いわゆる車載マイクロコンピュータとして構成されている。運転支援ECU16は、車両状態センサ11、外界状態センサ12、周辺監視センサ13、およびロケータ14から取得した信号および情報に基づいて、所定の運転支援動作を実行するように構成されている。「所定の運転支援動作」は、例えば、米国自動車技術会の規定する自動運転レベルにおける、レベル2以下の「部分的な自動走行制御動作」あるいは「高度運転支援動作」である。具体的には、運転支援ECU16は、例えば、先行車両との車間距離を一定に保ちつつ定速走行するためのACC制御、走行中の車線からの逸脱を抑制するための車線維持制御、等を実行可能に構成されている。ACCはAdaptive Cruise Controlの略である。 The driving support ECU 16 is configured as a so-called in-vehicle microcomputer provided with a CPU, ROM, RAM, input / output interface, etc. (not shown). The driving support ECU 16 is configured to execute a predetermined driving support operation based on signals and information acquired from the vehicle state sensor 11, the external world state sensor 12, the peripheral monitoring sensor 13, and the locator 14. The "predetermined driving support operation" is, for example, a "partial automatic driving control operation" or an "advanced driving support operation" of level 2 or lower at the automatic driving level specified by the American Society of Automotive Engineers of Japan. Specifically, the driving support ECU 16 provides, for example, ACC control for traveling at a constant speed while maintaining a constant distance from the preceding vehicle, lane keeping control for suppressing deviation from the traveling lane, and the like. It is configured to be executable. ACC is an abbreviation for Adaptive Cruise Control.

また、運転支援ECU16は、運転支援動作のために生成あるいは利用した、上記の信号および情報ならびにこれらの処理結果を、車載通信回線10Aを介して、表示制御装置20に提供可能に設けられている。運転支援ECU16から表示制御装置20に提供される信号あるいは情報等には、例えば、天候、自車両の周囲に存在する物体の認識結果、自車両の前方の路面RSの状況等の、自車両の周囲の交通環境事象が含まれる。また、かかる信号あるいは情報等には、例えば、道路の幅員方向における走行位置を含む、自車両の現在位置が含まれる。さらに、かかる信号あるいは情報等には、例えば、自車両の前方の路面RSにおける道路区画線DLの検知結果、等が含まれる。 Further, the driving support ECU 16 is provided so that the above signals and information generated or used for the driving support operation and the processing results thereof can be provided to the display control device 20 via the vehicle-mounted communication line 10A. .. The signals or information provided from the driving support ECU 16 to the display control device 20 include, for example, the weather, the recognition result of objects existing around the own vehicle, the condition of the road surface RS in front of the own vehicle, and the like. Includes surrounding traffic environment events. Further, the signal or information includes, for example, the current position of the own vehicle including the traveling position in the width direction of the road. Further, such signals or information include, for example, the detection result of the road lane marking DL on the road surface RS in front of the own vehicle.

DSM17は、運転者Pの顔を画像認識して運転者Pの状態を検出することで、ダッシュボード5等に設けられた不図示のスピーカ等を用いて脇見運転等に関する注意喚起あるいは警告を行うように構成されている。具体的には、DSM17は、車内カメラ171と、光源装置172と、これらを制御するDSM−ECU173とを備えている。 The DSM 17 recognizes the driver P's face as an image and detects the driver P's state, and uses a speaker (not shown) provided on the dashboard 5 or the like to alert or warn about inattentive driving or the like. It is configured as follows. Specifically, the DSM 17 includes an in-vehicle camera 171, a light source device 172, and a DSM-ECU 173 that controls them.

車内カメラ171は、車室3内が暗くなっても安定して運転者Pを撮影することができるように、近赤外線カメラによって構成されている。すなわち、車内カメラ171は、近赤外LED等の近赤外光源である光源装置172により照らされた運転席を撮像するように設けられている。 The in-vehicle camera 171 is configured by a near-infrared camera so that the driver P can be stably photographed even when the inside of the vehicle interior 3 becomes dark. That is, the in-vehicle camera 171 is provided so as to take an image of the driver's seat illuminated by the light source device 172 which is a near-infrared light source such as a near-infrared LED.

DSM−ECU173は、車内カメラ171による撮影画像を解析することで、車室3内における視点EPの三次元位置、運転者Pの視線方向、等を算出するように構成されている。さらに、DSM17は、DSM−ECU173における算出結果を、表示制御装置20に提供可能に設けられている。 The DSM-ECU 173 is configured to calculate the three-dimensional position of the viewpoint EP in the vehicle interior 3, the line-of-sight direction of the driver P, and the like by analyzing the image taken by the in-vehicle camera 171. Further, the DSM 17 is provided so that the calculation result in the DSM-ECU 173 can be provided to the display control device 20.

入力操作部18は、運転者Pによる手動および/または音声による入力操作を受け付けるように構成されている。具体的には、入力操作部18は、例えば、ウィンカスイッチ181等を有している。ウィンカスイッチ181は、ステアリングコラム6に設けられた操作レバーである不図示のウィンカーレバーの操作状態に応じた信号を出力するように構成されている。また、入力操作部18は、例えば、ステアリングホイール7におけるスポーク部に設けられたステアスイッチを有している。さらに、入力操作部18は、例えば、運転者Pの発話を検出する音声入力装置等を有している。入力操作部18は、運転者Pによる入力操作の受け付け結果を、表示制御装置20に提供可能に設けられている。 The input operation unit 18 is configured to accept a manual and / or voice input operation by the driver P. Specifically, the input operation unit 18 has, for example, a winker switch 181 and the like. The blinker switch 181 is configured to output a signal corresponding to an operating state of a blinker lever (not shown), which is an operating lever provided on the steering column 6. Further, the input operation unit 18 has, for example, a steering switch provided on the spoke portion of the steering wheel 7. Further, the input operation unit 18 has, for example, a voice input device for detecting the utterance of the driver P. The input operation unit 18 is provided so that the reception result of the input operation by the driver P can be provided to the display control device 20.

(車両用表示装置)
車両1用の表示装置19は、運転者Pに対して、自車両に関する各種情報を表示するように構成されている。具体的には、ダッシュボード5には、メータパネル191が設けられている。メータパネル191は、運転者Pに向けて配置されている。
(Vehicle display device)
The display device 19 for the vehicle 1 is configured to display various information about the own vehicle to the driver P. Specifically, the dashboard 5 is provided with a meter panel 191. The meter panel 191 is arranged toward the driver P.

メータパネル191は、車速、エンジン回転数、冷却水温、走行距離、等の、自車両の運転状態に関する情報を表示するとともに、外気温、現在時刻、等の補助的情報を表示可能に構成されている。具体的には、メータパネル191は、車両情報ディスプレイ191Aを有している。車両情報ディスプレイ191Aは、ヘッドアップディスプレイ装置192とは異なる表示デバイスであって、不図示のタコメータとスピードメータとの間の、メータパネル191の車幅方向における略中央部にて、各種情報を表示するようになっている。 The meter panel 191 is configured to be able to display information on the driving state of the own vehicle such as vehicle speed, engine speed, cooling water temperature, mileage, and auxiliary information such as outside air temperature and current time. There is. Specifically, the meter panel 191 has a vehicle information display 191A. The vehicle information display 191A is a display device different from the head-up display device 192, and displays various information at a substantially central portion in the vehicle width direction of the meter panel 191 between a tachometer and a speedometer (not shown). It is designed to do.

また、車両1には、ヘッドアップディスプレイ装置192が搭載されている。以下、ヘッドアップディスプレイ装置192を、「HUD装置192」と略称する。HUDはHead-Up Displayの略である。HUD装置192は、フロントウィンドシールド4の下方にて、ダッシュボード5内に収容されている。 Further, the vehicle 1 is equipped with a head-up display device 192. Hereinafter, the head-up display device 192 is abbreviated as "HUD device 192". HUD is an abbreviation for Head-Up Display. The HUD device 192 is housed in the dashboard 5 below the front windshield 4.

HUD装置192は、AR技術を用いて虚像である表示画像Viを形成することで、自車両の進行先の路面RSを含む前景と併せて表示画像Viを運転者Pにより視認可能に表示するように設けられている。すなわち、HUD装置192は、表示画像Viを構成する表示画像光VLをフロントウィンドシールド4における投影範囲PAに投影して、表示画像光VLのフロントウィンドシールド4による反射光を運転者Pに視認させることで、表示画像Viを表示するように構成されている。本実施形態においては、HUD装置192は、図1に示されているように、俯角ADが0度以上の正の値となるように構成されている。俯角ADは、図1にて、視点EPを通る仮想水平線と視点EPと投影範囲PAの上端とを結ぶ仮想直線との間の角度である。俯角ADは、視点EPから投影範囲PAの上端を見下ろす場合に正の値となり、視点EPから投影範囲PAの上端を見上げる場合に負の値となるものとする。また、HUD装置192は、垂直画角AVよりも水平画角を大きくすることで、投影範囲PAが図2に示されているように横長な略長方形となるように構成されている。垂直画角AVは、図1にて、視点EPと投影範囲PAの上端とを結ぶ仮想直線と、視点EPと投影範囲PAの下端とを結ぶ仮想直線との間の角度である。すなわち、垂直画角AVは、視点EPから表示画像Viを視認可能な上下方向における角度範囲であり、上下方向における視野角とも称され得る。 The HUD device 192 uses AR technology to form a display image Vi that is a virtual image so that the driver P can visually display the display image Vi together with the foreground including the road surface RS of the vehicle's destination. It is provided in. That is, the HUD device 192 projects the display image light VL constituting the display image Vi onto the projection range PA in the front windshield 4, and makes the driver P visually recognize the reflected light by the front windshield 4 of the display image light VL. Therefore, it is configured to display the display image Vi. In the present embodiment, the HUD device 192 is configured such that the depression angle AD is a positive value of 0 degrees or more, as shown in FIG. The depression angle AD is the angle between the virtual horizontal line passing through the viewpoint EP and the virtual straight line connecting the viewpoint EP and the upper end of the projection range PA in FIG. The depression angle AD has a positive value when looking down at the upper end of the projection range PA from the viewpoint EP, and a negative value when looking up at the upper end of the projection range PA from the viewpoint EP. Further, the HUD device 192 is configured so that the projection range PA becomes a horizontally long substantially rectangular shape as shown in FIG. 2 by making the horizontal angle of view larger than the vertical angle of view AV. The vertical angle of view AV is the angle between the virtual straight line connecting the viewpoint EP and the upper end of the projection range PA and the virtual straight line connecting the viewpoint EP and the lower end of the projection range PA in FIG. That is, the vertical angle of view AV is an angle range in the vertical direction in which the displayed image Vi can be visually recognized from the viewpoint EP, and can also be referred to as a viewing angle in the vertical direction.

HUD装置192は、プロジェクタ192Aと拡大光学系192Bとを備えている。プロジェクタ192Aは、表示制御装置20により生成された表示画像信号に基づいて、表示画像光VLを拡大光学系192Bに向けて射出するように設けられている。拡大光学系192Bは、凹面鏡を含む複数の光学要素と、これらのアライメントを制御するアクチュエータとを備えている。拡大光学系192Bは、DSM17によって検出された視点EPに応じて光学要素におけるアライメントをアクチュエータで制御することで、フロントウィンドシールド4に対する表示画像光VLの投影状態を調整するように構成されている。 The HUD device 192 includes a projector 192A and a magnifying optical system 192B. The projector 192A is provided so as to emit the display image light VL toward the magnifying optical system 192B based on the display image signal generated by the display control device 20. The magnifying optical system 192B includes a plurality of optical elements including a concave mirror and an actuator for controlling their alignment. The magnifying optical system 192B is configured to adjust the projection state of the display image light VL on the front window shield 4 by controlling the alignment in the optical element according to the viewpoint EP detected by the DSM 17 by an actuator.

HUD装置192は、重畳コンテンツを表示可能に設けられている。「重畳コンテンツ」は、前景に含まれる特定の注目対象に対応付けあるいは関連付けされつつ、当該注目対象またはこれを含む重畳対象に重畳表示される表示画像コンテンツである。「注目対象」は、例えば、路面標示、道路標識、前方車両、歩行者、等の、運転中に注目すべき対象物である。「重畳対象」は、典型的には、注目対象である。但し、注目対象が道路区画線等の路面標示である場面においては、重畳対象は、路面標示の近傍の路面RSである場合があり得る。具体的には、例えば、図2に示されている、自車線LSに重畳表示される左側自車線コンテンツCLおよび右側自車線コンテンツCRは、重畳コンテンツである。左側自車線コンテンツCLは、自車線LSの左端を規定する道路区画線DLに重畳表示される区画線コンテンツである。「区画線コンテンツ」は、対応する道路区画線DLと視覚的に重なるかまたは近接するように、対応する道路区画線DLに沿って表示される重畳コンテンツであって、道路区画線DLに模した形状を有している。右側自車線コンテンツCRは、自車線LSの右端を規定する道路区画線DLに重畳表示される区画線コンテンツである。このように、HUD装置192は、自車両のフロントウィンドシールド4越しに視認される、路面RS等の前景に、重畳コンテンツを重畳表示するように構成されている。なお、以下の説明において、左側自車線コンテンツCLと右側自車線コンテンツCRとを総称して、単に「自車線コンテンツ」と表記することがある。自車線コンテンツは、自車線LSに運転者Pの注意を引くための区画線コンテンツである。また、自車線LSの左端を規定する道路区画線DLを、以下「左側の道路区画線DL」と称する。同様に、自車線LSの右端を規定する道路区画線DLを、以下「右側の道路区画線DL」と称する。 The HUD device 192 is provided so that the superimposed content can be displayed. The “superimposed content” is display image content that is superimposed or displayed on the attention target or the superimposition target including the attention target while being associated with or associated with a specific attention target included in the foreground. The "object of interest" is an object that should be noted while driving, such as a road marking, a road sign, a vehicle in front, a pedestrian, or the like. A "superimposed object" is typically an object of interest. However, in a scene where the target of interest is a road marking such as a road marking, the superimposing target may be a road surface RS in the vicinity of the road marking. Specifically, for example, the left side own lane content CL and the right side own lane content CR superimposed and displayed on the own lane LS, which are shown in FIG. 2, are superimposed contents. The left lane content CL is lane marking content that is superimposed and displayed on the road lane marking DL that defines the left end of the own lane LS. The "lane marking content" is superimposed content displayed along the corresponding road marking line DL so as to visually overlap or approach the corresponding road marking line DL, and imitates the road marking line DL. It has a shape. The right-hand lane content CR is lane marking content that is superimposed and displayed on the road lane marking DL that defines the right end of the own lane LS. As described above, the HUD device 192 is configured to superimpose and display the superimposed content on the foreground such as the road surface RS that is visually recognized through the front windshield 4 of the own vehicle. In the following description, the left side own lane content CL and the right side own lane content CR may be collectively referred to as “own lane content”. The own lane content is a lane marking content for drawing the attention of the driver P to the own lane LS. Further, the road lane marking DL that defines the left end of the own lane LS is hereinafter referred to as "left road lane marking DL". Similarly, the road lane marking DL that defines the right end of the own lane LS is hereinafter referred to as "the right road lane marking DL".

HUD装置192は、非重畳コンテンツを表示可能に設けられている。「非重畳コンテンツ」は、前景に含まれる特定の注目対象には関連付けられない表示画像コンテンツである。具体的には、例えば、図2に示されている、現在走行中の道路の法定最高速度を示す速度情報コンテンツCVは、非重重畳コンテンツである。 The HUD device 192 is provided so that non-superimposed content can be displayed. "Non-superimposed content" is display image content that is not associated with a particular object of interest included in the foreground. Specifically, for example, the speed information content CV showing the legal maximum speed of the road currently traveling, which is shown in FIG. 2, is a non-overlapping content.

重畳コンテンツと非重畳コンテンツとは、以下の点で異なる。例えば、自車両および/または注目対象の移動により、注目対象の自車両に対する相対位置が変化する。このとき、重畳コンテンツの、投影範囲PA内における表示位置は、注目対象の自車両に対する相対位置の変化に追随して変化することがあり得る。これに対し、非重重畳コンテンツの、投影範囲PA内における表示位置は、通常は一定である。また、注目対象あるいは重畳対象と、重畳コンテンツと、視点EPとは、これらが実質的に一直線上に位置するような相対位置関係となる。このような相対位置関係は、自車両の走行等により相対位置の変化が生じても、継続的に維持される。これに対し、非重畳コンテンツについては、そもそも注目対象あるいは重畳対象が規定されないため、このような相対位置関係は観念されない。また、重畳コンテンツの典型例として、区画線コンテンツのような、道路区画線DLに対応する実線あるいは破線状の表示画像コンテンツが挙げられる。このようなコンテンツは、道路に沿って表示されるものであり、運転者Pから見て奥行き方向に延びるように表示される。これに対し、非重畳コンテンツの典型例として、自車両の走行速度表示コンテンツ、速度情報コンテンツCV、等が挙げられる。このようなコンテンツは、必ずしも道路に沿って表示されるものではなく、運転者Pから見て奥行き方向に延びるように表示されるものでもない。なお、自車両と注目対象あるいは重畳対象との位置関係によっては、非重畳コンテンツであっても、運転者Pから、重畳コンテンツに対応する注目対象あるいは重畳対象と重畳して視認されることがあり得る。しかしながら、このように、意図しない偶然により何らかの前景と重畳して視認されるような、非重畳コンテンツの表示は、重畳コンテンツにおける「重畳表示」とは異なる。 Superimposed content and non-superimposed content differ in the following points. For example, the movement of the own vehicle and / or the object of interest changes the relative position of the object of interest with respect to the own vehicle. At this time, the display position of the superimposed content in the projection range PA may change following the change in the relative position with respect to the own vehicle of interest. On the other hand, the display position of the non-overlapping content in the projection range PA is usually constant. Further, the object of interest or the superimposed object, the superimposed content, and the viewpoint EP have a relative positional relationship such that they are substantially aligned with each other. Such a relative positional relationship is continuously maintained even if the relative position changes due to the traveling of the own vehicle or the like. On the other hand, for non-superimposed content, since the target of interest or the target of superimposition is not defined in the first place, such a relative positional relationship is not conceived. Further, as a typical example of the superimposed content, there is a solid line or broken line display image content corresponding to the road lane marking DL, such as the lane marking content. Such content is displayed along the road, and is displayed so as to extend in the depth direction when viewed from the driver P. On the other hand, typical examples of non-superimposed content include traveling speed display content of own vehicle, speed information content CV, and the like. Such content is not necessarily displayed along the road, and is not displayed so as to extend in the depth direction when viewed from the driver P. Depending on the positional relationship between the own vehicle and the object of interest or the object of superimposition, even non-superimposed content may be visually recognized by the driver P by superimposing the object of interest or the object of superimposition corresponding to the superimposed content. obtain. However, in this way, the display of non-superimposed content that is visually recognized superimposed on some foreground by unintentional accident is different from the "superimposition display" in the superposed content.

(表示制御装置)
表示制御装置20は、表示装置19における表示動作を制御するように設けられている。すなわち、表示制御装置20は、DSM17、入力操作部18、および表示装置19を含むHMIシステムの動作を制御するHCUとして構成されている。HMIはHuman Machine Interfaceの略である。HCUはHMI Control Unitの略である。具体的には、表示制御装置20は、処理部201、記憶部202、RAM203、入出力インタフェース204、等を備えた、いわゆる車載マイクロコンピュータとして構成されている。
(Display control device)
The display control device 20 is provided to control the display operation in the display device 19. That is, the display control device 20 is configured as an HCU that controls the operation of the HMI system including the DSM 17, the input operation unit 18, and the display device 19. HMI is an abbreviation for Human Machine Interface. HCU is an abbreviation for HMI Control Unit. Specifically, the display control device 20 is configured as a so-called in-vehicle microcomputer provided with a processing unit 201, a storage unit 202, a RAM 203, an input / output interface 204, and the like.

処理部201は、CPU等の演算コアを少なくとも一つ含む構成を有している。記憶部202は、ROMおよび/または不揮発性リライタブルメモリによって構成されている。記憶部202には、処理部201によって実行される種々のプログラム、例えば、表示制御プログラム等が格納されている。また、記憶部202には、プログラムの実行の際に用いられる各種のデータ、例えば、初期値、テーブル、マップ、等が、あらかじめ格納されている。RAM203は、上記のプログラムの実行により後述する各機能部の機能を実現するための種々の処理を実行するために、処理部201によりアクセス可能に設けられている。 The processing unit 201 has a configuration including at least one arithmetic core such as a CPU. The storage unit 202 is composed of a ROM and / or a non-volatile rewritable memory. The storage unit 202 stores various programs executed by the processing unit 201, such as a display control program. In addition, various data used when executing the program, for example, initial values, tables, maps, etc., are stored in advance in the storage unit 202. The RAM 203 is provided so as to be accessible by the processing unit 201 in order to execute various processes for realizing the functions of the functional units described later by executing the above program.

入出力インタフェース204は、表示制御装置20と、運転支援ECU16、DSM17、等の外部装置との間の、信号および情報の入出力を行うように設けられている。具体的には、入出力インタフェース204には、車載通信回線10Aが接続されている。また、入出力インタフェース204には、DSM17、入力操作部18、および表示装置19との間の通信用のサブ通信回線が接続されている。 The input / output interface 204 is provided so as to input / output signals and information between the display control device 20 and an external device such as the driving support ECU 16 and the DSM 17. Specifically, the in-vehicle communication line 10A is connected to the input / output interface 204. Further, a sub communication line for communication between the DSM 17, the input operation unit 18, and the display device 19 is connected to the input / output interface 204.

(機能構成:第一実施形態)
表示制御装置20は、メータパネル191における各種表示、および、HUD装置192における表示画像の表示を制御するように構成されている。具体的には、表示制御装置20は、図4に示されているような、マイクロコンピュータ上にて実現される各機能部を有している。すなわち、表示制御装置20は、検知結果取得部211と、位置情報取得部212と、地図情報取得部213と、区画線情報取得部214と、走行環境取得部215と、視点位置取得部216とを有している。また、表示制御装置20は、精度決定部217と表示制御部218とを有している。以下、図1〜図4を参照しつつ、本実施形態における、表示制御装置20の機能構成の詳細について説明する。
(Functional configuration: First embodiment)
The display control device 20 is configured to control various displays on the meter panel 191 and the display of the display image on the HUD device 192. Specifically, the display control device 20 has each functional unit realized on a microcomputer as shown in FIG. That is, the display control device 20 includes a detection result acquisition unit 211, a position information acquisition unit 212, a map information acquisition unit 213, a lane marking information acquisition unit 214, a traveling environment acquisition unit 215, and a viewpoint position acquisition unit 216. have. Further, the display control device 20 has an accuracy determination unit 217 and a display control unit 218. Hereinafter, the details of the functional configuration of the display control device 20 in the present embodiment will be described with reference to FIGS. 1 to 4.

検知結果取得部211は、自車両の進行先の路面RSにおける道路区画線DLの検知結果を取得するように設けられている。具体的には、検知結果取得部211は、フロントカメラ131を用いた道路区画線DLの検知結果を、周辺監視センサ13または運転支援ECU16から車載通信回線10Aを介して取得するようになっている。 The detection result acquisition unit 211 is provided so as to acquire the detection result of the road lane marking DL on the road surface RS to which the own vehicle travels. Specifically, the detection result acquisition unit 211 acquires the detection result of the road marking line DL using the front camera 131 from the peripheral monitoring sensor 13 or the driving support ECU 16 via the in-vehicle communication line 10A. ..

位置情報取得部212は、ロケータ14にて複合測位により決定された、自車両の高精度な位置情報および方角情報を取得するように設けられている。具体的には、位置情報取得部212は、ロケータECU144による位置情報および方角情報の決定結果を、ロケータECU144から車載通信回線10Aを介して取得するようになっている。 The position information acquisition unit 212 is provided so as to acquire highly accurate position information and direction information of the own vehicle determined by compound positioning by the locator 14. Specifically, the position information acquisition unit 212 acquires the determination result of the position information and the direction information by the locator ECU 144 from the locator ECU 144 via the vehicle-mounted communication line 10A.

地図情報取得部213は、高精度地図DB143に格納された高精度地図情報を取得するように設けられている。具体的には、地図情報取得部213は、ロケータECU144が高精度地図DB143から読み出した高精度地図情報を、ロケータECU144から車載通信回線10Aを介して取得するようになっている。 The map information acquisition unit 213 is provided to acquire the high-precision map information stored in the high-precision map DB 143. Specifically, the map information acquisition unit 213 acquires the high-precision map information read from the high-precision map DB 143 by the locator ECU 144 from the locator ECU 144 via the vehicle-mounted communication line 10A.

区画線情報取得部214は、道路区画線DLの敷設状態に関する区画線情報を含む上記の高精度地図情報と、自車両の現在位置とに基づいて、自車両の進行先の路面RSに対応する区画線情報を取得するように設けられている。具体的には、区画線情報取得部214は、自車両の現在位置から所定範囲内の路面RS上の道路区画線DLの敷設状態を示す区画線情報を、地図情報取得部213にて取得した高精度地図情報から抽出するようになっている。 The lane marking information acquisition unit 214 corresponds to the road surface RS of the destination of the own vehicle based on the above-mentioned high-precision map information including the lane marking information regarding the laying state of the road lane marking DL and the current position of the own vehicle. It is provided to acquire lane marking information. Specifically, the lane marking information acquisition unit 214 has acquired the lane marking information indicating the laying state of the road lane marking DL on the road surface RS within a predetermined range from the current position of the own vehicle by the map information acquisition unit 213. It is designed to be extracted from high-precision map information.

走行環境取得部215は、自車両の走行環境に関する環境情報を取得するように設けられている。具体的には、走行環境取得部215は、外界状態センサ12により検出した外気温、降雨量、等と、周辺監視センサ13による検知結果とを、車載通信回線10Aを介して取得するようになっている。また、走行環境取得部215は、環境情報の取得結果に基づいて、自車両の現在の走行環境が視界不良環境であるか否かを判定するようになっている。「視界不良環境」とは、降雪、積雪、降雨、夜間、霧、崖、等により、自車両の前方の視界が不良である環境をいう。 The traveling environment acquisition unit 215 is provided so as to acquire environmental information regarding the traveling environment of the own vehicle. Specifically, the driving environment acquisition unit 215 acquires the outside air temperature, the amount of rainfall, etc. detected by the external world state sensor 12 and the detection result by the peripheral monitoring sensor 13 via the in-vehicle communication line 10A. ing. Further, the traveling environment acquisition unit 215 determines whether or not the current traveling environment of the own vehicle is a poor visibility environment based on the acquisition result of the environmental information. The "poor visibility environment" refers to an environment in which the visibility in front of the own vehicle is poor due to snowfall, snowfall, rainfall, nighttime, fog, cliffs, and the like.

視点位置取得部216は、HUD装置192による表示を実行する際の視点EPの位置を取得するように設けられている。具体的には、視点位置取得部216は、DSM−ECU173による視点EPの三次元位置の算出結果を、DSM−ECU173から車載通信回線10Aを介して取得するようになっている。 The viewpoint position acquisition unit 216 is provided so as to acquire the position of the viewpoint EP when the display by the HUD device 192 is executed. Specifically, the viewpoint position acquisition unit 216 acquires the calculation result of the three-dimensional position of the viewpoint EP by the DSM-ECU 173 from the DSM-ECU 173 via the vehicle-mounted communication line 10A.

精度決定部217は、検知結果取得部211により取得した検知結果と、区画線情報取得部214により取得した区画線情報とに基づいて、道路区画線DLの認識精度を決定するように設けられている。「認識精度」は、車載システム10が、自車両の進行先の路面RSにおける道路区画線DLを認識した精度である。具体的には、精度決定部217は、周辺監視センサ13を用いた道路区画線DLの検知精度と、高精度地図情報中の道路区画線DLに対応する区画線情報の存在態様とを用いて、認識精度を決定するようになっている。精度決定部217による認識精度の決定手法の一例については、後述の動作概要にて説明する。 The accuracy determination unit 217 is provided so as to determine the recognition accuracy of the road lane marking DL based on the detection result acquired by the detection result acquisition unit 211 and the lane marking information acquired by the lane marking information acquisition unit 214. There is. The “recognition accuracy” is the accuracy with which the in-vehicle system 10 recognizes the road lane marking DL on the road surface RS to which the own vehicle travels. Specifically, the accuracy determination unit 217 uses the detection accuracy of the road lane marking DL using the peripheral monitoring sensor 13 and the existence mode of the lane marking information corresponding to the road lane marking DL in the high-precision map information. , The recognition accuracy is determined. An example of the recognition accuracy determination method by the accuracy determination unit 217 will be described in the operation outline described later.

表示制御部218は、検知結果取得部211〜視点位置取得部216による取得結果と、精度決定部217における決定結果とに基づいて、HUD装置192による表示動作を制御するように設けられている。具体的には、表示制御部218は、精度決定部217により決定した認識精度に応じた表示画像コンテンツである精度コンテンツを、自車両の進行先の路面RSに重畳表示するようになっている。精度コンテンツは、自車両の進行先の路面RSの、幅員方向における道路区画線DLに対応する位置に重畳表示することで、道路区画線DLの認識精度の高さを視覚的に示すための重畳コンテンツである。 The display control unit 218 is provided to control the display operation by the HUD device 192 based on the acquisition result by the detection result acquisition unit 211 to the viewpoint position acquisition unit 216 and the determination result by the accuracy determination unit 217. Specifically, the display control unit 218 is adapted to superimpose and display the accuracy content, which is the display image content according to the recognition accuracy determined by the accuracy determination unit 217, on the road surface RS to which the own vehicle is traveling. The accuracy content is superimposed and displayed on the road surface RS of the destination of the own vehicle at a position corresponding to the road marking line DL in the width direction, thereby visually showing the high recognition accuracy of the road marking line DL. Content.

本実施形態においては、表示制御部218は、自車線LSに運転者Pの注意を引くための区画線コンテンツである自車線コンテンツを、精度コンテンツとして流用するようになっている。すなわち、表示制御部218は、精度コンテンツとして用いられる自車線コンテンツすなわち左側自車線コンテンツCLおよび右側自車線コンテンツCRの表示態様を、認識精度に応じて変更するようになっている。 In the present embodiment, the display control unit 218 diverts the own lane content, which is the lane marking content for attracting the attention of the driver P to the own lane LS, as the accuracy content. That is, the display control unit 218 changes the display mode of the own lane content used as the accuracy content, that is, the left own lane content CL and the right side own lane content CR, according to the recognition accuracy.

表示制御部218は、精度コンテンツとして用いられる自車線コンテンツを、道路区画線DLに模した形状で、道路区画線DLの近傍位置にて路面RSに重畳表示するようになっている。具体的には、天候不良時にて車線情報の把握を容易とするため、表示制御部218は、自車線コンテンツを、実際の道路区画線DLの線種にかかわらず、対応する道路区画線DLに沿って延びる実線で表示するようになっている。また、表示制御部218は、左側自車線コンテンツCLおよび右側自車線コンテンツCRを、実際の道路区画線DLよりも自車線LSにおける幅員方向中央側に所定量オフセットした位置に表示するようになっている。本実施形態においては、この「所定量」は、自車線コンテンツと道路区画線DLとの間に、道路区画線DLの幅以下の隙間が生じる程度に設定されている。 The display control unit 218 is adapted to superimpose and display the own lane content used as the accuracy content on the road surface RS at a position near the road lane DL in a shape imitating the road lane DL. Specifically, in order to facilitate grasping of lane information in bad weather, the display control unit 218 transfers the own lane content to the corresponding road lane DL regardless of the line type of the actual road lane DL. It is displayed as a solid line extending along it. Further, the display control unit 218 displays the left side own lane content CL and the right side own lane content CR at positions offset by a predetermined amount toward the center side in the width direction in the own lane LS from the actual road lane marking DL. There is. In the present embodiment, this "predetermined amount" is set to such an extent that a gap equal to or less than the width of the road lane marking DL is generated between the own lane content and the road lane marking DL.

表示制御部218は、態様選択部219を有している。態様選択部219は、精度決定部217により決定した認識精度に応じて、左側自車線コンテンツCLおよび右側自車線コンテンツCRにおける複数の表示態様から1つを選択するように設けられている。「表示態様」には、色、輝度、長さ、幅、点灯/点滅の区別、点滅インターバル、等の他に、表示/非表示の区別も含まれる。本実施形態においては、態様選択部219は、自車線コンテンツの幅員方向における幅を、認識精度が高いほど広く設定するようになっている。そして、表示制御部218は、態様選択部219にて認識精度に応じて選択した表示態様すなわち幅で、自車線コンテンツを、路面RSにおける道路区画線DLに隣接する位置に重畳表示するようになっている。 The display control unit 218 has an aspect selection unit 219. The aspect selection unit 219 is provided so as to select one from a plurality of display modes in the left side own lane content CL and the right side own lane content CR according to the recognition accuracy determined by the accuracy determination unit 217. The "display mode" includes not only color, brightness, length, width, lighting / blinking distinction, blinking interval, etc., but also display / non-display distinction. In the present embodiment, the aspect selection unit 219 sets the width of the own lane content in the width direction to be wider as the recognition accuracy is higher. Then, the display control unit 218 superimposes and displays the own lane content on the road surface RS at a position adjacent to the road marking line DL in the display mode, that is, the width selected by the mode selection unit 219 according to the recognition accuracy. ing.

(動作概要)
以下、本実施形態に係る表示制御装置20の動作、および、この表示制御装置20により実行される表示制御方法の概要について、本実施形態の構成により奏される効果とともに、図1〜図7を用いて説明する。図5および図6は、表示制御装置20の動作時に参照される、記憶部202にあらかじめ格納されたテーブルである。図7は、図2に示された投影範囲PAを拡大して示す。なお、図示および説明の簡略化のため、図7においては、速度情報コンテンツCV等の非重畳コンテンツの表示の図示は省略されているものとする。図9以降についても同様である。
(Outline of operation)
Hereinafter, the operation of the display control device 20 according to the present embodiment and the outline of the display control method executed by the display control device 20 are shown in FIGS. 1 to 7 together with the effects produced by the configuration of the present embodiment. It will be described using. 5 and 6 are tables stored in advance in the storage unit 202, which are referred to when the display control device 20 is operated. FIG. 7 shows an enlarged projection range PA shown in FIG. For the sake of simplification of illustration and description, it is assumed that the display of non-superimposed content such as speed information content CV is omitted in FIG. 7. The same applies to FIGS. 9 and later.

表示制御装置20は、所定のHUD表示開始条件が成立すると、処理部201により記憶部202から表示制御プログラムを読み出して実行することで、HUD装置192の表示制御を開始する。例えば、周辺監視センサ13および/またはロケータ14により、自車両が現在走行中の道路における速度規制情報が取得された場合、表示制御装置20は、対応する非重畳コンテンツである速度情報コンテンツCVを、HUD装置192により表示する。その他、表示制御装置20は、非重畳コンテンツに対応する各種情報が取得された場合、表示制御装置20は、かかる情報に対応する非重畳コンテンツを、HUD装置192により表示する。また、表示制御装置20は、取得された情報に変更が生じる毎に、HUD装置192による非重畳コンテンツの表示状態を更新する。表示状態を更新することには、非表示にすることも含まれる。 When the predetermined HUD display start condition is satisfied, the display control device 20 starts the display control of the HUD device 192 by reading the display control program from the storage unit 202 by the processing unit 201 and executing the display control program. For example, when the peripheral monitoring sensor 13 and / or the locator 14 acquires the speed regulation information on the road on which the own vehicle is currently traveling, the display control device 20 displays the speed information content CV, which is the corresponding non-superimposed content. Displayed by the HUD device 192. In addition, when the display control device 20 acquires various information corresponding to the non-superimposed content, the display control device 20 displays the non-superimposed content corresponding to the information by the HUD device 192. Further, the display control device 20 updates the display state of the non-superimposed content by the HUD device 192 every time the acquired information is changed. Updating the display state also includes hiding it.

運転者Pの所定操作、例えば、ACC開始指示操作等により、運転支援ECU16は、車線維持制御を開始する。車線維持制御中、運転支援ECU16は、運転者Pによる追加の指示操作がない限り、自車両が自車線LSから逸脱しないように、自車両の操舵制御あるいは操舵支援制御を実行する。 The driving support ECU 16 starts the lane keeping control by a predetermined operation of the driver P, for example, an ACC start instruction operation or the like. During lane keeping control, the driving support ECU 16 executes steering control or steering support control of the own vehicle so that the own vehicle does not deviate from the own lane LS unless there is an additional instruction operation by the driver P.

運転支援ECU16が車線維持制御を開始すると、表示制御装置20は、区画線コンテンツ表示制御を開始する。すると、表示制御装置20は、自車両の走行環境等に応じて、左側自車線コンテンツCLおよび/または右側自車線コンテンツCRを、自車線LSに重畳表示する。具体的には、例えば、表示制御装置20は、走行環境が視界不良環境である場合に、道路区画線DLの検知結果および/または高精度地図情報中の区画線情報に基づいて、左側自車線コンテンツCLおよび/または右側自車線コンテンツCRを表示する。なお、区画線コンテンツが路面RSに重畳表示されるのは、典型的には、視界不良により道路区画線DLを視認し難い場面である。例えば、路面RS上に積雪が生じた場合、道路区画線DLは路面RS上に堆積した雪に覆われて視認不能となる。あるいは、例えば、夜間で降雨量が多い場合、道路区画線DLは、水膜により覆われた状態となり、視認困難となり得る。しかしながら、区画線コンテンツの表示態様と道路区画線DLとの対応関係を説明するため、図2および図7においては、道路区画線DLが実線にて明確に示されている。したがって、図2および図7において、道路区画線DLが実線にて明確に示されていることは、実際の自車両の運転中に運転者Pが道路区画線DLを明確に視認可能であることを示すものではない。図9等においても同様である。 When the driving support ECU 16 starts the lane keeping control, the display control device 20 starts the lane marking content display control. Then, the display control device 20 superimposes and displays the left side own lane content CL and / or the right side own lane content CR on the own lane LS according to the traveling environment of the own vehicle and the like. Specifically, for example, when the traveling environment is a poor visibility environment, the display control device 20 has the left side own lane based on the detection result of the road lane marking DL and / or the lane marking information in the high-precision map information. Display the content CL and / or the right lane content CR. It should be noted that the lane marking content is superimposed and displayed on the road surface RS, typically in a scene where it is difficult to visually recognize the road lane marking DL due to poor visibility. For example, when snow accumulates on the road surface RS, the road marking line DL is covered with the snow accumulated on the road surface RS and becomes invisible. Alternatively, for example, when there is a large amount of rainfall at night, the road marking line DL may be covered with a water film, making it difficult to see. However, in order to explain the correspondence between the display mode of the lane marking content and the road lane marking DL, the road lane marking DL is clearly shown by a solid line in FIGS. 2 and 7. Therefore, in FIGS. 2 and 7, the fact that the road lane DL is clearly shown by the solid line means that the driver P can clearly see the road lane DL while actually driving the own vehicle. Does not indicate. The same applies to FIG. 9 and the like.

このとき、検知結果取得部211は、自車両の進行先の路面RSにおける道路区画線DLの検知結果を取得する。一方、区画線情報取得部214は、高精度地図情報に基づいて、自車両の進行先の路面RSに対応する区画線情報を取得する。具体的には、位置情報取得部212は、自車両の現在位置等を取得する。また、地図情報取得部213は、高精度地図DB143に格納された最新の高精度地図情報を取得する。そして、区画線情報取得部214は、最新の高精度地図情報と自車両の現在位置等とに基づいて、自車両の現在位置から所定範囲内の路面RS上の道路区画線DLの敷設状態を示す区画線情報を取得する。 At this time, the detection result acquisition unit 211 acquires the detection result of the road lane marking DL on the road surface RS to which the own vehicle is traveling. On the other hand, the lane marking information acquisition unit 214 acquires the lane marking information corresponding to the road surface RS of the destination of the own vehicle based on the high-precision map information. Specifically, the position information acquisition unit 212 acquires the current position and the like of the own vehicle. In addition, the map information acquisition unit 213 acquires the latest high-precision map information stored in the high-precision map DB 143. Then, the lane marking information acquisition unit 214 determines the laying state of the road lane marking DL on the road surface RS within a predetermined range from the current position of the own vehicle based on the latest high-precision map information and the current position of the own vehicle. Acquire the lane marking information to be shown.

さらに、精度決定部217は、検知結果取得部211により取得した検知結果と、区画線情報取得部214により取得した区画線情報とに基づいて、自車両の進行先の路面RSにおける道路区画線DLの認識精度を決定する。すなわち、精度決定部217は、精度決定部217は、周辺監視センサ13を用いた道路区画線DLの検知精度と、高精度地図情報中の道路区画線DLに対応する区画線情報の存在態様との組み合わせにより、認識精度を決定する。 Further, the accuracy determination unit 217 is based on the detection result acquired by the detection result acquisition unit 211 and the lane marking information acquired by the lane marking information acquisition unit 214, and the road lane marking DL on the road surface RS to which the own vehicle travels. Determine the recognition accuracy of. That is, the accuracy determination unit 217 describes the detection accuracy of the road lane marking DL using the peripheral monitoring sensor 13 and the existence mode of the lane marking information corresponding to the road lane marking DL in the high-precision map information. The recognition accuracy is determined by the combination of.

具体的には、例えば、道路区画線DLが検知できなかった場合、精度決定部217は、区画線情報取得部214により取得した区画線情報に基づいて認識精度を決定する。一方、区画線情報が取得できなかった場合、精度決定部217は、検知結果取得部211により取得した検知結果に基づいて認識精度を決定する。 Specifically, for example, when the road lane marking DL cannot be detected, the accuracy determination unit 217 determines the recognition accuracy based on the lane marking information acquired by the lane marking information acquisition unit 214. On the other hand, when the lane marking information cannot be acquired, the accuracy determination unit 217 determines the recognition accuracy based on the detection result acquired by the detection result acquisition unit 211.

例えば、道路区画線DLが検知でき且つ区画線情報が取得できた場合、精度決定部217は、認識精度を高レベルに決定する。一方、道路区画線DLが検知できなかった一方で区画線情報が取得できた場合、精度決定部217は、認識精度を高レベルと低レベルとの間の中レベルに決定する。 For example, when the road lane marking DL can be detected and the lane marking information can be acquired, the accuracy determination unit 217 determines the recognition accuracy to a high level. On the other hand, when the road lane marking DL cannot be detected and the lane marking information can be acquired, the accuracy determination unit 217 determines the recognition accuracy to a medium level between the high level and the low level.

図5のテーブルは、精度決定部217による認識精度の決定手法の一例を示す。図5中、「区画線検知精度」は、周辺監視センサ13を用いた道路区画線DLの検知精度である。「検知精度」は、「信頼度」とも称され得る。また、図5中、「地図」は、高精度地図情報中における区画線情報の有無である。「有」は、自車両の現在位置から進行先の所定範囲内にて、有効な区画線情報が存在することを指す。「有効な区画線情報」は、最終の情報更新日時が現在から所定期間(例えば3年)以内である区画線情報である。情報更新日時は、道路自体または道路区画線DLについての、形状、態様、規制情報等の変更による情報更新が、高精度地図情報中における一部にでも生じれば、高精度地図情報全体に対して更新されるものとする。「無」は、高精度地図情報中に区画線情報が存在しない場合の他に、区画線情報が長期間更新されていない場合を含む。 The table of FIG. 5 shows an example of a recognition accuracy determination method by the accuracy determination unit 217. In FIG. 5, the “lane marking accuracy” is the detection accuracy of the road marking line DL using the peripheral monitoring sensor 13. "Detection accuracy" can also be referred to as "reliability". Further, in FIG. 5, “map” indicates the presence / absence of lane marking information in the high-precision map information. “Yes” means that valid lane marking information exists within a predetermined range from the current position of the own vehicle to the destination. "Valid lane marking information" is lane marking information whose last information update date and time is within a predetermined period (for example, 3 years) from the present. The information update date and time is for the entire high-precision map information if the information update due to changes in the shape, mode, regulatory information, etc. of the road itself or the road lane marking DL occurs even in a part of the high-precision map information. It shall be updated. “None” includes the case where the lane marking information does not exist in the high-precision map information and the case where the lane marking information is not updated for a long period of time.

検知精度は、車両状態センサ11、外界状態センサ12、および周辺監視センサ13による検出結果に基づいて、決定あるいは算出可能である。例えば、降雨、降雪等の降水中は、検知精度が低くなる。また、フロントカメラ131の撮影条件が逆光である場合、検知精度が低くなる。さらに、路面RSにおける道路区画線DLの撮影画像中の、道路区画線DLとその周囲の路面RSとのコントラストが低いほど、検知精度が低くなる。このように、検知精度は、上記のような複数の要素を勘案した、計算式、テーブル、あるいはマップを用いて、決定あるいは算出可能である。なお、このような、道路区画線DLの検知精度の決定あるいは算出手法は、いわゆる白線認識の技術分野における信頼度の決定あるいは算出手法と同一であって、すでに公知あるいは周知の技術となっている。よって、道路区画線DLの検知精度の決定あるいは算出手法についてのこれ以上の詳細は、本明細書においては説明を省略する。必要に応じ、例えば、米国特許第10,127,460号明細書、独国特許出願公開第102015116268号明細書、米国特許出願公開第2019/0071080号明細書、等を参照のこと。 The detection accuracy can be determined or calculated based on the detection results of the vehicle state sensor 11, the external state sensor 12, and the peripheral monitoring sensor 13. For example, the detection accuracy is low during precipitation such as rainfall and snowfall. Further, when the shooting condition of the front camera 131 is backlight, the detection accuracy becomes low. Further, the lower the contrast between the road lane DL and the road surface RS around it in the captured image of the road lane DL on the road surface RS, the lower the detection accuracy. As described above, the detection accuracy can be determined or calculated by using a calculation formula, a table, or a map in consideration of a plurality of factors as described above. It should be noted that such a method for determining or calculating the detection accuracy of the road marking line DL is the same as the method for determining or calculating the reliability in the so-called white line recognition technical field, and is already known or well-known. .. Therefore, further details regarding the determination or calculation method of the detection accuracy of the road lane marking DL will be omitted in the present specification. If necessary, refer to, for example, US Pat. No. 10,127,460, German Patent Application Publication No. 102015116268, US Patent Application Publication No. 2019/0071080, and the like.

周辺監視センサ13を用いた道路区画線DLの検知は、自車両の運転中にリアルタイムで実行される。このため、道路区画線DLの検知精度が高レベルあるいは中レベルの精度である場合、自車両の進行先の路面RSに、検知結果に対応する道路区画線DLが実際に存在する可能性が高い。一方、高精度地図情報は、更新の有無あるいは更新タイミングによって、信頼性が左右される。 The detection of the road lane marking DL using the peripheral monitoring sensor 13 is executed in real time while the own vehicle is driving. Therefore, when the detection accuracy of the road lane marking DL is high level or medium level accuracy, there is a high possibility that the road lane marking DL corresponding to the detection result actually exists on the road surface RS to which the own vehicle travels. .. On the other hand, the reliability of high-precision map information depends on the presence or absence of update or the update timing.

このため、図5の例においては、道路区画線DLの検知精度が高レベルである場合、高精度地図情報中における区画線情報の存在状態いかんにかかわらず、精度決定部217は、認識精度を高レベルに決定する。一方、道路区画線DLの検知精度が低レベル、あるいは、道路区画線DLが検知できなかった場合、高精度地図情報中における区画線情報が「有」であれば、精度決定部217は、認識精度を中レベルに決定する。これに対し、高精度地図情報中における区画線情報が「無」であれば、精度決定部217は、認識精度を低レベルに決定する。 Therefore, in the example of FIG. 5, when the detection accuracy of the road lane marking DL is high, the accuracy determining unit 217 determines the recognition accuracy regardless of the existence state of the lane marking information in the high-precision map information. Decide on a high level. On the other hand, if the detection accuracy of the road lane marking DL is low, or if the road lane marking DL cannot be detected and the lane marking information in the high-precision map information is "Yes", the accuracy determination unit 217 recognizes it. Determine the accuracy to a medium level. On the other hand, if the lane marking information in the high-precision map information is "none", the accuracy determination unit 217 determines the recognition accuracy to a low level.

また、道路区画線DLの検知精度が中レベルであれば、精度決定部217は、高精度地図情報中における区画線情報が「無」であっても、認識精度を中レベルに決定する。また、道路区画線DLの検知精度が中レベルであっても、高精度地図情報中における区画線情報が「有」である場合、道路区画線DLの検知結果が高精度地図情報中における区画線情報により補強されることとなる。そこで、この場合、精度決定部217は、認識精度を高レベルに決定する。 Further, if the detection accuracy of the road lane marking DL is at a medium level, the accuracy determining unit 217 determines the recognition accuracy at a medium level even if the lane marking information in the high-precision map information is “absent”. Further, even if the detection accuracy of the road lane marking DL is at a medium level, if the lane marking information in the high-precision map information is "Yes", the detection result of the road lane marking DL is the lane marking in the high-precision map information. It will be reinforced by information. Therefore, in this case, the accuracy determination unit 217 determines the recognition accuracy to a high level.

そして、表示制御部218は、精度決定部217により決定した認識精度に応じた表示画像である精度コンテンツを、HUD装置192により路面RSに重畳表示する。具体的には、態様選択部219は、精度決定部217により決定した認識精度に応じて、左側自車線コンテンツCLおよび右側自車線コンテンツCRにおける複数の表示態様から1つを選択する。表示制御部218は、態様選択部219にて認識精度に応じて選択した表示態様で、左側自車線コンテンツCLおよび/または右側自車線コンテンツCRを路面RSに重畳表示する。 Then, the display control unit 218 superimposes and displays the accuracy content, which is a display image corresponding to the recognition accuracy determined by the accuracy determination unit 217, on the road surface RS by the HUD device 192. Specifically, the mode selection unit 219 selects one from a plurality of display modes in the left side lane content CL and the right side lane content CR according to the recognition accuracy determined by the accuracy determination unit 217. The display control unit 218 superimposes and displays the left side lane content CL and / or the right side lane content CR on the road surface RS in the display mode selected by the mode selection unit 219 according to the recognition accuracy.

図6のテーブルは、表示制御部218すなわち態様選択部219による、表示態様の選択手法の一例を示す。図6中、左上の「L」は、左側自車線コンテンツCLに対応する左側の道路区画線DLの認識精度を示す。同様に、左上の「R」は、右側自車線コンテンツCRに対応する右側の道路区画線DLの認識精度を示す。「高」「中」「低」は、それぞれ、図5に示された認識精度の決定結果に対応する。「CL1」は、左側自車線コンテンツCLが、高レベルに対応する広幅で表示されることを示す。「CR2」は、右側自車線コンテンツCRが、中レベルの精度に対応する狭幅で表示されることを示す。空欄は、左側自車線コンテンツCLおよび右側自車線コンテンツCRがともに非表示であることを示す。 The table of FIG. 6 shows an example of a display mode selection method by the display control unit 218, that is, the mode selection unit 219. In FIG. 6, “L” on the upper left indicates the recognition accuracy of the left road lane marking DL corresponding to the left own lane content CL. Similarly, the "R" on the upper left indicates the recognition accuracy of the road lane marking DL on the right side corresponding to the right side own lane content CR. “High”, “medium”, and “low” correspond to the determination result of the recognition accuracy shown in FIG. 5, respectively. “CL1” indicates that the left lane content CL is displayed in a wide width corresponding to a high level. "CR2" indicates that the right lane content CR is displayed in a narrow width corresponding to a medium level of accuracy. The blank indicates that both the left side lane content CL and the right side lane content CR are hidden.

図6に示されているように、左側の道路区画線DLの認識精度が高い場合、左側自車線コンテンツCLが広幅で表示される。左側の道路区画線DLの認識精度が中レベルである場合、左側自車線コンテンツCLが狭幅で表示される。左側の道路区画線DLの認識精度が低い場合、左側自車線コンテンツCLが非表示とされる。右側の道路区画線DLの認識精度が高い場合、右側自車線コンテンツCRが広幅で表示される。右側の道路区画線DLの認識精度が中レベルである場合、右側自車線コンテンツCRが狭幅で表示される。右側の道路区画線DLの認識精度が低い場合、右側自車線コンテンツCRが非表示とされる。 As shown in FIG. 6, when the recognition accuracy of the road marking line DL on the left side is high, the left side own lane content CL is displayed in a wide width. When the recognition accuracy of the road lane marking DL on the left side is medium level, the left side own lane content CL is displayed in a narrow width. If the recognition accuracy of the road lane marking DL on the left side is low, the left side own lane content CL is hidden. When the recognition accuracy of the road lane marking DL on the right side is high, the right side own lane content CR is displayed in a wide range. When the recognition accuracy of the road lane marking DL on the right side is medium level, the right side own lane content CR is displayed in a narrow width. If the recognition accuracy of the road lane marking DL on the right side is low, the right side own lane content CR is hidden.

よって、例えば、左側の道路区画線DLの認識精度が中レベルであり、且つ、右側の道路区画線DLの認識精度が高い場合、図6では「CL2+CR1」となる。この場合、図7に示されているように、左側自車線コンテンツCLが狭幅で表示されるとともに、右側自車線コンテンツCRが広幅で表示される。 Therefore, for example, when the recognition accuracy of the road lane marking DL on the left side is medium level and the recognition accuracy of the road lane marking DL on the right side is high, it is “CL2 + CR1” in FIG. In this case, as shown in FIG. 7, the left side own lane content CL is displayed in a narrow width, and the right side own lane content CR is displayed in a wide width.

以上に説明した表示制御動作の一具体例について、図8のフローチャートを用いて説明する。なお、図8のフローチャートにおいて、「ステップ」を単に「S」と略記する。区画線コンテンツ表示制御が開始されると、表示制御装置20は、所定の短い周期、例えば、100ms周期で、図8に示された区画線コンテンツ表示ルーチンを繰り返し実行する。かかる区画線コンテンツ表示ルーチンは、上記の表示制御プログラムに含まれる。 A specific example of the display control operation described above will be described with reference to the flowchart of FIG. In the flowchart of FIG. 8, "step" is simply abbreviated as "S". When the lane marking content display control is started, the display control device 20 repeatedly executes the lane marking content display routine shown in FIG. 8 in a predetermined short cycle, for example, a cycle of 100 ms. Such a lane marking content display routine is included in the above display control program.

かかるルーチンが起動されると、まず、ステップ801にて、処理部201は、自車両の進行先の路面RSにおける道路区画線DLの検知結果を取得する。また、ステップ802にて、処理部201は、現在の自車両の位置情報および方角情報を取得する。また、ステップ803にて、処理部201は、最新の高精度地図情報を取得する。また、ステップ804にて、処理部201は、自車両の進行先の路面RSにおける道路区画線DLの敷設状態に関する区画線情報を、現在の自車両の位置情報および方角情報と最新の高精度地図情報とに基づいて取得する。また、ステップ805にて、処理部201は、自車両の走行環境に関する環境情報を取得する。さらに、ステップ806にて、処理部201は、現在の視点EPの位置を取得する。 When such a routine is activated, first, in step 801 the processing unit 201 acquires the detection result of the road lane marking DL on the road surface RS to which the own vehicle travels. Further, in step 802, the processing unit 201 acquires the current position information and direction information of the own vehicle. Further, in step 803, the processing unit 201 acquires the latest high-precision map information. Further, in step 804, the processing unit 201 displays the lane marking information regarding the laying state of the road lane marking DL on the road surface RS to which the own vehicle travels, the current position information and direction information of the own vehicle, and the latest high-precision map. Get based on information. Further, in step 805, the processing unit 201 acquires environmental information regarding the traveling environment of the own vehicle. Further, in step 806, the processing unit 201 acquires the position of the current viewpoint EP.

ステップ801〜ステップ806にて各種情報を取得した後、処理部201は、ステップ807〜ステップ809の処理を順に実行する。ステップ807にて、処理部201は、ステップ801にて取得した道路区画線DLの検知結果と、ステップ805にて取得した環境情報とに基づいて、道路区画線DLの検知精度を決定あるいは算出する。また、処理部201は、決定あるいは算出した検知精度と、ステップ804にて取得した区画線情報とに基づいて、道路区画線DLの認識精度を決定する。ステップ808にて、処理部201は、ステップ807による認識精度の決定結果に基づいて、表示すべき自車線コンテンツとその表示態様とを選択する。 After acquiring various information in steps 801 to 806, the processing unit 201 executes the processes of steps 807 to 809 in order. In step 807, the processing unit 201 determines or calculates the detection accuracy of the road lane marking DL based on the detection result of the road lane marking DL acquired in step 801 and the environmental information acquired in step 805. .. Further, the processing unit 201 determines the recognition accuracy of the road lane marking DL based on the determined or calculated detection accuracy and the lane marking information acquired in step 804. In step 808, the processing unit 201 selects the own lane content to be displayed and the display mode thereof based on the determination result of the recognition accuracy in step 807.

ステップ809にて、処理部201は、表示条件が成立しているか否かを判定する。「表示条件」とは、自車線コンテンツを表示するための条件であり、例えば、自車両の現在の走行環境が視界不良環境であること等が含まれ得る。 In step 809, the processing unit 201 determines whether or not the display condition is satisfied. The "display condition" is a condition for displaying the content in the own lane, and may include, for example, that the current traveling environment of the own vehicle is a poor visibility environment.

表示条件成立の場合(すなわちステップ809=YES)、処理部201は、ステップ810の処理を実行した後、本ルーチンを一旦終了する。ステップ810にて、処理部201は、ステップ808にて選択された自車線コンテンツおよび表示態様を用いて、自車両の進行先の路面RSに区画線コンテンツを重畳表示する。表示条件成立の場合(すなわちステップ809=NO)、処理部201は、ステップ810の処理をスキップして、本ルーチンを一旦終了する。 When the display condition is satisfied (that is, step 809 = YES), the processing unit 201 temporarily terminates this routine after executing the processing of step 810. In step 810, the processing unit 201 superimposes and displays the lane marking content on the road surface RS to which the own vehicle travels, using the own lane content and the display mode selected in step 808. When the display condition is satisfied (that is, step 809 = NO), the processing unit 201 skips the processing of step 810 and temporarily ends this routine.

このように、本実施形態に係る表示制御装置20、ならびに、これにより実行される方法およびプログラムによれば、以下の通りの効果が奏される。すなわち、本実施形態によれば、道路区画線DLの検知結果と高精度地図情報からの区画線情報の取得結果とに基づいて、認識精度が決定される。そして、決定した認識精度に応じた表示画像である精度コンテンツが、HUD装置192により路面RSに重畳表示される。したがって、道路区画線DLに対応する区画線コンテンツを自車両の進行先の路面RSに重畳表示するに際し、当該コンテンツの表示状況と実際の道路区画線DLの敷設状況との一致度合を、運転者Pが容易に把握あるいは推認することが可能となる。 As described above, according to the display control device 20 according to the present embodiment, and the method and program executed by the display control device 20, the following effects are achieved. That is, according to the present embodiment, the recognition accuracy is determined based on the detection result of the road lane marking DL and the acquisition result of the lane marking information from the high-precision map information. Then, the accuracy content, which is a display image corresponding to the determined recognition accuracy, is superimposed and displayed on the road surface RS by the HUD device 192. Therefore, when superimposing the lane marking content corresponding to the road lane marking DL on the road surface RS of the vehicle's destination, the driver determines the degree of agreement between the display status of the content and the actual laying status of the road lane marking DL. It becomes possible for P to easily grasp or infer.

本実施形態によれば、精度コンテンツとして、自車線LSに運転者Pの注意を引くための区画線コンテンツである自車線コンテンツが用いられる。すなわち、精度コンテンツが、道路区画線DLに模した形状で、道路区画線DLの近傍位置にて路面RSに重畳表示される。また、認識精度に応じて、精度コンテンツである自車線コンテンツの表示態様が変更される。これにより、運転者Pによる道路状況把握の容易性を向上することが可能となる。 According to the present embodiment, as the accuracy content, the own lane content, which is the lane marking content for drawing the attention of the driver P to the own lane LS, is used. That is, the accuracy content is superimposed and displayed on the road surface RS at a position near the road marking line DL in a shape imitating the road marking line DL. Further, the display mode of the own lane content, which is the accuracy content, is changed according to the recognition accuracy. This makes it possible to improve the ease of grasping the road condition by the driver P.

本実施形態によれば、高精度地図情報から区画線情報が取得できなかった場合、道路区画線DLの検知結果に基づいて認識精度が決定される。一方、道路区画線DLが検知できなかった場合、高精度地図情報から取得した区画線情報に基づいて認識精度が決定される。さらに、道路区画線DLが検知できなかった一方で高精度地図情報から区画線情報が取得できた場合、認識精度が、高レベルと低レベルとの間の中レベルに決定される。これにより、精度コンテンツの表示状況と実際の道路区画線DLの敷設状況との一致度合を良好に確保することが可能となる。 According to the present embodiment, when the lane marking information cannot be obtained from the high-precision map information, the recognition accuracy is determined based on the detection result of the road lane marking DL. On the other hand, when the road lane marking DL cannot be detected, the recognition accuracy is determined based on the lane marking information acquired from the high-precision map information. Further, when the road lane marking DL cannot be detected while the lane marking information can be obtained from the high-precision map information, the recognition accuracy is determined to be a medium level between the high level and the low level. As a result, it is possible to ensure a good degree of agreement between the display status of the accurate content and the actual laying status of the road marking line DL.

(第二実施形態)
以下、第二実施形態について、図9を参照しつつ説明する。なお、以下の第二実施形態の説明においては、主として、上記第一実施形態と異なる部分について説明する。また、第一実施形態と第二実施形態とにおいて、互いに同一または均等である部分には、同一符号が付されている。したがって、以下の第二実施形態の説明において、第一実施形態と同一の符号を有する要素に関しては、技術的矛盾または特段の追加説明なき限り、上記第一実施形態における説明が適宜援用され得る。
(Second Embodiment)
Hereinafter, the second embodiment will be described with reference to FIG. In the following description of the second embodiment, the parts different from the first embodiment will be mainly described. Further, in the first embodiment and the second embodiment, the same or equal parts are designated by the same reference numerals. Therefore, in the following description of the second embodiment, the description in the first embodiment may be appropriately incorporated with respect to the elements having the same reference numerals as those in the first embodiment, unless there is a technical contradiction or a special additional description.

本実施形態に係る表示制御装置20の基本構成および基本動作は、図1〜図6および図8と同様である。本実施形態においては、上記第一実施形態とは、認識精度に応じた表示態様の変更方法が異なる。具体的には、本実施形態においては、表示制御部218すなわち態様選択部219は、自車線コンテンツの長さを、認識精度が高いほど長く設定するようになっている。 The basic configuration and basic operation of the display control device 20 according to the present embodiment are the same as those in FIGS. 1 to 6 and 8. In the present embodiment, the method of changing the display mode according to the recognition accuracy is different from that of the first embodiment. Specifically, in the present embodiment, the display control unit 218, that is, the mode selection unit 219 is designed to set the length of the own lane content longer as the recognition accuracy is higher.

図9は、図7と同様に、左側の道路区画線DLの認識精度が中レベルであり、且つ、右側の道路区画線DLの認識精度が高い場合の表示状態を示す。なお、図10以降についても同様である。 FIG. 9 shows a display state when the recognition accuracy of the road lane marking DL on the left side is medium level and the recognition accuracy of the road lane marking DL on the right side is high, as in FIG. 7. The same applies to FIGS. 10 and later.

この場合、図9に示されているように、右側自車線コンテンツCRは、投影範囲PAの上端および右端に達するように、長く表示される。これに対し、左側自車線コンテンツCLは、投影範囲PAの上端および下端に達しないように、短く表示される。本実施形態によっても、上記第一実施形態と同様の効果が奏され得る。 In this case, as shown in FIG. 9, the right lane content CR is displayed long so as to reach the upper and right ends of the projection range PA. On the other hand, the left side own lane content CL is displayed short so as not to reach the upper end and the lower end of the projection range PA. The same effect as that of the first embodiment can be obtained by this embodiment as well.

(第三実施形態)
以下、第三実施形態について、図9および図10を参照しつつ説明する。本実施形態は、上記第二実施形態における、認識精度に応じた表示態様の変更方法を、一部変容したものである。
(Third Embodiment)
Hereinafter, the third embodiment will be described with reference to FIGS. 9 and 10. This embodiment is a partial modification of the method of changing the display mode according to the recognition accuracy in the second embodiment.

図5に示されているように、道路区画線DLが低精度の検知あるいは不検知であり、且つ、高精度地図情報中における区画線情報が「有」であれば、認識精度が中レベルに決定される。一方、道路区画線DLの検知精度が中程度であり、且つ、高精度地図情報中における区画線情報が「無」である場合も、認識精度が中レベルに決定される。しかしながら、後者の場合、自車両の運転中にリアルタイムで且つ所定の精度で道路区画線DLが検知されているため、前者の場合よりも、道路区画線DLの認識の信頼性は、高くしてもよい。 As shown in FIG. 5, if the road lane marking DL is detected or not detected with low accuracy and the lane marking information in the high-precision map information is "Yes", the recognition accuracy is at a medium level. It is determined. On the other hand, when the detection accuracy of the road lane marking DL is medium and the lane marking information in the high-precision map information is "absent", the recognition accuracy is determined to be a medium level. However, in the latter case, since the road lane marking DL is detected in real time and with a predetermined accuracy while the own vehicle is driving, the recognition reliability of the road lane marking DL is higher than in the former case. May be good.

そこで、本実施形態においては、表示制御部218は、道路区画線DLが検知できなかった一方で高精度地図情報から区画線情報が取得できたことで中レベルの認識精度となった場合、コンテンツの重畳表示位置を幅員方向中央側にオフセットする。すると、例えば、左側の道路区画線DLについて、認識精度が中レベルである場合、図9および図10に示されているように、中レベルの認識精度に対応する短尺の左側自車線コンテンツCLが表示される。ここで、同じ中レベルの認識精度であっても、検知精度が中程度であり且つ高精度地図情報中における区画線情報が「無」である場合、図9に示されているように、短尺の左側自車線コンテンツCLが、左側の道路区画線DLの直近位置に表示される。これに対し、検知精度が低あるいは不検知であり且つ高精度地図情報中における区画線情報が「有」である場合、図10に示されているように、短尺の左側自車線コンテンツCLが、図9の場合よりも幅員方向中央側にオフセットされる。これにより、認識の信頼性がより低い自車線コンテンツが、自車線LSにてより幅員方向中央側に表示される。したがって、より確実な車線維持が可能となる。また、高精度地図情報の信頼性をHUD装置192により簡易に表示することで、運転者Pに高精度地図情報のメンテナンスの必要性を良好に報知することが可能となる。 Therefore, in the present embodiment, when the display control unit 218 cannot detect the road lane marking DL but can acquire the lane marking information from the high-precision map information, and the recognition accuracy reaches a medium level, the content The superimposed display position of is offset to the center side in the width direction. Then, for example, when the recognition accuracy of the left road lane DL is medium level, as shown in FIGS. 9 and 10, the short left side own lane content CL corresponding to the medium level recognition accuracy is displayed. Is displayed. Here, even if the recognition accuracy is the same medium level, if the detection accuracy is medium and the lane marking information in the high-precision map information is "none", as shown in FIG. 9, it is short. The left side own lane content CL is displayed at the nearest position of the left side road marking line DL. On the other hand, when the detection accuracy is low or not detected and the lane marking information in the high-precision map information is "Yes", as shown in FIG. 10, the short left side own lane content CL is displayed. It is offset toward the center in the width direction as compared with the case of FIG. As a result, the own lane content with lower recognition reliability is displayed in the own lane LS on the center side in the width direction. Therefore, it is possible to maintain a more reliable lane. Further, by simply displaying the reliability of the high-precision map information by the HUD device 192, it is possible to satisfactorily notify the driver P of the necessity of maintenance of the high-precision map information.

(第四実施形態)
以下、第四実施形態について、図11を参照しつつ説明する。本実施形態は、上記第一実施形態〜第三実施形態における、認識精度に応じた表示態様の変更方法を、一部変容したものである。
(Fourth Embodiment)
Hereinafter, the fourth embodiment will be described with reference to FIG. This embodiment is a partial modification of the method of changing the display mode according to the recognition accuracy in the first to third embodiments.

本実施形態においては、表示制御部218は、自車線コンテンツの幅員方向位置を、認識精度が低いほど中央側にオフセットするようになっている。これにより、認識の信頼性がより低い自車線コンテンツが、自車線LSにてより幅員方向中央側に表示される。本実施形態によっても、上記第一実施形態と同様の効果が奏され得る。 In the present embodiment, the display control unit 218 offsets the position of the own lane content in the width direction toward the center as the recognition accuracy decreases. As a result, the own lane content with lower recognition reliability is displayed in the own lane LS on the center side in the width direction. The same effect as that of the first embodiment can be obtained by this embodiment as well.

(第五実施形態)
以下、第五実施形態について、図12を参照しつつ説明する。本実施形態においても、上記第一実施形態等とは、認識精度に応じた表示態様の変更方法が異なる。
(Fifth Embodiment)
Hereinafter, the fifth embodiment will be described with reference to FIG. Also in this embodiment, the method of changing the display mode according to the recognition accuracy is different from that of the first embodiment and the like.

具体的には、本実施形態においては、表示制御部218は、自車線コンテンツを、実際の道路区画線DLの線種にかかわらず、点線状に表示するようになっている。また、表示制御部218は、点線におけるインターバルを、認識精度が高いほど短く設定するようになっている。本実施形態によっても、上記第一実施形態と同様の効果が奏され得る。 Specifically, in the present embodiment, the display control unit 218 displays the own lane content in a dotted line regardless of the line type of the actual road lane marking DL. Further, the display control unit 218 sets the interval on the dotted line to be shorter as the recognition accuracy is higher. The same effect as that of the first embodiment can be obtained by this embodiment as well.

(第六実施形態)
以下、第六実施形態について、図13を参照しつつ説明する。本実施形態においても、上記第一実施形態等とは、認識精度に応じた表示態様の変更方法が異なる。
(Sixth Embodiment)
Hereinafter, the sixth embodiment will be described with reference to FIG. Also in this embodiment, the method of changing the display mode according to the recognition accuracy is different from that of the first embodiment and the like.

本実施形態においては、左側自車線コンテンツCLおよび右側自車線コンテンツCRに代えて、中央自車線コンテンツCSが用いられる。具体的には、表示制御部218は、中央自車線コンテンツCSを、自車線LSの幅員方向における略中央位置に表示するようになっている。 In this embodiment, the central own lane content CS is used instead of the left own lane content CL and the right own lane content CR. Specifically, the display control unit 218 displays the central own lane content CS at a substantially central position in the width direction of the own lane LS.

また、表示制御部218は、自車線LSの左右の道路区画線DLの認識精度を総合した結果に応じて、中央自車線コンテンツCSの幅員方向における幅を設定するようになっている。具体的には、例えば、精度決定部217は、左右の道路区画線DLの認識精度のうちの低い方を、認識精度の決定結果として選択する。あるいは、例えば、精度決定部217は、左右の道路区画線DLの認識精度に対して平均等の統計演算処理を行った結果を、認識精度の決定結果として選択する。そして、表示制御部218は、中央自車線コンテンツCSの幅員方向における幅を、認識精度が高いほど広く設定する。本実施形態によっても、上記第一実施形態と同様の効果が奏され得る。 Further, the display control unit 218 sets the width of the central own lane content CS in the width direction according to the result of integrating the recognition accuracy of the left and right road marking lines DL of the own lane LS. Specifically, for example, the accuracy determination unit 217 selects the lower recognition accuracy of the left and right road lane marking DLs as the determination result of the recognition accuracy. Alternatively, for example, the accuracy determination unit 217 selects the result of performing statistical calculation processing such as averaging on the recognition accuracy of the left and right road marking lines DL as the determination result of the recognition accuracy. Then, the display control unit 218 sets the width of the central own lane content CS in the width direction to be wider as the recognition accuracy is higher. The same effect as that of the first embodiment can be obtained by this embodiment as well.

(第七実施形態)
以下、第七実施形態について、図14を参照しつつ説明する。本実施形態は、上記第一〜第五実施形態と上記第六実施形態とを組み合わせたものである。すなわち、表示制御部218は、精度コンテンツとしての左側自車線コンテンツCLおよび右側自車線コンテンツCRと、精度コンテンツとしての中央自車線コンテンツCSとを、併せて表示するようになっている。本実施形態によれば、自車線LSに対する運転者Pの注意喚起の度合いが、よりいっそう向上する。
(Seventh Embodiment)
Hereinafter, the seventh embodiment will be described with reference to FIG. The present embodiment is a combination of the first to fifth embodiments and the sixth embodiment. That is, the display control unit 218 displays the left side lane content CL and the right side lane content CR as the accuracy content and the center own lane content CS as the accuracy content together. According to the present embodiment, the degree of alerting of the driver P to the own lane LS is further improved.

(第八実施形態)
以下、第八実施形態について、図15Aおよび図15Bを参照しつつ説明する。図15Aは、図7と同様に、図2に示された投影範囲PAを拡大して示す。図15Bは、図2に示された車両情報ディスプレイ191Aを拡大して示す。
(Eighth embodiment)
Hereinafter, the eighth embodiment will be described with reference to FIGS. 15A and 15B. FIG. 15A shows an enlarged projection range PA shown in FIG. 2, similar to FIG. 7. FIG. 15B is an enlarged view of the vehicle information display 191A shown in FIG.

本実施形態においては、表示制御部218は、左側自車線コンテンツCLおよび右側自車線コンテンツCRを、対応する道路区画線DLの認識精度に応じて異なる色および/または輝度で表示するようになっている。 In the present embodiment, the display control unit 218 displays the left side lane content CL and the right side lane content CR in different colors and / or brightness according to the recognition accuracy of the corresponding road lane marking DL. There is.

ところで、上記の各実施形態においては、精度決定部217は、認識精度を、道路区画線DLの延在方向における投影範囲PA内に含まれる部分の全体について決定していた。しかしながら、一般的に、自車両に近い位置の方が、自車両から遠い位置よりも、周辺監視センサ13を用いた道路区画線DLの検知精度が高くなり得る。かかる傾向は、視界不良環境において強まる可能性がある。 By the way, in each of the above-described embodiments, the accuracy determination unit 217 determines the recognition accuracy for the entire portion included in the projection range PA in the extending direction of the road marking line DL. However, in general, the detection accuracy of the road marking line DL using the peripheral monitoring sensor 13 can be higher at a position closer to the own vehicle than at a position farther from the own vehicle. This tendency can be exacerbated in poor visibility environments.

そこで、本実施形態においては、精度決定部217は、道路区画線DLの延在方向における複数の領域毎に、認識精度を決定可能に設けられている。具体的には、例えば、精度決定部217は、投影範囲PAにおける下側の近位側領域とその余の遠位側領域とのそれぞれにおいて、認識精度を決定するようになっている。 Therefore, in the present embodiment, the accuracy determination unit 217 is provided so as to be able to determine the recognition accuracy for each of a plurality of regions in the extending direction of the road marking line DL. Specifically, for example, the accuracy determination unit 217 determines the recognition accuracy in each of the lower proximal region and the other distal region in the projection range PA.

また、表示制御部218は、図15Aに示されているように、精度コンテンツを兼ねる左側自車線コンテンツCLおよび右側自車線コンテンツCRを、近位部CT1と遠位部CT2とで、それぞれ異なる認識精度に応じた異なる表示態様で表示可能になっている。近位部CT1は、投影範囲PA内の道路区画線DLの延在方向における近位側、すなわち、上記の近位側領域に対応する、自車線コンテンツの一部分である。遠位部CT2は、投影範囲PA内の道路区画線DLの延在方向における遠位側、すなわち、上記の遠位側領域に対応する、自車線コンテンツの一部分である。なお、図15Aの表示は、以下の場合を想定したものである。左側の道路区画線DLにおける、近位側領域の認識精度は、高レベルである。左側の道路区画線DLにおける、遠位側領域の認識精度は、中レベルである。右側の道路区画線DLにおける、近位側領域および遠位側領域の認識精度は、ともに高レベルである。 Further, as shown in FIG. 15A, the display control unit 218 recognizes the left side lane content CL and the right side lane content CR, which also serve as accuracy content, differently between the proximal CT1 and the distal CT2. It is possible to display in different display modes according to the accuracy. The proximal CT1 is a part of the own lane content corresponding to the proximal side in the extending direction of the road marking line DL in the projection range PA, that is, the above-mentioned proximal side region. The distal CT2 is a portion of the own lane content that corresponds to the distal side in the extending direction of the road lane DL within the projection range PA, i.e., the distal region. The display in FIG. 15A assumes the following cases. The recognition accuracy of the proximal region on the left road lane DL is high. The recognition accuracy of the distal region on the left road lane DL is medium level. The recognition accuracy of the proximal region and the distal region in the right road marking line DL is both high level.

一方、表示制御部218は、図15Bに示されているように、車両情報ディスプレイ191Aに、自車両アイコンW1、左区画線アイコンW2、および右区画線アイコンW3を表示するように構成されている。自車両アイコンW1は、自車両を示す表示コンテンツであり、車両情報ディスプレイ191A内の下部領域にて左右方向における中央位置に配置されている。 On the other hand, as shown in FIG. 15B, the display control unit 218 is configured to display the own vehicle icon W1, the left lane marking icon W2, and the right lane marking icon W3 on the vehicle information display 191A. .. The own vehicle icon W1 is display content indicating the own vehicle, and is arranged at a central position in the left-right direction in the lower region in the vehicle information display 191A.

左区画線アイコンW2は、左側の道路区画線DLの認識状態を示す帯状の表示コンテンツであり、自車両アイコンW1の左側にて右斜め上方に延びるように配置されている。右区画線アイコンW3は、右側の道路区画線DLの認識状態を示す帯状の表示コンテンツであり、自車両アイコンW1の右側にて左斜め上方に延びるように配置されている。左区画線アイコンW2および右区画線アイコンW3は、対応する道路区画線DLの認識精度に応じて異なる色および/または輝度で表示されるようになっている。また、左区画線アイコンW2および右区画線アイコンW3は、対応する道路区画線DLが認識できなかった場合に、非表示とされるようになっている。 The left lane marking icon W2 is a strip-shaped display content indicating the recognition state of the road lane marking DL on the left side, and is arranged so as to extend diagonally upward to the right on the left side of the own vehicle icon W1. The right lane marking icon W3 is a strip-shaped display content indicating the recognition state of the road lane marking DL on the right side, and is arranged so as to extend diagonally upward to the left on the right side of the own vehicle icon W1. The left lane marking icon W2 and the right lane marking icon W3 are displayed in different colors and / or brightness depending on the recognition accuracy of the corresponding road lane marking DL. Further, the left lane marking icon W2 and the right lane marking icon W3 are hidden when the corresponding road lane marking DL cannot be recognized.

表示制御部218は、運転者Pの入力操作部18による操作により、左区画線アイコンW2および右区画線アイコンW3の表示を、近位部表示と平均表示との間で切り替えるようになっている。「近位部表示」は、道路区画線DLにおける、近位側領域の認識精度に対応する表示である。「平均表示」は、道路区画線DLにおける、近位側領域の認識精度と遠位側領域の認識精度との統計演算結果すなわち平均値に対応する表示である。 The display control unit 218 switches the display of the left division line icon W2 and the right division line icon W3 between the proximal display and the average display by the operation by the input operation unit 18 of the driver P. .. The "proximal portion display" is a display corresponding to the recognition accuracy of the proximal side region in the road marking line DL. The "average display" is a display corresponding to the statistical calculation result, that is, the average value of the recognition accuracy of the proximal side region and the recognition accuracy of the distal side region in the road marking line DL.

本実施形態によれば、運転者Pの注視時間が異なる車両情報ディスプレイ191AとHUD装置192とのそれぞれにて、注視時間に応じた適切な情報表示を行うことが可能となる。具体的には、前方の路面RSに重畳表示を行うHUD装置192による表示領域である投影範囲PAは、運転者Pの注視時間が長い。そこで、表示制御部218は、HUD装置192にて、左側自車線コンテンツCLおよび右側自車線コンテンツCRにおける近位部CT1と遠位部CT2とを、それぞれ、認識精度に応じた表示態様で表示させる。これにより、運転者Pに、道路区画線DLの認識状態を詳細に示すことが可能となる。一方、メータパネル191内の車両情報ディスプレイ191Aは、運転者Pの注視時間が比較的短い。そこで、表示制御部218は、車両情報ディスプレイ191Aにて、左区画線アイコンW2および右区画線アイコンW3を、近位側領域の認識精度、または、近位側領域の認識精度と遠位側領域の認識精度との統計演算結果に応じた表示態様で表示させる。これにより、運転者Pに、道路区画線DLの認識状態の概略を簡易に示すことが可能となる。 According to the present embodiment, it is possible to display appropriate information according to the gaze time on each of the vehicle information display 191A and the HUD device 192, which have different gaze times of the driver P. Specifically, the projection range PA, which is the display area of the HUD device 192 that superimposes and displays on the road surface RS in front, has a long gaze time of the driver P. Therefore, the display control unit 218 causes the HUD device 192 to display the proximal portion CT1 and the distal portion CT2 in the left side own lane content CL and the right side own lane content CR in display modes according to the recognition accuracy, respectively. .. This makes it possible to show the driver P the recognition state of the road lane marking DL in detail. On the other hand, the vehicle information display 191A in the meter panel 191 has a relatively short gaze time of the driver P. Therefore, the display control unit 218 displays the left lane marking icon W2 and the right lane marking icon W3 on the vehicle information display 191A with the recognition accuracy of the proximal side region or the recognition accuracy of the proximal side region and the distal side region. It is displayed in a display mode according to the statistical calculation result with the recognition accuracy of. This makes it possible to easily show the driver P the outline of the recognition state of the road lane marking DL.

(第九実施形態)
以下、第九実施形態について、図16を参照しつつ説明する。本実施形態は、上記第八実施形態における、認識精度に応じた表示態様の変更方法を、一部変容したものである。
(Ninth Embodiment)
Hereinafter, the ninth embodiment will be described with reference to FIG. This embodiment is a partial modification of the method of changing the display mode according to the recognition accuracy in the eighth embodiment.

本実施形態においては、精度決定部217は、道路区画線DLの延在方向における認識精度の分布を取得可能に設けられている。また、表示制御部218は、精度コンテンツを兼ねる左側自車線コンテンツCLおよび右側自車線コンテンツCRを、近位部CT1と遠位部CT2と中間部CT3で、それぞれ異なる認識精度に応じた異なる表示態様で表示可能になっている。中間部CT3は、道路区画線DLの延在方向、すなわち、自車線コンテンツの延在方向について、近位部CT1と遠位部CT2との間に配置されるようになっている。 In the present embodiment, the accuracy determination unit 217 is provided so as to be able to acquire the distribution of the recognition accuracy in the extending direction of the road marking line DL. Further, the display control unit 218 displays the left side lane content CL and the right side lane content CR, which also serve as accuracy content, in different display modes according to different recognition accuracy in the proximal CT1, the distal CT2, and the intermediate CT3. It can be displayed with. The intermediate portion CT3 is arranged between the proximal portion CT1 and the distal portion CT2 in the extending direction of the road marking line DL, that is, the extending direction of the own lane content.

なお、近位部CT1と遠位部CT2との間の、中間部CT3の配置個数は、図16に示されているような1個に限定されない。すなわち、近位部CT1と遠位部CT2との間に、中間部CT3が2個以上配置されるようになっていてもよい。 The number of intermediate CT3s arranged between the proximal CT1 and the distal CT2 is not limited to one as shown in FIG. That is, two or more intermediate CT3s may be arranged between the proximal CT1 and the distal CT2.

(第十実施形態)
以下、第十実施形態について、図17を参照しつつ説明する。
(10th Embodiment)
Hereinafter, the tenth embodiment will be described with reference to FIG.

上記の各実施形態においては、左側自車線コンテンツCLおよび右側自車線コンテンツCRは、精度コンテンツを兼ねるものとして用いられていた。これに対し、本実施形態においては、表示制御部218は、精度コンテンツCPを、左側自車線コンテンツCLおよび右側自車線コンテンツCRとは別の重畳コンテンツとして表示するようになっている。 In each of the above embodiments, the left side own lane content CL and the right side own lane content CR are used as serving as accuracy content. On the other hand, in the present embodiment, the display control unit 218 displays the accuracy content CP as superimposed content different from the left side own lane content CL and the right side own lane content CR.

精度コンテンツCPの表示例としては、上記の各実施形態が適用可能である。図17は、第五実施形態が適用された場合を示す。本実施形態においては、精度コンテンツCPは、自車線コンテンツよりも自車線LSの幅員方向中央側にて、自車線コンテンツに隣接するように表示されるようになっている。なお、道路区画線DLと、自車線コンテンツと、精度コンテンツCPとの、幅員方向における位置関係は、図17に示された具体例から適宜変更可能である。 As a display example of the accuracy content CP, each of the above embodiments can be applied. FIG. 17 shows a case where the fifth embodiment is applied. In the present embodiment, the accuracy content CP is displayed so as to be adjacent to the own lane content on the center side in the width direction of the own lane LS with respect to the own lane content. The positional relationship between the road marking line DL, the own lane content, and the accuracy content CP in the width direction can be appropriately changed from the specific example shown in FIG.

(変形例)
本発明は、上記各実施形態に限定されるものではない。故に、上記各実施形態に対しては、適宜変更が可能である。以下、代表的な変形例について説明する。以下の変形例の説明においては、上記各実施形態との相違点を主として説明する。また、上記各実施形態と変形例とにおいて、相互に同一または均等である部分には、同一符号が付されている。したがって、以下の変形例の説明において、上記各実施形態と同一の符号を有する構成要素に関しては、技術的矛盾または特段の追加説明なき限り、上記各実施形態における説明が適宜援用され得る。
(Modification example)
The present invention is not limited to each of the above embodiments. Therefore, it is possible to make appropriate changes to each of the above embodiments. A typical modification will be described below. In the following description of the modification, the differences from the above embodiments will be mainly described. Further, in each of the above-described embodiments and modifications, the same or equal parts are designated by the same reference numerals. Therefore, in the following description of the modified examples, the description in each of the above embodiments may be appropriately incorporated for the components having the same reference numerals as those of the above embodiments, unless there is a technical contradiction or a special additional explanation.

本発明は、上記各実施形態にて示された具体的な装置構成に、何ら限定されるものではない。すなわち、例えば、車両1は、四輪自動車に限定されない。具体的には、車両1は、三輪自動車であってもよいし、貨物トラック等の六輪または八輪自動車でもよい。車両1の種類は、内燃機関のみを備えた自動車であってもよいし、内燃機関を備えない電気自動車または燃料電池車であってもよいし、いわゆるハイブリッド自動車であってもよい。車体2の形状および構造も、箱状すなわち平面視における略矩形状に限定されない。車両1の用途、ステアリングホイール7の位置、乗員数、等についても、特段の限定はない。 The present invention is not limited to the specific device configuration shown in each of the above embodiments. That is, for example, the vehicle 1 is not limited to a four-wheeled vehicle. Specifically, the vehicle 1 may be a three-wheeled vehicle, or a six-wheeled or eight-wheeled vehicle such as a freight truck. The type of vehicle 1 may be an automobile having only an internal combustion engine, an electric vehicle or a fuel cell vehicle not having an internal combustion engine, or a so-called hybrid vehicle. The shape and structure of the vehicle body 2 are also not limited to a box shape, that is, a substantially rectangular shape in a plan view. There are no particular restrictions on the use of the vehicle 1, the position of the steering wheel 7, the number of occupants, and the like.

車載システム10を構成する通信規格としては、CAN(国際登録商標)以外のもの、例えば、FlexRay(国際登録商標)等も採用され得る。また、車載システム10を構成する通信規格は、一種類に限定されない。例えば、車載システム10は、LIN等の通信規格に準拠したサブネットワーク回線を有していてもよい。LINはLocal Interconnect Networkの略である。 As the communication standard constituting the in-vehicle system 10, a communication standard other than CAN (international registered trademark), for example, FlexRay (internationally registered trademark) or the like can be adopted. Further, the communication standard constituting the in-vehicle system 10 is not limited to one type. For example, the in-vehicle system 10 may have a sub-network line conforming to a communication standard such as LIN. LIN is an abbreviation for Local Interconnect Network.

車両状態センサ11、外界状態センサ12、および周辺監視センサ13についても、上記の例示に限定されない。例えば、周辺監視センサ13は、ソナーすなわち超音波センサを含んだ構成であってもよい。 The vehicle state sensor 11, the external state sensor 12, and the peripheral monitoring sensor 13 are not limited to the above examples. For example, the peripheral monitoring sensor 13 may be configured to include a sonar, that is, an ultrasonic sensor.

ロケータ14についても、上記の例示に限定されない。例えば、ロケータ14は、ジャイロセンサおよび加速度センサを内蔵した構成ではなくてもよい。具体的には、慣性取得部142は、車両状態センサ11としてロケータ14の外部に設けられた角速度センサおよび加速度センサからの出力信号を受信するようになっていてもよい。 The locator 14 is also not limited to the above example. For example, the locator 14 does not have to have a configuration incorporating a gyro sensor and an acceleration sensor. Specifically, the inertia acquisition unit 142 may be adapted to receive output signals from the angular velocity sensor and the acceleration sensor provided outside the locator 14 as the vehicle state sensor 11.

DCM15は、省略され得る。 DCM15 may be omitted.

運転支援ECU16に代えて、あるいはこれとともに、自動運転ECUが設けられていてもよい。かかる自動運転ECUは、米国自動車技術会の規定する自動運転レベルにおける、レベル3以上の自動走行制御を可能にするように構成されている。 An automatic operation ECU may be provided in place of or in combination with the operation support ECU 16. Such an automatic driving ECU is configured to enable automatic driving control of level 3 or higher at the automatic driving level specified by the American Society of Automotive Engineers of Japan.

DSM17は、車載通信回線10Aを介して、表示制御装置20に接続されていてもよい。 The DSM 17 may be connected to the display control device 20 via the vehicle-mounted communication line 10A.

入力操作部18は、車載通信回線10Aを介して、表示制御装置20に接続されていてもよい。 The input operation unit 18 may be connected to the display control device 20 via the vehicle-mounted communication line 10A.

表示装置19の構成および配置についても、上記の具体例に限定されない。すなわち、例えば、メータパネル191は、タコメータ、スピードメータ、水温計、等における、ベゼル、指針、目盛、等を画像表示するように構成されていてもよい。この場合、メータパネル191は、車両情報ディスプレイ191Aと同視され得る。 The configuration and arrangement of the display device 19 are not limited to the above specific examples. That is, for example, the meter panel 191 may be configured to display an image of a bezel, a pointer, a scale, etc. in a tachometer, a speedometer, a water temperature gauge, or the like. In this case, the meter panel 191 can be equated with the vehicle information display 191A.

HUD装置192、特に、プロジェクタ192A等の具体的な構造についても、特段の限定はない。すなわち、HUD装置192は、車両1のフロントウィンドシールド4越しに視認される路面RSに表示画像を重畳表示可能な構成であれば、いかなる構造のものでも、車載不可能等の技術的な矛盾がない限り、採用可能である。また、HUD装置192による重畳表示可能な視野範囲である投影範囲PAの大きさについても、特段の限定はない。すなわち、例えば、HUD装置192は、フロントウィンドシールド4におけるほぼ全面にて前景との重畳表示が可能な、いわゆるウィンドシールドディスプレイ装置であってもよい。 There are no particular restrictions on the specific structure of the HUD device 192, particularly the projector 192A or the like. That is, as long as the HUD device 192 has a configuration in which a display image can be superimposed and displayed on the road surface RS visually recognized through the front windshield 4 of the vehicle 1, any structure has technical contradictions such as in-vehicle impossibility. Unless otherwise, it can be adopted. Further, there is no particular limitation on the size of the projection range PA, which is the visual field range that can be superimposed and displayed by the HUD device 192. That is, for example, the HUD device 192 may be a so-called windshield display device capable of superimposing and displaying the foreground on almost the entire surface of the front windshield 4.

上記各実施形態において、表示制御装置20は、CPU等を備えていた。しかしながら、本発明は、かかる構成に限定されない。すなわち、例えば、表示制御装置20は、GPUを備えていてもよい。GPUはGraphics Processing Unitの略である。あるいは、表示制御装置20は、上記のような動作を可能に構成されたデジタル回路、例えばASICあるいはFPGAを備えた構成であってもよい。ASICはApplication Specific Integrated Circuitの略である。FPGAはField Programmable Gate Arrayの略である。CPUとASIC等とは併存し得る。 In each of the above embodiments, the display control device 20 includes a CPU and the like. However, the present invention is not limited to such a configuration. That is, for example, the display control device 20 may include a GPU. GPU is an abbreviation for Graphics Processing Unit. Alternatively, the display control device 20 may be configured to include a digital circuit configured to enable the above-mentioned operation, for example, an ASIC or an FPGA. ASIC is an abbreviation for Application Specific Integrated Circuit. FPGA is an abbreviation for Field Programmable Gate Array. The CPU and the ASIC can coexist.

本発明に係るプログラムは、DCM15等のV2X通信手段を介して、ダウンロードあるいはアップグレードされ得る。V2XはVehicle to Xの略である。あるいは、本発明に係るプログラムは、車両1の製造工場、整備工場、販売店、等に設けられた端末装置を介して、ダウンロードあるいはアップグレードされ得る。かかるプログラムの格納先は、メモリーカード、光学ディスク、磁気ディスク、等であってもよい。 The program according to the present invention can be downloaded or upgraded via a V2X communication means such as DCM15. V2X is an abbreviation for Vehicle to X. Alternatively, the program according to the present invention may be downloaded or upgraded via a terminal device provided in a manufacturing factory, a maintenance shop, a dealer, etc. of the vehicle 1. The storage destination of such a program may be a memory card, an optical disk, a magnetic disk, or the like.

このように、上記の各機能構成および方法は、コンピュータプログラムにより具体化された一つあるいは複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、上記の各機能構成および方法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、上記の各機能構成および方法は、一つあるいは複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移的実体的記憶媒体に記憶されていてもよい。すなわち、上記の各機能構成および方法は、これを実現するための手順を含むコンピュータプログラム、あるいは、当該プログラムを記憶した非遷移的実体的記憶媒体としても表現可能である。 Thus, each of the above functional configurations and methods is achieved by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. May be done. Alternatively, each of the above functional configurations and methods may be implemented by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits. Alternatively, each of the above functional configurations and methods comprises a combination of a processor and memory programmed to perform one or more functions and a processor composed of one or more hardware logic circuits. It may be realized by one or more dedicated computers. In addition, the computer program may be stored in a computer-readable non-transitional substantive storage medium as an instruction executed by the computer. That is, each of the above functional configurations and methods can be expressed as a computer program including a procedure for realizing the above, or as a non-transitional substantive storage medium that stores the program.

本発明は、上記各実施形態にて示された具体的な機能構成および動作例に限定されない。例えば、区画線情報取得部214による区画線情報の取得に際し、プローブ地図が用いられ得る。 The present invention is not limited to the specific functional configuration and operation example shown in each of the above embodiments. For example, a probe map can be used when the lane marking information acquisition unit 214 acquires the lane marking information.

上記各実施形態において、視点位置取得部216は、DSM−ECU173による視点EPの三次元位置の算出結果を、DSM−ECU173から車載通信回線10Aを介して取得した。すなわち、HUD装置192による表示を実行する際の視点EPを取得するために、運転者Pの状態を検知して注意喚起あるいは警告を行うためのDSM17に設けられた車内カメラ171等の構成が流用されていた。しかしながら、本発明は、かかる態様に限定されない。 In each of the above embodiments, the viewpoint position acquisition unit 216 acquires the calculation result of the three-dimensional position of the viewpoint EP by the DSM-ECU 173 from the DSM-ECU 173 via the vehicle-mounted communication line 10A. That is, in order to acquire the viewpoint EP when the display by the HUD device 192 is executed, the configuration of the in-vehicle camera 171 or the like provided in the DSM 17 for detecting the state of the driver P and calling attention or warning is diverted. It had been. However, the present invention is not limited to such embodiments.

具体的には、例えば、車載システム10にDSM17が設けられない場合があり得る。この場合、HUD装置192用の運転席撮影カメラが車室3内に設けられ得る。また、この場合、視点EPの位置算出は、表示制御装置20における視点位置取得部216にて実行され得る。 Specifically, for example, the in-vehicle system 10 may not be provided with the DSM 17. In this case, a driver's seat photographing camera for the HUD device 192 may be provided in the vehicle interior 3. Further, in this case, the position calculation of the viewpoint EP can be executed by the viewpoint position acquisition unit 216 in the display control device 20.

上記各実施形態において、自車両の進行先の路面RSにおける道路区画線DLの検知精度は、精度決定部217が決定あるいは算出した。しかしながら、本発明は、かかる態様に限定されない。すなわち、例えば、検知精度の決定あるいは算出は、周辺監視センサ13が実行してもよいし、運転支援ECU16が実行してもよいし、検知結果取得部211が実行してもよい。この場合、検知精度は、「検知結果」として、ステップ801にて取得される。 In each of the above embodiments, the accuracy of detecting the road lane marking DL on the road surface RS to which the own vehicle is traveling is determined or calculated by the accuracy determination unit 217. However, the present invention is not limited to such embodiments. That is, for example, the determination or calculation of the detection accuracy may be executed by the peripheral monitoring sensor 13, the driving support ECU 16, or the detection result acquisition unit 211. In this case, the detection accuracy is acquired in step 801 as the "detection result".

精度決定部217による認識精度決定手法についても、上記の具体例に限定されない。すなわち、例えば、図5のテーブルは、N行M列に形成され得る。N,Mは、それぞれ、2以上の自然数である。また、図6のテーブルは、M行M列に形成され得る。 The recognition accuracy determination method by the accuracy determination unit 217 is not limited to the above specific example. That is, for example, the table of FIG. 5 can be formed in N rows and M columns. N and M are natural numbers of 2 or more, respectively. Further, the table of FIG. 6 can be formed in M rows and M columns.

例えば、図5のテーブルの内容は、適宜変更され得る。図18は、一変形例を示す。このとき、図6のテーブルも、図18のテーブルに適合するように、適宜変更され得る。また、図6における「高」「中」「低」に代えて、適宜の数値範囲が用いられ得る。かかる数値範囲は、M個設けられ得る。 For example, the contents of the table in FIG. 5 can be changed as appropriate. FIG. 18 shows a modified example. At this time, the table of FIG. 6 can also be appropriately modified to fit the table of FIG. Further, an appropriate numerical range can be used instead of "high", "medium", and "low" in FIG. There may be M such numerical ranges.

図18中、「地図」は、高精度地図情報中における区画線情報の精度である。「高」は、自車両の現在位置から進行先の所定範囲内にて、高精度の区画線情報が存在することを指す。「高精度の区画線情報」は、最終の情報更新日時が現在から所定の短期間(例えば1年)内である区画線情報である。「中」は、自車両の現在位置から進行先の所定範囲内にて、中程度の精度の区画線情報が存在することを指す。「中程度の精度の区画線情報」は、最終の情報更新日時が現在から所定の中程度の期間(例えば1〜5年)内である区画線情報である。「低」は、自車両の現在位置から進行先の所定範囲内にて、低精度の区画線情報が存在することを指す。「低精度の区画線情報」は、最終の情報更新が現在から所定の長期間(例えば5年以上)実行されていない区画線情報である。 In FIG. 18, “map” is the accuracy of the lane marking information in the high-precision map information. "High" means that highly accurate lane marking information exists within a predetermined range from the current position of the own vehicle to the destination. "High-precision lane marking information" is lane marking information whose last information update date and time is within a predetermined short period (for example, one year) from the present. "Medium" means that the lane marking information with moderate accuracy exists within a predetermined range from the current position of the own vehicle to the destination. "Medium-precision lane marking information" is lane marking information in which the last information update date and time is within a predetermined medium period (for example, 1 to 5 years) from the present. "Low" means that low-precision lane marking information exists within a predetermined range from the current position of the own vehicle to the destination. "Low-precision lane marking information" is lane marking information for which the final information update has not been executed for a predetermined long period of time (for example, 5 years or more) from the present.

図6のテーブルを用いた動作例においては、認識精度に応じたコンテンツ幅は、広幅と狭幅との2種類であった。しかしながら、本発明は、かかる態様に限定されない。具体的には、認識精度に応じたコンテンツ幅は、3種類以上であってもよい。長さ、色、輝度等の、他種類の表示態様についても同様である。 In the operation example using the table of FIG. 6, the content width according to the recognition accuracy was two types, wide width and narrow width. However, the present invention is not limited to such embodiments. Specifically, the content width according to the recognition accuracy may be three or more types. The same applies to other types of display modes such as length, color, and brightness.

上記の具体的動作例において、表示制御部218は、ACC制御中あるいは車線維持制御中に区画線コンテンツを表示するようになっていた。しかしながら、本発明は、かかる態様に限定されない。具体的には、例えば、表示制御部218は、視界不良環境である場合に、ACC制御あるいは車線維持制御が実行されていなくても、区画線コンテンツを表示してもよい。 In the above specific operation example, the display control unit 218 is designed to display the lane marking content during the ACC control or the lane keeping control. However, the present invention is not limited to such embodiments. Specifically, for example, the display control unit 218 may display the lane marking content even if the ACC control or the lane keeping control is not executed in the poor visibility environment.

精度コンテンツを兼ねるか否かにかかわらず、左側自車線コンテンツCLおよび/または右側自車線コンテンツCRは、その一部分または全体が、対応する道路区画線DLと重なって視認されるように表示されてもよい。すなわち、左側自車線コンテンツCLおよび/または右側自車線コンテンツCRは、幅員方向について、対応する道路区画線DLと略同一位置にて路面RS上に重畳表示されてもよい。あるいは、左側自車線コンテンツCLは、他車線LX側にて路面RS上に重畳表示されてもよい。精度コンテンツCPについても同様である。 Regardless of whether or not it also serves as accuracy content, the left side lane content CL and / or the right side lane content CR may be displayed so that a part or the whole thereof is visually recognized so as to overlap with the corresponding road lane marking DL. Good. That is, the left side own lane content CL and / or the right side own lane content CR may be superimposed and displayed on the road surface RS at substantially the same position as the corresponding road lane marking DL in the width direction. Alternatively, the left side own lane content CL may be superimposed and displayed on the road surface RS on the LX side of the other lane. The same applies to the accuracy content CP.

左側自車線コンテンツCLおよび右側自車線コンテンツCRは、対応する実際の道路区画線DLと同一の線種で表示されてもよい。これにより、区画線コンテンツが、実際の車線変更シーンに適合した状態で表示される。したがって、車線変更時における運転者Pによる道路状況把握の容易性が、よりいっそう向上する。 The left side lane content CL and the right side lane content CR may be displayed in the same line type as the corresponding actual road lane marking DL. As a result, the lane marking content is displayed in a state that matches the actual lane change scene. Therefore, the ease of grasping the road condition by the driver P when changing lanes is further improved.

図8のフローチャートも、適宜変更され得る。例えば、ステップ801の処理の前に、ステップ809の処理が実行されてもよい。また、ステップ807にて、処理部201は、ステップ805にて取得した環境情報を用いずに、道路区画線DLの認識精度を決定してもよい。 The flowchart of FIG. 8 can also be changed as appropriate. For example, the process of step 809 may be executed before the process of step 801. Further, in step 807, the processing unit 201 may determine the recognition accuracy of the road lane marking DL without using the environmental information acquired in step 805.

上記第十実施形態において、区画線コンテンツとは別に路面RSに重畳表示される精度コンテンツCPは、区画線コンテンツと同様に、道路区画線DLに模した形状を有していた。しかしながら、本発明は、かかる態様に限定されない。すなわち、例えば、精度コンテンツCPは、区画線コンテンツと重複する位置または区画線コンテンツの近傍位置にて路面RSに重畳表示される、アイコン状の重畳コンテンツであってもよい。 In the tenth embodiment, the accuracy content CP superimposed and displayed on the road surface RS separately from the lane marking content has a shape imitating the road lane marking DL, similarly to the lane marking content. However, the present invention is not limited to such embodiments. That is, for example, the accuracy content CP may be icon-shaped superimposed content that is superimposed and displayed on the road surface RS at a position that overlaps with the lane marking content or a position near the lane marking content.

ARは、最広義には、実景に電子情報を重ね合わせて表示することを含む。このため、重畳コンテンツも非重畳コンテンツも、実景と併せて視認される限度において、最広義のARコンテンツあるいはAR表示物に含まれる。しかしながら、ARコンテンツについて、重畳コンテンツを含む一方で非重畳コンテンツは含まない、狭義の解釈も可能である。この場合、非重畳コンテンツは、非ARコンテンツあるいは非AR表示物と云い得る。 In the broadest sense, AR includes displaying electronic information superimposed on a real scene. Therefore, both the superposed content and the non-superimposed content are included in the AR content or the AR display object in the broadest sense as long as they can be visually recognized together with the actual scene. However, it is possible to interpret AR content in a narrow sense, including superimposed content but not non-superimposed content. In this case, the non-superimposed content can be said to be non-AR content or non-AR display object.

「取得」「算出」「推定」「検出」「検知」「決定」等の類似の表現とは、技術的に矛盾しない範囲内において、相互に適宜置換可能である。「検出」と「抽出」とも、技術的に矛盾しない範囲内において、適宜置換可能である。 Similar expressions such as "acquisition", "calculation", "estimation", "detection", "detection", and "determination" can be appropriately replaced with each other within a technically consistent range. Both "detection" and "extraction" can be appropriately replaced within a technically consistent range.

上記各実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、構成要素の個数、数値、量、範囲等の数値が言及されている場合、特に必須であると明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に本発明が限定されることはない。同様に、構成要素等の形状、方向、位置関係等が言及されている場合、特に必須であると明示した場合および原理的に特定の形状、方向、位置関係等に限定される場合等を除き、その形状、方向、位置関係等に本発明が限定されることはない。 It goes without saying that the elements constituting each of the above embodiments are not necessarily essential except when it is clearly stated that they are essential and when they are clearly considered to be essential in principle. In addition, when numerical values such as the number, numerical value, quantity, and range of components are mentioned, unless it is clearly stated that they are indispensable, or when the number is clearly limited in principle, the specification is specified. The present invention is not limited to the number of. Similarly, except when the shape, direction, positional relationship, etc. of the constituent elements are mentioned, when it is clearly stated that it is particularly essential, or when it is limited to a specific shape, direction, positional relationship, etc. in principle. The present invention is not limited to the shape, direction, positional relationship, and the like.

変形例も、上記の例示に限定されない。また、複数の変形例が、互いに組み合わされ得る。さらに、上記各実施形態の全部または一部と、変形例の全部または一部とが、互いに組み合わされ得る。 Modifications are also not limited to the above examples. Also, a plurality of variants can be combined with each other. Further, all or part of each of the above embodiments and all or part of the modifications may be combined with each other.

(まとめ)
上記の各実施形態および変形例によって示された本開示は、方法およびプログラムに関する以下の各観点を含む。なお、下記の各観点は、技術的に矛盾しない限り、互いに組み合わせて適用可能である。
(Summary)
The disclosure presented by each of the above embodiments and variations includes the following aspects of the method and program: The following viewpoints can be applied in combination with each other as long as there is no technical contradiction.

第一の観点によれば、車両(1)のフロントウィンドシールド(4)越しに視認される前景に表示画像を重畳表示するヘッドアップディスプレイ装置(192)における前記表示画像の表示を制御する、表示制御方法は、
前記車両の進行先の路面(RS)における道路区画線の検知結果を取得する処理と、
前記道路区画線の敷設状態に関する区画線情報を含む地図情報と、前記車両の現在位置とに基づいて、前記路面に対応する前記区画線情報を取得する処理と、
取得した前記検知結果と前記区画線情報とに基づいて、前記路面における前記道路区画線の認識精度を決定する処理と、
決定した前記認識精度に応じた前記表示画像である精度コンテンツ(CL、CR、CS)を前記路面に重畳表示する処理と、
を含む。
また、第一の観点によれば、車両(1)のフロントウィンドシールド(4)越しに視認される前景に表示画像を重畳表示するヘッドアップディスプレイ装置(192)における前記表示画像の表示を制御するように構成された表示制御装置(20)により実行される表示制御プログラムは、前記表示制御装置により実行される処理として、
前記車両の進行先の路面(RS)における道路区画線の検知結果を取得する処理と、
前記道路区画線の敷設状態に関する区画線情報を含む地図情報と、前記車両の現在位置とに基づいて、前記路面に対応する前記区画線情報を取得する処理と、
取得した前記検知結果と前記区画線情報とに基づいて、前記路面における前記道路区画線の認識精度を決定する処理と、
決定した前記認識精度に応じた前記表示画像である精度コンテンツ(CL、CR、CS)を前記路面に重畳表示する処理と、
を含む。
According to the first aspect, the display that controls the display of the display image in the head-up display device (192) that superimposes and displays the display image on the foreground that is visually recognized through the front windshield (4) of the vehicle (1). The control method is
The process of acquiring the detection result of the road lane marking on the road surface (RS) where the vehicle is traveling, and
A process of acquiring the lane marking information corresponding to the road surface based on the map information including the lane marking information regarding the laying state of the road lane marking and the current position of the vehicle.
A process of determining the recognition accuracy of the road lane marking on the road surface based on the acquired detection result and the lane marking information.
A process of superimposing and displaying accuracy content (CL, CR, CS), which is the display image according to the determined recognition accuracy, on the road surface.
including.
Further, according to the first viewpoint, the display of the display image in the head-up display device (192) that superimposes and displays the display image on the foreground that is visually recognized through the front windshield (4) of the vehicle (1) is controlled. The display control program executed by the display control device (20) configured as described above is a process executed by the display control device.
The process of acquiring the detection result of the road lane marking on the road surface (RS) where the vehicle is traveling, and
A process of acquiring the lane marking information corresponding to the road surface based on the map information including the lane marking information regarding the laying state of the road lane marking and the current position of the vehicle.
A process of determining the recognition accuracy of the road lane marking on the road surface based on the acquired detection result and the lane marking information.
A process of superimposing and displaying accuracy content (CL, CR, CS), which is the display image according to the determined recognition accuracy, on the road surface.
including.

第二の観点によれば、前記区画線情報が取得できなかった場合、前記認識精度を決定する処理は、取得した前記検知結果に基づいて前記認識精度を決定する。 According to the second aspect, when the division line information cannot be acquired, the process of determining the recognition accuracy determines the recognition accuracy based on the acquired detection result.

第三の観点によれば、前記道路区画線が検知できなかった場合、前記認識精度を決定する処理は、取得した前記区画線情報に基づいて前記認識精度を決定する。 According to the third aspect, when the road lane marking cannot be detected, the process of determining the recognition accuracy determines the recognition accuracy based on the acquired lane marking information.

第四の観点によれば、前記道路区画線が検知できなかった一方で前記区画線情報が取得できた場合、前記認識精度を決定する処理は、前記認識精度を高レベルと低レベルとの間の中レベルに決定する。 According to the fourth aspect, when the road lane marking cannot be detected but the lane marking information can be acquired, the process of determining the recognition accuracy is such that the recognition accuracy is between a high level and a low level. Decide on a medium level.

第五の観点によれば、前記路面に重畳表示する処理は、前記精度決定部により決定した前記認識精度に応じて、前記精度コンテンツの表示態様を変更する。 According to the fifth aspect, the process of superimposing and displaying on the road surface changes the display mode of the accuracy content according to the recognition accuracy determined by the accuracy determination unit.

第六の観点によれば、前記路面に重畳表示する処理は、前記精度コンテンツを、前記道路区画線に模した形状で、前記道路区画線またはその近傍位置にて前記路面に重畳表示する。 According to the sixth aspect, in the process of superimposing and displaying on the road surface, the accuracy content is superposed on the road surface at the road marking line or a position in the vicinity thereof in a shape imitating the road marking line.

第七の観点によれば、前記路面に重畳表示する処理は、決定した前記認識精度に応じて、前記精度コンテンツの表示態様を変更する。 According to the seventh aspect, the process of superimposing and displaying on the road surface changes the display mode of the accuracy content according to the determined recognition accuracy.

第八の観点によれば、前記路面に重畳表示する処理は、前記道路区画線が検知できなかった一方で前記区画線情報が取得できた場合、前記精度コンテンツの前記路面における重畳表示位置を、幅員方向中央側にオフセットする。 According to the eighth viewpoint, in the process of superimposing and displaying on the road surface, when the lane marking information can be acquired while the road lane marking cannot be detected, the superimposing display position of the accuracy content on the road surface is displayed. Offset to the center side in the width direction.

第九の観点によれば、前記路面に重畳表示する処理は、
前記精度コンテンツを、前記道路区画線の延在方向における近位側に対応する近位部(CT1)と遠位側に対応する遠位部(CT2)とで、それぞれ異なる前記認識精度に応じた異なる前記表示態様で表示可能であり、
前記近位部に対応する前記認識精度、または、前記近位部に対応する前記認識精度と前記遠位部に対応する前記認識精度との演算結果に応じた表示コンテンツ(W2、W3)を、前記ヘッドアップディスプレイ装置とは異なる表示デバイス(191A)に表示する。
According to the ninth viewpoint, the process of superimposing and displaying on the road surface is
The accuracy content was applied to the recognition accuracy different between the proximal portion (CT1) corresponding to the proximal side and the distal portion (CT2) corresponding to the distal side in the extending direction of the road marking line. It can be displayed in a different display mode,
Display contents (W2, W3) according to the calculation result of the recognition accuracy corresponding to the proximal portion or the recognition accuracy corresponding to the proximal portion and the recognition accuracy corresponding to the distal portion. The display is performed on a display device (191A) different from the head-up display device.

1 車両
4 フロントウィンドシールド
192 ヘッドアップディスプレイ装置
20 表示制御装置
211 検知結果取得部
214 区画線情報取得部
215 精度決定部
219 表示制御部
CL 左側自車線コンテンツ(精度コンテンツ)
CR 右側自車線コンテンツ(精度コンテンツ)
1 Vehicle 4 Front windshield 192 Head-up display device 20 Display control device 211 Detection result acquisition unit 214 Section line information acquisition unit 215 Accuracy determination unit 219 Display control unit CL Left side own lane content (accuracy content)
CR Right lane content (precision content)

Claims (11)

車両(1)のフロントウィンドシールド(4)越しに視認される前景に表示画像を重畳表示するヘッドアップディスプレイ装置(192)における前記表示画像の表示を制御するように構成された、表示制御装置(20)であって、
前記車両の進行先の路面(RS)における道路区画線の検知結果を取得する検知結果取得部(211)と、
前記道路区画線の敷設状態に関する区画線情報を含む地図情報と、前記車両の現在位置とに基づいて、前記路面に対応する前記区画線情報を取得する区画線情報取得部(214)と、
前記検知結果取得部により取得した前記検知結果と、前記区画線情報取得部により取得した前記区画線情報とに基づいて、前記路面における前記道路区画線の認識精度を決定する精度決定部(215)と、
前記精度決定部により決定した前記認識精度に応じた前記表示画像である精度コンテンツ(CL、CR、CS、CP)を前記路面に重畳表示する表示制御部(219)と、
を備えた表示制御装置。
A display control device (display control device) configured to control the display of the display image in the head-up display device (192) that superimposes and displays the display image on the foreground that is visually recognized through the front windshield (4) of the vehicle (1). 20) And
The detection result acquisition unit (211) for acquiring the detection result of the road lane marking on the road surface (RS) where the vehicle is traveling, and
A lane marking information acquisition unit (214) that acquires the lane marking information corresponding to the road surface based on map information including lane marking information regarding the laying state of the road lane marking and the current position of the vehicle.
An accuracy determination unit (215) that determines the recognition accuracy of the road lane marking on the road surface based on the detection result acquired by the detection result acquisition unit and the lane marking information acquired by the lane marking information acquisition unit. When,
A display control unit (219) that superimposes and displays accuracy content (CL, CR, CS, CP), which is the display image according to the recognition accuracy determined by the accuracy determination unit, on the road surface.
Display control device equipped with.
前記区画線情報が取得できなかった場合、前記精度決定部は、前記検知結果取得部により取得した前記検知結果に基づいて前記認識精度を決定する、
請求項1に記載の表示制御装置。
When the division line information cannot be acquired, the accuracy determination unit determines the recognition accuracy based on the detection result acquired by the detection result acquisition unit.
The display control device according to claim 1.
前記道路区画線が検知できなかった場合、前記精度決定部は、前記区画線情報取得部により取得した前記区画線情報に基づいて前記認識精度を決定する、
請求項1または2に記載の表示制御装置。
When the road lane marking cannot be detected, the accuracy determination unit determines the recognition accuracy based on the lane marking information acquired by the lane marking information acquisition unit.
The display control device according to claim 1 or 2.
前記道路区画線が検知できなかった一方で前記区画線情報が取得できた場合、前記精度決定部は、前記認識精度を高レベルと低レベルとの間の中レベルに決定する、
請求項3に記載の表示制御装置。
If the road lane marking cannot be detected while the lane marking information can be obtained, the accuracy determination unit determines the recognition accuracy to a medium level between a high level and a low level.
The display control device according to claim 3.
前記表示制御部は、前記精度決定部により決定した前記認識精度に応じて、前記精度コンテンツの表示態様を変更する、
請求項1〜4のいずれか1つに記載の表示制御装置。
The display control unit changes the display mode of the accuracy content according to the recognition accuracy determined by the accuracy determination unit.
The display control device according to any one of claims 1 to 4.
前記表示制御部は、前記精度コンテンツを、前記道路区画線に模した形状で、前記道路区画線またはその近傍位置にて前記路面に重畳表示する、
請求項1〜4のいずれか1つに記載の表示制御装置。
The display control unit superimposes and displays the accuracy content on the road surface at the road marking line or a position in the vicinity thereof in a shape imitating the road marking line.
The display control device according to any one of claims 1 to 4.
前記表示制御部は、前記精度決定部により決定した前記認識精度に応じて、前記精度コンテンツの表示態様を変更する、
請求項6に記載の表示制御装置。
The display control unit changes the display mode of the accuracy content according to the recognition accuracy determined by the accuracy determination unit.
The display control device according to claim 6.
前記表示制御部は、前記道路区画線が検知できなかった一方で前記区画線情報が取得できた場合、前記精度コンテンツの前記路面における重畳表示位置を、幅員方向中央側にオフセットする、
請求項7に記載の表示制御装置。
When the road marking line cannot be detected but the marking line information can be acquired, the display control unit offsets the superimposed display position of the accuracy content on the road surface toward the center side in the width direction.
The display control device according to claim 7.
前記表示制御部は、
前記精度コンテンツを、前記道路区画線の延在方向における近位側に対応する近位部(CT1)と遠位側に対応する遠位部(CT2)とで、それぞれ異なる前記認識精度に応じた異なる前記表示態様で表示可能であり、
前記近位部に対応する前記認識精度、または、前記近位部に対応する前記認識精度と前記遠位部に対応する前記認識精度との演算結果に応じた表示コンテンツ(W2、W3)を、前記ヘッドアップディスプレイ装置とは異なる表示デバイス(191A)に表示する、
請求項7または8に記載の表示制御装置。
The display control unit
The accuracy content was applied to the recognition accuracy different between the proximal portion (CT1) corresponding to the proximal side and the distal portion (CT2) corresponding to the distal side in the extending direction of the road marking line. It can be displayed in a different display mode,
Display contents (W2, W3) according to the calculation result of the recognition accuracy corresponding to the proximal portion or the recognition accuracy corresponding to the proximal portion and the recognition accuracy corresponding to the distal portion. Display on a display device (191A) different from the head-up display device.
The display control device according to claim 7 or 8.
車両(1)のフロントウィンドシールド(4)越しに視認される前景に表示画像を重畳表示するヘッドアップディスプレイ装置(192)における前記表示画像の表示を制御する、表示制御方法であって、
前記車両の進行先の路面(RS)における道路区画線の検知結果を取得する処理と、
前記道路区画線の敷設状態に関する区画線情報を含む地図情報と、前記車両の現在位置とに基づいて、前記路面に対応する前記区画線情報を取得する処理と、
取得した前記検知結果と前記区画線情報とに基づいて、前記路面における前記道路区画線の認識精度を決定する処理と、
決定した前記認識精度に応じた前記表示画像である精度コンテンツ(CL、CR、CS)を前記路面に重畳表示する処理と、
を含む表示制御方法。
A display control method for controlling the display of the display image in the head-up display device (192) that superimposes and displays the display image on the foreground that is visually recognized through the front windshield (4) of the vehicle (1).
The process of acquiring the detection result of the road lane marking on the road surface (RS) where the vehicle is traveling, and
A process of acquiring the lane marking information corresponding to the road surface based on the map information including the lane marking information regarding the laying state of the road lane marking and the current position of the vehicle.
A process of determining the recognition accuracy of the road lane marking on the road surface based on the acquired detection result and the lane marking information.
A process of superimposing and displaying accuracy content (CL, CR, CS), which is the display image according to the determined recognition accuracy, on the road surface.
Display control method including.
車両(1)のフロントウィンドシールド(4)越しに視認される前景に表示画像を重畳表示するヘッドアップディスプレイ装置(192)における前記表示画像の表示を制御するように構成された表示制御装置(20)により実行される、表示制御プログラムであって、
前記表示制御装置により実行される処理は、
前記車両の進行先の路面(RS)における道路区画線の検知結果を取得する処理と、
前記道路区画線の敷設状態に関する区画線情報を含む地図情報と、前記車両の現在位置とに基づいて、前記路面に対応する前記区画線情報を取得する処理と、
取得した前記検知結果と前記区画線情報とに基づいて、前記路面における前記道路区画線の認識精度を決定する処理と、
決定した前記認識精度に応じた前記表示画像である精度コンテンツ(CL、CR、CS)を前記路面に重畳表示する処理と、
を含む表示制御プログラム。
A display control device (20) configured to control the display of the display image in the head-up display device (192) that superimposes and displays the display image on the foreground that is visually recognized through the front windshield (4) of the vehicle (1). ) Is a display control program executed by
The process executed by the display control device is
The process of acquiring the detection result of the road lane marking on the road surface (RS) where the vehicle is traveling, and
A process of acquiring the lane marking information corresponding to the road surface based on the map information including the lane marking information regarding the laying state of the road lane marking and the current position of the vehicle.
A process of determining the recognition accuracy of the road lane marking on the road surface based on the acquired detection result and the lane marking information.
A process of superimposing and displaying accuracy content (CL, CR, CS), which is the display image according to the determined recognition accuracy, on the road surface.
Display control program including.
JP2019146525A 2019-08-08 2019-08-08 Display control apparatus, display control method, and display control program Pending JP2021026693A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019146525A JP2021026693A (en) 2019-08-08 2019-08-08 Display control apparatus, display control method, and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019146525A JP2021026693A (en) 2019-08-08 2019-08-08 Display control apparatus, display control method, and display control program

Publications (1)

Publication Number Publication Date
JP2021026693A true JP2021026693A (en) 2021-02-22

Family

ID=74662366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019146525A Pending JP2021026693A (en) 2019-08-08 2019-08-08 Display control apparatus, display control method, and display control program

Country Status (1)

Country Link
JP (1) JP2021026693A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022129695A (en) * 2021-02-25 2022-09-06 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
WO2023149281A1 (en) * 2022-02-01 2023-08-10 キヤノン株式会社 Control system, control method and storage medium
WO2023149370A1 (en) * 2022-02-01 2023-08-10 キヤノン株式会社 Control system, control method, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110627A (en) * 2014-12-01 2016-06-20 株式会社デンソー Image processing apparatus
JP2018045273A (en) * 2016-09-12 2018-03-22 本田技研工業株式会社 Display
JP2019046363A (en) * 2017-09-06 2019-03-22 株式会社デンソー Drive support device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110627A (en) * 2014-12-01 2016-06-20 株式会社デンソー Image processing apparatus
JP2018045273A (en) * 2016-09-12 2018-03-22 本田技研工業株式会社 Display
JP2019046363A (en) * 2017-09-06 2019-03-22 株式会社デンソー Drive support device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022129695A (en) * 2021-02-25 2022-09-06 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
JP7256216B2 (en) 2021-02-25 2023-04-11 本田技研工業株式会社 VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
WO2023149281A1 (en) * 2022-02-01 2023-08-10 キヤノン株式会社 Control system, control method and storage medium
WO2023149370A1 (en) * 2022-02-01 2023-08-10 キヤノン株式会社 Control system, control method, and storage medium

Similar Documents

Publication Publication Date Title
JP7052786B2 (en) Display control device and display control program
US20220289228A1 (en) Hmi control device, hmi control method, and hmi control program product
US11996018B2 (en) Display control device and display control program product
US10235976B2 (en) Vehicle display device for changing the position of displayed traffic indicators based on the road having left or right side traffic
US11200806B2 (en) Display device, display control method, and storage medium
US11710429B2 (en) Display control device and non-transitory computer readable storage medium for display control by head-up display
US10872586B2 (en) Display control device for vehicle and display unit for vehicle
US12013254B2 (en) Control device
JP2021026693A (en) Display control apparatus, display control method, and display control program
US20230286509A1 (en) Hmi control apparatus and driving control apparatus
JP7243516B2 (en) Display controller and display control program
CN109835258A (en) It is indicated based on communication without illumination vehicle
WO2021020033A1 (en) Display control device, display control method, and display control program
US20220379727A1 (en) Hmi control device and non-transitory computer readable storage medium
JP7416114B2 (en) Display control device and display control program
JP2021039007A (en) Display control device, display control method, and display control program
JP6996542B2 (en) Vehicle display control device and vehicle display unit
CN115210099A (en) Information processing device, vehicle, and information processing method
JP2021091394A (en) Hmi control device, hmi control method and hmi control program
JP7115443B2 (en) Viewpoint Position Determination Device, Viewpoint Position Determination Method, and Viewpoint Position Determination Program
CN116625401B (en) Map display method, map display device, vehicle-mounted device, vehicle and storage medium
JP7014206B2 (en) Display control device and display control program
WO2021075402A1 (en) Display control device
JP2023109519A (en) Display control device and display control program
JP2022082418A (en) Hmi controller and operation controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230530