JP2023109519A - Display control device and display control program - Google Patents

Display control device and display control program Download PDF

Info

Publication number
JP2023109519A
JP2023109519A JP2022011073A JP2022011073A JP2023109519A JP 2023109519 A JP2023109519 A JP 2023109519A JP 2022011073 A JP2022011073 A JP 2022011073A JP 2022011073 A JP2022011073 A JP 2022011073A JP 2023109519 A JP2023109519 A JP 2023109519A
Authority
JP
Japan
Prior art keywords
display
reliability
information
vehicle
recognition result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022011073A
Other languages
Japanese (ja)
Inventor
和寿 石丸
Kazuhisa Ishimaru
猛 羽藤
Takeshi Hado
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2022011073A priority Critical patent/JP2023109519A/en
Publication of JP2023109519A publication Critical patent/JP2023109519A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a technology that enables superimposed display with fewer displacements or senses of discomfort in a display control device and a display control program for controlling display operation in a display device that, by being mounted to a host vehicle, superimposedly displays a display image in the foreground of the host vehicle.SOLUTION: A recognition result acquisition unit (121) acquires recognition result information that corresponds to the image recognition result of a target based on the foreground image captured by an image capturing device (13). A reliability calculation unit (125) calculates the reliability of recognition result information on the basis of feature quantity information that represents intermediate information in a process in which recognition result information is acquired or the recognition result information. A display state setup unit (126) sets, on the basis of the reliability calculated by the reliability calculation unit, a display state that represents the status of a display image being displayed or not, or the visibility of the display image.SELECTED DRAWING: Figure 2

Description

本発明は、自車両に搭載されることで当該自車両の前景に表示画像を重畳表示する表示装置における表示動作を制御する、表示制御装置および表示制御プログラムに関する。 The present invention relates to a display control device and a display control program that control display operations in a display device that is mounted on a vehicle and displays a display image superimposed on the foreground of the vehicle.

特許文献1に記載の運転アシストシステムは、車両のウインドシールド上に所定画像情報を重畳表示するものであって、車両位置情報の確からしさに応じて、画像情報における案内方向を示す矢印の長さを変更することを特徴とする。かかる運転アシストシステムは、車両位置情報の確からしさが低い場合には、矢尻部が短い矢印による案内表示を行うことで、運転者に無用な混乱をきたすことがないようにしている。 The driving assistance system described in Patent Document 1 superimposes predetermined image information on the windshield of the vehicle, and the length of the arrow indicating the guidance direction in the image information is determined according to the likelihood of the vehicle position information. is characterized by changing Such a driving assist system prevents the driver from being unnecessarily confused by displaying guidance using an arrow with a short arrowhead when the certainty of the vehicle position information is low.

特開2011-203053号公報JP 2011-203053 A

特許文献1にも記載の通り、従来、いわゆるヘッドアップディスプレイを用いて経路案内等の各種表示を行う技術が知られている。さらに、近年、この種の表示技術において、ADASに用いられる画像処理技術を用いて白線等の物標を認識し、車両の姿勢や対象物標までの位置情報を活用し、ドライバが視認しているシーンに認知や判断等の助けとなる表示を位置ずれなく情報提示するという要望がある。ADASはAdvanced Driver Assistance Systemの略である。 As described in Japanese Unexamined Patent Application Publication No. 2002-100002, conventionally, a technique for performing various displays such as route guidance using a so-called head-up display is known. Furthermore, in recent years, in this type of display technology, target objects such as white lines are recognized using image processing technology used for ADAS, and the position information of the vehicle posture and target target is used to enable the driver to visually recognize the target. There is a demand for presenting information without positional deviation in the scene where the user is present, such as a display that assists recognition, judgment, or the like. ADAS stands for Advanced Driver Assistance System.

ここで、例えば、画像認識技術において、白線が掠れて判別しづらい状況等の悪条件下では、認識による位置検出精度が悪化する。また、普及帯の車載ナビゲーションの位置精度では、案内する前後左右位置が10m程度ずれる場合もあり得る。具体的には、かかる位置ずれは、例えば、高層ビルやトンネル、立体駐車場等の影響で、GPS等の衛星からの測位信号を受信できなかったり受信しづらかったりする状況において発生する。また、かかる位置ずれは、例えば、地図情報から実際の道路形状が変わっており地図とマップマッチングするときにずれて自車位置推定しまうことにより発生する。 Here, for example, in image recognition technology, the accuracy of position detection by recognition deteriorates under bad conditions such as a situation in which white lines are blurred and difficult to distinguish. Also, with the positional accuracy of in-vehicle navigation in the widespread range, there is a possibility that the front, rear, left, and right positions to be guided may deviate by about 10 m. Specifically, such positional deviation occurs in situations where positioning signals from satellites such as GPS cannot be received or are difficult to receive, for example, due to the influence of high-rise buildings, tunnels, multi-story parking lots, and the like. Further, such a positional deviation occurs, for example, when the actual road shape is changed from the map information and the position of the vehicle is estimated by deviation when performing map matching with the map.

本発明は、上記に例示した事情等に鑑みてなされたものである。すなわち、本発明は、例えば、ずれや違和感がより少ない重畳表示を可能とする技術を提供する。 The present invention has been made in view of the circumstances exemplified above. That is, the present invention provides, for example, a technology that enables superimposed display with less misalignment and discomfort.

請求項1に記載の表示制御装置(12)は、自車両(1)に搭載されることで当該自車両の前景に表示画像(IM)を重畳表示する表示装置(11)における表示動作を制御するように構成されている。
この表示制御装置は、
画像撮像装置(13)による前記前景の撮像画像に基づく物標の画像認識結果に対応する認識結果情報を取得する、認識結果取得部(121)と
前記認識結果情報の信頼度を、当該認識結果情報が取得される過程の中間情報または当該認識結果情報である、特徴量情報に基づいて算出する、信頼度算出部(125)と、
前記信頼度算出部により算出された前記信頼度に基づいて、前記表示画像における表示状態を設定する、表示状態設定部(126)と、
を備えている。
請求項9に記載の表示制御プログラムは、前記表示制御装置により実行されるプログラムであって、
前記表示制御装置によって実行される処理は、
画像撮像装置(13)による前記前景の撮像画像に基づく物標の画像認識結果に対応する認識結果情報を取得する、認識結果取得処理と、
前記認識結果情報の信頼度を、当該認識結果情報が取得される過程の中間情報または当該認識結果情報である、特徴量情報に基づいて算出する、信頼度算出処理と、
前記信頼度算出処理により算出された前記信頼度に基づいて、前記表示画像における表示状態を設定する、表示状態設定処理と、
を含む。
A display control device (12) according to claim 1 controls the display operation of a display device (11) that superimposes and displays a display image (IM) on the foreground of a vehicle (1) by being mounted on the vehicle (1). is configured to
This display control device
a recognition result acquisition unit (121) for acquiring recognition result information corresponding to a target image recognition result based on the foreground captured image by an imaging device (13); a reliability calculation unit (125) that calculates based on feature amount information, which is intermediate information in the process of acquiring information or the recognition result information;
a display state setting unit (126) for setting a display state in the display image based on the reliability calculated by the reliability calculation unit;
It has
The display control program according to claim 9 is a program executed by the display control device,
The processing executed by the display control device includes:
a recognition result acquisition process for acquiring recognition result information corresponding to a target image recognition result based on the foreground captured image by the imaging device (13);
Reliability calculation processing for calculating the reliability of the recognition result information based on feature amount information, which is intermediate information in the process of acquiring the recognition result information or the recognition result information;
display state setting processing for setting a display state in the display image based on the reliability calculated by the reliability calculation processing;
including.

なお、出願書類において、各要素に括弧付きの参照符号が付される場合がある。しかしながら、この場合であっても、かかる参照符号は、各要素と後述する実施形態に記載の具体的手段との対応関係の単なる一例を示すものにすぎない。よって、本発明は、上記の参照符号の記載によって、何ら限定されるものではない。 In the application documents, each element may be given a reference sign with parentheses. However, even in this case, such reference numerals merely indicate an example of the correspondence relationship between each element and specific means described in the embodiments described later. Therefore, the present invention is not limited in any way by the above reference numerals.

本発明の一実施形態に係る表示制御装置を含む車載システムの概略構成を示す図である。It is a figure showing a schematic structure of an in-vehicle system containing a display control device concerning one embodiment of the present invention. 図1に示された車載システムにおける概略的な機能構成を示すブロック図である。2 is a block diagram showing a schematic functional configuration of the in-vehicle system shown in FIG. 1; FIG. 図2に示された表示制御装置の第一実施形態に係る信頼度算出の概要を示すブロック図である。3 is a block diagram showing an overview of reliability calculation according to the first embodiment of the display control device shown in FIG. 2; FIG. 比較例に係る表示例を示す概略図である。It is a schematic diagram showing a display example according to a comparative example. 第一実施形態に係る表示例を示す概略図である。It is a schematic diagram showing an example of a display concerning a first embodiment. 図2に示された表示制御装置の第二実施形態に係る信頼度算出の概要を示すブロック図である。3 is a block diagram showing an overview of reliability calculation according to the second embodiment of the display control device shown in FIG. 2; FIG. 比較例に係る表示例を示す概略図である。It is a schematic diagram showing a display example according to a comparative example. 第二実施形態に係る表示例を示す概略図である。It is a schematic diagram showing a display example according to the second embodiment. 図2に示された表示制御装置の第三実施形態に係る信頼度算出の概要を示す図である。3 is a diagram showing an overview of reliability calculation according to the third embodiment of the display control device shown in FIG. 2; FIG. 図2に示された表示制御装置の第四実施形態に係る信頼度算出の概要を示す図である。FIG. 10 is a diagram showing an outline of reliability calculation according to the fourth embodiment of the display control device shown in FIG. 2; 図2に示された表示制御装置の第五実施形態に係る信頼度算出の概要を示す図である。FIG. 10 is a diagram showing an outline of reliability calculation according to the fifth embodiment of the display control device shown in FIG. 2; 図2に示された表示制御装置の第六実施形態に係る信頼度算出の概要を示す図である。FIG. 10 is a diagram showing an overview of reliability calculation according to the sixth embodiment of the display control device shown in FIG. 2; 図2に示された表示制御装置の第七実施形態に係る信頼度算出の概要を示す図である。FIG. 11 is a diagram showing an overview of reliability calculation according to the seventh embodiment of the display control device shown in FIG. 2; 図2に示された表示制御装置の第八実施形態に係る信頼度算出の概要を示すブロック図である。FIG. 11 is a block diagram showing an outline of reliability calculation according to the eighth embodiment of the display control device shown in FIG. 2; 図2に示された表示制御装置の第八実施形態に係る動作例を示すタイムチャートである。FIG. 11 is a time chart showing an operation example according to the eighth embodiment of the display control device shown in FIG. 2; FIG. 図2に示された表示制御装置の第八実施形態に係る信頼度算出の概要を示す図である。FIG. 11 is a diagram showing an outline of reliability calculation according to the eighth embodiment of the display control device shown in FIG. 2;

(実施形態)
以下、本発明の実施形態を、図面に基づいて説明する。なお、一つの実施形態に対して適用可能な各種の変形例については、当該実施形態に関する一連の説明の途中に挿入されると、当該実施形態の理解が妨げられるおそれがある。このため、変形例については、当該実施形態に関する一連の説明の途中ではなく、その後にまとめて説明する。
(embodiment)
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described based on the drawings. It should be noted that if various modifications applicable to one embodiment are inserted in the middle of a series of explanations related to the embodiment, there is a risk that the understanding of the embodiment will be hindered. Therefore, the modified examples will be collectively described after the series of descriptions regarding the embodiment, not in the middle of the description.

(車載システム)
図1を参照すると、車両1は、いわゆる四輪自動車であって、鉛直上方から車両1を見た平面視にて略矩形状の車体2を備えている。以下の説明の便宜上、車両1における「前」「後」「左」「右」「上」および「下」の概念を、図1中にて矢印で示した通りに定義する。これらの方向概念は、前進走行中(すなわち後退以外のシフトレンジで走行中)の車両1における運転席に搭乗する乗員であるドライバDを基準としたものである。前後方向は、車両全長方向と同義である。また、左右方向は、車幅方向と同義である。また、上下方向は、車高方向と同義である。車両全長方向は、車幅方向と直交し且つ車高方向と直交する方向である。車高方向は、車両1の車高を規定する方向であって、車両1を走行可能な状態で水平面上に安定的に載置した場合における重力作用方向と平行な方向である。
(in-vehicle system)
Referring to FIG. 1, a vehicle 1 is a so-called four-wheeled vehicle, and includes a substantially rectangular body 2 in plan view when the vehicle 1 is viewed from vertically above. For convenience of the following explanation, the concepts of "front", "rear", "left", "right", "up" and "down" in the vehicle 1 are defined as indicated by arrows in FIG. These directional concepts are based on the driver D who is an occupant in the driver's seat of the vehicle 1 traveling forward (that is, traveling in a shift range other than reverse). The longitudinal direction is synonymous with the longitudinal direction of the vehicle. Moreover, the left-right direction is synonymous with the vehicle width direction. Further, the vertical direction is synonymous with the vehicle height direction. The vehicle length direction is a direction orthogonal to the vehicle width direction and orthogonal to the vehicle height direction. The vehicle height direction is a direction that defines the vehicle height of the vehicle 1, and is a direction parallel to the direction of gravity when the vehicle 1 is stably placed on a horizontal plane in a drivable state.

車体2における、乗員が搭乗する内部空間である車室3は、前方をフロントウィンドシールド4によって覆われている。フロントウィンドシールド4は、透光性のガラスあるいは合成樹脂により板状に形成されている。フロントウィンドシールド4は、車幅方向と平行な視線で見た側方視にて、下端部よりも上端部の方が後方に位置するように傾斜配置されている。 A vehicle interior 3, which is an internal space in which an occupant rides in the vehicle body 2, is covered in front by a front windshield 4. - 特許庁The front windshield 4 is formed in a plate shape from translucent glass or synthetic resin. The front windshield 4 is slanted so that the upper end is located rearward than the lower end when viewed from the side in a line of sight parallel to the vehicle width direction.

車室3内における、フロントウィンドシールド4の下方には、ダッシュボード5が配置されている。ダッシュボード5には、メータパネル6が設けられている。また、ダッシュボード5からドライバDに向かって、ステアリングコラム7が延設されている。ステアリングコラム7には、ステアリングホイール8が取り付けられている。 A dashboard 5 is arranged below the front windshield 4 in the passenger compartment 3 . A meter panel 6 is provided on the dashboard 5 . A steering column 7 extends from the dashboard 5 toward the driver D. A steering wheel 8 is attached to the steering column 7 .

車両1には、車載システム10が搭載されている。車載システム10を搭載する当該車両1を、以下「自車両」と称する。車載システム10は、自車両の運転時の各種制御およびこれに伴う各種表示動作等を実行可能に構成されている。車載システム10は、CAN(国際登録商標:国際登録番号1048262A)等の所定の通信規格に準拠した車載ネットワークを構成するように設けられている。CAN(国際登録商標)はController Area Networkの略である。 The vehicle 1 is equipped with an in-vehicle system 10 . The vehicle 1 equipped with the in-vehicle system 10 is hereinafter referred to as "own vehicle". The in-vehicle system 10 is configured to be capable of executing various controls during driving of the own vehicle and various display operations associated therewith. The in-vehicle system 10 is provided to configure an in-vehicle network conforming to a predetermined communication standard such as CAN (International Registered Trademark: International Registration No. 1048262A). CAN (International Registered Trademark) is an abbreviation for Controller Area Network.

車載システム10は、AR技術を用いて表示画像IMを形成するヘッドアップディスプレイ装置11と、このヘッドアップディスプレイ装置11における表示動作を制御するように構成された表示制御装置12とを備えている。ARはAugmented Realityの略である。ヘッドアップディスプレイ装置11は、自車両に搭載されることで、フロントウィンドシールド4越しに視認される自車両の前景(例えば路面等)に虚像である表示画像IMを重畳表示する表示装置であって、フロントウィンドシールド4の下方にてダッシュボード5内に収容されている。 The in-vehicle system 10 includes a head-up display device 11 that forms a display image IM using AR technology, and a display control device 12 configured to control the display operation of the head-up display device 11 . AR is an abbreviation for Augmented Reality. The head-up display device 11 is a display device that superimposes a display image IM, which is a virtual image, on the foreground (for example, the road surface) of the vehicle that is viewed through the front windshield 4 by being mounted on the vehicle. , is housed in the dashboard 5 below the front windshield 4 .

図2は、車載システム10における、ヘッドアップディスプレイ装置11の動作制御に関する機能ブロック構成を概略的に示す。以下、図1および図2を参照しつつ、車載システム10における概略的なヘッドアップディスプレイ表示制御構成について説明する。車載システム10は、ヘッドアップディスプレイ装置11および表示制御装置12に加えて、画像撮像装置13と、認識部14と、車両状態センサ15と、ナビゲーション装置16とを備えている。 FIG. 2 schematically shows a functional block configuration related to operation control of the head-up display device 11 in the in-vehicle system 10. As shown in FIG. Hereinafter, a general head-up display display control configuration in the in-vehicle system 10 will be described with reference to FIGS. 1 and 2. FIG. The in-vehicle system 10 includes an imaging device 13 , a recognition unit 14 , a vehicle state sensor 15 , and a navigation device 16 in addition to a head-up display device 11 and a display control device 12 .

画像撮像装置13は、いわゆるフロントカメラであって、自車両の前方および前側方の画像を撮像可能に設けられている。具体的には、画像撮像装置13は、デジタルカメラ装置であって、CCDあるいはCMOS等のイメージセンサを備えている。CCDはCharge Coupled Deviceの略である。CMOSはComplementary Metal Oxide Semiconductorの略である。以下、画像撮像装置13を単に「カメラ」と略称することがある。認識部14は、画像撮像装置13により撮像された前景の画像に基づいて、前景に含まれる物標(例えば白線等)を画像認識するように構成されている。「物標」には、図4A等に示された、交差点IS、道路区画線LD、停止線LL、横断歩道ZC等の道路表示に加え、信号機TL等の立体物も含まれる。本実施形態においては、画像撮像装置13および認識部14は、単眼ステレオあるいは複眼ステレオの技術を用いて、自車両に対する相対的な物標の3次元位置を検出可能に構成されている。認識部14は、物標の画像認識結果を、表示制御装置12を含む各部に提供可能に設けられている。 The imaging device 13 is a so-called front camera, and is provided so as to be able to capture images in front of and to the sides of the vehicle. Specifically, the image pickup device 13 is a digital camera device and includes an image sensor such as a CCD or CMOS. CCD is an abbreviation for Charge Coupled Device. CMOS is an abbreviation for Complementary Metal Oxide Semiconductor. Hereinafter, the imaging device 13 may be abbreviated simply as a "camera". The recognition unit 14 is configured to image-recognize a target (for example, a white line) included in the foreground based on the image of the foreground captured by the imaging device 13 . The "target" includes not only road signs such as the intersection IS, road division lines LD, stop lines LL, and pedestrian crossings ZC shown in FIG. 4A, but also three-dimensional objects such as traffic lights TL. In this embodiment, the imaging device 13 and the recognition unit 14 are configured to be able to detect the three-dimensional position of the target relative to the vehicle using monocular stereo or compound stereo technology. The recognition unit 14 is provided so as to be able to provide the target image recognition result to each unit including the display control device 12 .

車両状態センサ15は、自車両の運転状態および運転環境を検出するように設けられている。「運転状態」は、例えば、アクセル開度、制動量、シフトポジション、操舵角、等の、ドライバDまたは運転自動化システムによる運転操作状態に関連する諸量を含む。また、「運転状態」は、例えば、車速(すなわち自車両の走行速度)、角速度、前後方向加速度、左右方向加速度、等の、自車両の挙動に関連する物理量を含む。「運転環境」は、外気温、降雨量、照度、等の自然環境を含む。また、「運転環境」は、自車両の周囲の所定の検知範囲における、移動物体および静止物体の存在状態を含む。「移動物体」は、歩行者、サイクリスト、動物、および運転中の他車両を含む。「静止物体」は、路上落下物、ガードレール、縁石、駐停車中の他車両、道路標識に加え、壁や建物等の構造物を含む。移動物体および静止物体は、「物標」に含まれる。すなわち、車両状態センサ15は、アクセル開度センサ、操舵角センサ、車輪速センサ、角速度センサ、加速度センサ、外気温センサ、雨滴センサ、照度センサ、レーダセンサ、超音波センサ、等の各種センサ類のうちの、画像撮像装置13以外のものを、図示および説明の簡略化のために総称したものである。 The vehicle state sensor 15 is provided to detect the driving state and driving environment of the own vehicle. The "driving state" includes various quantities related to the driving operation state by the driver D or the driving automation system, such as accelerator opening, braking amount, shift position, steering angle, and the like. Also, the "driving state" includes physical quantities related to the behavior of the vehicle, such as vehicle speed (that is, running speed of the vehicle), angular velocity, longitudinal acceleration, lateral acceleration, and the like. The "driving environment" includes natural environment such as outside temperature, amount of rainfall, and illuminance. Also, the "driving environment" includes the state of presence of moving and stationary objects within a predetermined detection range around the vehicle. "Moving objects" include pedestrians, cyclists, animals, and other vehicles in motion. "Stationary objects" include structures such as walls and buildings, in addition to objects falling on the road, guardrails, curbs, other parked and stopped vehicles, and road signs. Moving and stationary objects are included in "targets". That is, the vehicle state sensor 15 includes various sensors such as an accelerator opening sensor, a steering angle sensor, a wheel speed sensor, an angular velocity sensor, an acceleration sensor, an outside temperature sensor, a raindrop sensor, an illuminance sensor, a radar sensor, an ultrasonic sensor, and the like. Those other than the imaging device 13 are collectively named for the sake of illustration and explanation simplification.

ナビゲーション装置16は、地図情報と測位衛星による測位情報とに基づいて、自車両位置および自車両の進行経路を算出するように構成されている。「自車両位置」は、地図情報上における、現在の自車両の位置である。「進行経路」は、自車両位置から目的地までの自車両の走行予定経路である。また、ナビゲーション装置16は、交差点を示すノード間を結ぶリンクを分岐情報として有し、自車両の進行方向とリンクとのなす角度を算出可能に構成されている。 The navigation device 16 is configured to calculate the position of the vehicle and the traveling route of the vehicle based on the map information and the positioning information obtained from the positioning satellites. "Vehicle position" is the current position of the vehicle on the map information. The "moving route" is the planned travel route of the vehicle from the position of the vehicle to the destination. Further, the navigation device 16 has, as branch information, links connecting nodes indicating intersections, and is configured to be able to calculate the angle formed by the traveling direction of the own vehicle and the links.

(表示制御装置)
表示制御装置12は、HCUとしての構成を有している。HCUはHMI Control Unitの略である。HMIはヒューマン マシン インタフェースの略である。表示制御装置12は、コンピュータプログラムにより具体化された一つあるいは複数の機能を実行するようにプログラムされたプロセッサおよびメモリを備えた、いわゆる車載コンピュータとして構成されている。表示制御装置12は、マイクロコンピュータ上にて実現される機能構成あるいは機能部として、認識結果取得部121と、自車両位置取得部122と、経路情報取得部123と、表示情報生成部124と、信頼度算出部125と、表示状態設定部126とを備えている。
(Display control device)
The display control device 12 has a configuration as an HCU. HCU is an abbreviation for HMI Control Unit. HMI stands for Human Machine Interface. The display controller 12 is configured as a so-called on-board computer with a processor and memory programmed to perform one or more functions embodied by a computer program. The display control device 12 includes a recognition result acquisition unit 121, an own vehicle position acquisition unit 122, a route information acquisition unit 123, a display information generation unit 124, as functional configurations or functional units realized on a microcomputer. A reliability calculation unit 125 and a display state setting unit 126 are provided.

認識結果取得部121は、画像撮像装置13による前景の撮像画像に基づく物標の画像認識結果(すなわち画像認識結果に対応する情報である認識結果情報)を、認識部14から取得するようになっている。自車両位置取得部122は、ナビゲーション装置16から自車両位置を取得するようになっている。経路情報取得部123は、ナビゲーション装置16から進行経路を取得するようになっている。 The recognition result acquisition unit 121 acquires from the recognition unit 14 the image recognition result of the target based on the image of the foreground captured by the imaging device 13 (that is, recognition result information that is information corresponding to the image recognition result). ing. The own vehicle position acquisition unit 122 acquires the own vehicle position from the navigation device 16 . The route information acquisition unit 123 acquires the traveling route from the navigation device 16 .

表示情報生成部124は、認識結果取得部121にて取得した認識結果情報と、自車両位置取得部122にて取得した自車両位置と、経路情報取得部123にて取得した進行経路とに基づいて、ヘッドアップディスプレイ装置11に表示画像IMを表示させるための表示情報を生成するようになっている。信頼度算出部125は、認識結果情報の信頼度を、特徴量情報に基づいて算出するようになっている。ここで、「特徴量情報」は、認識結果情報、および/または、当該認識結果情報が取得される過程の中間情報を含む。表示状態設定部126は、信頼度算出部125により算出された信頼度に基づいて、表示画像IMにおける表示状態を設定するようになっている。ここにいう「表示状態」は、表示の有無と表示形態とを含む。「表示形態」は、表示画像IMの視認性に影響を与える諸要素(例えば、輝度、彩度、色相、線径、表示サイズ、等)を含む。 The display information generation unit 124 is based on the recognition result information acquired by the recognition result acquisition unit 121, the own vehicle position acquired by the own vehicle position acquisition unit 122, and the traveling route acquired by the route information acquisition unit 123. Then, display information for displaying the display image IM on the head-up display device 11 is generated. The reliability calculation unit 125 calculates the reliability of the recognition result information based on the feature amount information. Here, the "feature amount information" includes recognition result information and/or intermediate information in the process of acquiring the recognition result information. The display state setting section 126 sets the display state of the display image IM based on the reliability calculated by the reliability calculation section 125 . The “display state” referred to here includes presence/absence of display and display form. The “display form” includes various elements (for example, brightness, saturation, hue, line diameter, display size, etc.) that affect the visibility of the display image IM.

すなわち、表示制御装置12によって実行される処理は、認識結果取得処理と、信頼度算出処理と、表示状態設定処理とを含む。認識結果取得処理は、画像撮像装置13による前景の撮像画像に基づく物標の画像認識結果に対応する認識結果情報を取得する処理である。信頼度算出処理は、認識結果取得処理にて取得した認識結果情報の信頼度を、当該認識結果情報が取得される過程の中間情報または当該認識結果情報である、特徴量情報に基づいて算出する処理である。表示状態設定処理は、信頼度算出処理により算出された信頼度に基づいて、表示画像IMにおける表示状態を設定する処理である。 That is, the processing executed by the display control device 12 includes recognition result acquisition processing, reliability calculation processing, and display state setting processing. The recognition result acquisition process is a process of acquiring recognition result information corresponding to the target image recognition result based on the foreground captured image by the imaging device 13 . The reliability calculation process calculates the reliability of the recognition result information acquired in the recognition result acquisition process, based on feature amount information, which is intermediate information in the process of acquiring the recognition result information or the recognition result information. processing. The display state setting process is a process of setting the display state in the display image IM based on the reliability calculated by the reliability calculation process.

(動作概要)
以下、本実施形態に係る車載システム10および表示制御装置12の動作、ならびに、これにより実行される表示制御方法および表示制御プログラムの概要について、本実施形態により奏される効果とともに説明する。なお、以下の説明において、本実施形態に係る車載システム10および表示制御装置12の構成と、これにより実行される表示制御方法および表示制御プログラムの一連の処理とを、「本実施形態」と総称することがある。
(Overview of operation)
The operations of the in-vehicle system 10 and the display control device 12 according to the present embodiment, and the overview of the display control method and display control program executed thereby will be described below together with the effects achieved by the present embodiment. In the following description, the configurations of the in-vehicle system 10 and the display control device 12 according to this embodiment, and the series of processes of the display control method and display control program executed thereby are collectively referred to as "this embodiment". I have something to do.

認識部14は、画像撮像装置13による前景の撮像画像に基づいて、自車両の前方および前側方にてドライバDがフロントウィンドシールド4越しに視認可能な前景に含まれる物標を画像認識する。認識部14による物標の画像認識結果は、自車両における自動運転動作あるいはADAS動作に用いられる他、ヘッドアップディスプレイ装置11による表示動作にも用いられる。 Based on the image of the foreground captured by the imaging device 13, the recognition unit 14 recognizes an image of a target included in the foreground that can be visually recognized by the driver D through the front windshield 4 in front of and on the front side of the own vehicle. The target image recognition result by the recognition unit 14 is used for the automatic driving operation or the ADAS operation of the own vehicle, and is also used for the display operation by the head-up display device 11 .

表示制御装置12は、認識部14、車両状態センサ15、およびナビゲーション装置16から取得した信号あるいは情報に基づいて、虚像である表示画像IMを生成して、これを用いて前景に各種情報を重畳表示する。具体的には、認識結果取得部121は、画像撮像装置13により撮像された前景の撮像画像に基づく物標の画像認識結果を、認識部14から取得する。自車両位置取得部122は、ナビゲーション装置16から自車両位置を取得する。経路情報取得部123は、ナビゲーション装置16から進行経路を取得する。表示情報生成部124は、認識結果取得部121にて取得した物標の画像認識結果と、自車両位置取得部122にて取得した自車両位置と、経路情報取得部123にて取得した進行経路とに基づいて、前景に表示画像IMを重畳表示するための表示情報を生成する。 The display control device 12 generates a display image IM, which is a virtual image, based on signals or information acquired from the recognition unit 14, the vehicle state sensor 15, and the navigation device 16, and uses this to superimpose various information on the foreground. indicate. Specifically, the recognition result acquisition unit 121 acquires from the recognition unit 14 the target image recognition result based on the captured image of the foreground captured by the imaging device 13 . The own vehicle position acquisition unit 122 acquires the own vehicle position from the navigation device 16 . The route information acquisition unit 123 acquires the traveling route from the navigation device 16 . The display information generating unit 124 generates the target image recognition result obtained by the recognition result obtaining unit 121, the own vehicle position obtained by the own vehicle position obtaining unit 122, and the traveling route obtained by the route information obtaining unit 123. and display information for superimposing the display image IM on the foreground.

ここで、画像認識技術においては、撮像される環境や、撮像対象である物標の状態に、認識精度が大きく依存する。このため、常に同じ精度で画像認識できるとは限らない。具体的には、例えば、白線が掠れて判別しづらい状況等の悪条件下では、認識による位置検出精度が悪化する。よって、画像認識結果を単純に使用すると、仮に認識精度が低下状態であっても画像認識結果をそのまま用いた表示制御がなされてしまうため、表示ずれや表示に違和感が生じ得る。また、普及帯の車載ナビゲーションの位置精度では、案内する前後左右位置が10m程度ずれる場合もあり得る。具体的には、かかる位置ずれは、例えば、高層ビルやトンネル、立体駐車場等の影響で、GPS等の衛星からの測位信号を受信できなかったり受信しづらかったりする状況において発生する。また、かかる位置ずれは、例えば、地図情報から実際の道路形状が変わっており地図とマップマッチングするときにずれて自車位置推定しまうことにより発生する。典型例としては、遠方(例えば100m程度前方)では画像認識精度が低下しがちであり、これに対応して、遠方の物標に対応した重畳表示にも、表示ずれや違和感のある表示が生じやすい。 Here, in the image recognition technology, the recognition accuracy greatly depends on the environment in which the image is captured and the state of the target as the image capturing target. Therefore, it is not always possible to recognize images with the same accuracy. Specifically, for example, the accuracy of position detection by recognition deteriorates under bad conditions such as a situation in which white lines are blurred and it is difficult to distinguish. Therefore, if the image recognition result is simply used, display control is performed using the image recognition result as it is even if the recognition accuracy is degraded. Also, with the positional accuracy of in-vehicle navigation in the widespread range, there is a possibility that the front, rear, left, and right positions to be guided may deviate by about 10 m. Specifically, such positional deviation occurs in situations where positioning signals from satellites such as GPS cannot be received or are difficult to receive, for example, due to the influence of high-rise buildings, tunnels, multi-story parking lots, and the like. Further, such a positional deviation occurs, for example, when the actual road shape is changed from the map information and the position of the vehicle is estimated by deviation when performing map matching with the map. As a typical example, the accuracy of image recognition tends to decrease at a distance (for example, about 100 m ahead), and correspondingly, the superimposed display corresponding to the distant target also causes display deviation and uncomfortable display. Cheap.

この点、発明者は、画像認識精度を信頼度という形で表現し、その信頼度に応じて表示画像IMの表示制御を行うことで、表示ずれや違和感を可能な限り抑制することが可能となることを見出した。具体的には、例えば、画像認識結果に対応する物標情報の算出値あるいは推定値を信頼度で補正(例えば乗算)したり、信頼度に応じた表示制御閾値判定を行ったりすることで、表示画像IMの表示状態が、信頼度に応じたものに設定され得る。そして、この信頼度は、画像認識結果や、これを導出する際に生成される中間情報である、特徴量情報を用いて算出することが可能である。また、例えば、異なる特徴量情報により得られた信頼度を任意の統合手段(例えばベイズ推定等)で統合した統合信頼度を用いることで、表示ずれや違和感をよりいっそう抑制することが可能となる。このように、本実施形態によれば、表示ずれや違和感がより少ない重畳表示が可能となる。 In this respect, the inventor has proposed that by expressing image recognition accuracy in the form of reliability and performing display control of the display image IM according to the reliability, it is possible to suppress display deviation and discomfort as much as possible. I found out to be Specifically, for example, by correcting (for example, multiplying) the calculated value or estimated value of the target information corresponding to the image recognition result by the reliability, or performing the display control threshold determination according to the reliability, The display state of the display image IM can be set according to the reliability. This reliability can be calculated using the image recognition result and feature amount information, which is intermediate information generated when deriving this. Further, for example, by using an integrated reliability obtained by integrating reliability obtained from different feature amount information by arbitrary integration means (for example, Bayesian estimation, etc.), it is possible to further suppress display deviation and discomfort. . As described above, according to the present embodiment, superimposed display can be performed with less display deviation and discomfort.

(第一実施形態:道路勾配)
図3、図4A、および図4Bは、経路表示における道路勾配ずれを抑制する技術の一例を示す。すなわち、図3は、図2に示された信頼度算出部125における一動作例を示す。図4Aは、比較例として、道路勾配を加味して経路情報を表示するための表示画像IMを、信頼度を使用せずに認識結果に基づいて単純に表示した場合の表示例を示す。図4Bは、本実施形態による表示例を示す。図4Aおよび図4Bにおいて、自車両は、片側二車線の走行中道路RRにおける右側車線である走行中車線LRを直進走行中に、前方の交差点ISに接近中であるものとする。以下、図1~図3ならびに図4Aおよび図4Bを用いて、本実施形態に係る表示例について説明する。
(First embodiment: road gradient)
3, 4A, and 4B show an example of technology for suppressing road gradient deviation in route display. That is, FIG. 3 shows an operation example of the reliability calculation unit 125 shown in FIG. FIG. 4A shows, as a comparative example, a display example in which a display image IM for displaying route information in consideration of road gradients is simply displayed based on recognition results without using reliability. FIG. 4B shows a display example according to this embodiment. In FIGS. 4A and 4B, it is assumed that the own vehicle is approaching the intersection IS ahead while traveling straight on the running lane LR, which is the right lane of the running road RR with two lanes in each direction. Display examples according to the present embodiment will be described below with reference to FIGS. 1 to 3 and FIGS. 4A and 4B.

本実施形態においては、認識部14は、自車両の進行先道路における道路形状を認識する。すなわち、認識部14は、進行先道路における道路勾配を算出すなわち推定する。認識結果取得部121は、進行先道路における道路勾配の推定結果を、認識部14から取得する。表示情報生成部124は、道路勾配の推定結果を加味して自車両の進行経路を表示するための表示画像IMである経路表示画像に対応する表示情報を生成する。信頼度算出部125は、道路勾配の推定結果の信頼度を算出する。そして、表示状態設定部126は、経路表示画像における表示状態を、道路勾配の推定結果の信頼度に基づいて設定する。具体的には、例えば、表示状態設定部126は、信頼度が高いほど経路表示画像の視認性が上がるように、表示状態を設定する。あるいは、例えば、表示状態設定部126は、信頼度が信頼度閾値を超えるか否かに応じて、表示領域と非表示領域とをそれぞれ設定する。 In this embodiment, the recognition unit 14 recognizes the shape of the road ahead of the vehicle. That is, the recognition unit 14 calculates, or estimates, the road gradient of the destination road. The recognition result acquisition unit 121 acquires the estimation result of the road gradient of the destination road from the recognition unit 14 . The display information generation unit 124 generates display information corresponding to the route display image, which is the display image IM for displaying the traveling route of the vehicle, taking into account the road gradient estimation result. The reliability calculation unit 125 calculates the reliability of the estimation result of the road gradient. Then, the display state setting unit 126 sets the display state in the route display image based on the reliability of the estimation result of the road gradient. Specifically, for example, the display state setting unit 126 sets the display state so that the visibility of the route display image increases as the reliability increases. Alternatively, for example, the display state setting unit 126 sets the display area and the non-display area depending on whether the reliability exceeds the reliability threshold.

さらに、本実施形態においては、図3に示されているように、信頼度算出部125は、複数の信頼度(すなわち第一信頼度P1,第二信頼度P2,…)を統合することで、統合信頼度Pを算出する。第一信頼度P1は、複数種類の特徴量情報のうちの一種類である第一特徴量情報である分布距離と、かかる分布距離に対応した用意された第一信頼度マップとを用いて取得される。第一対応関係情報としての第一信頼度マップは、第一特徴量情報である分布距離と第一信頼度P1との対応関係を規定したマップであり、P1=f1(分布距離)で示される。第二信頼度P2は、複数種類の特徴量情報のうちの他の一種類である第二特徴量情報である距離点数と、かかる距離点数に対応した用意された第二信頼度マップとを用いて取得される。第二対応関係情報としての第二信頼度マップは、第二特徴量情報である距離点数と第二信頼度P2との対応関係を規定したマップであり、P2=f2(距離点数)で示される。中間情報の1つである距離点数は、道路勾配の2次曲線近似に使用した、距離点、すなわち、画像認識により距離すなわち自車両からの相対的な3次元位置が算出された特徴点の数である。中間情報の1つである分布距離は、勾配推定に使用した距離点数の95%タイル距離である。例えば、分布距離は、推定に用いた距離点の奥行方向への広がりを示し、図3に示されているように、分布距離が長いほど推定精度が向上する傾向にある。距離点数については、一定数以上あれば、推定可能な状態となる。また、距離点数が多いほど、推定精度が向上する傾向がある。道路勾配の推定結果の信頼度を算出する際に利用可能な特徴量情報としては、上述の分布距離や距離点数の他に、推定誤差、車速、昼夜、等が挙げられる。上記のマップは、実験や計算機シミュレーション等により作成され、メモリにあらかじめ格納されている。 Furthermore, in the present embodiment, as shown in FIG. 3, the reliability calculation unit 125 integrates a plurality of reliability (that is, first reliability P1, second reliability P2, . . . ) to obtain , the integrated reliability P is calculated. The first reliability P1 is obtained using the distribution distance, which is the first feature amount information, which is one type of the plurality of types of feature amount information, and the prepared first reliability map corresponding to the distribution distance. be done. The first reliability map as the first correspondence information is a map that defines the correspondence between the distribution distance, which is the first feature amount information, and the first reliability P1, and is expressed by P1=f1 (distribution distance). . The second reliability P2 is obtained by using the distance points, which is the second feature amount information, which is another type of the plurality of types of feature amount information, and the prepared second reliability map corresponding to the distance points. obtained by The second reliability map as the second correspondence information is a map that defines the correspondence between the distance score, which is the second feature quantity information, and the second reliability P2, and is indicated by P2=f2 (distance score). . The number of distance points, which is one of the intermediate information, is the number of distance points used for the quadratic curve approximation of the road gradient, that is, the number of feature points for which the distance, that is, the relative three-dimensional position from the own vehicle is calculated by image recognition. is. One of the intermediate information, the distribution distance, is the 95% tile distance of the number of distance points used for gradient estimation. For example, the distribution distance indicates the spread in the depth direction of the distance points used for estimation, and as shown in FIG. 3, the longer the distribution distance, the more the estimation accuracy tends to improve. If the number of distance points is equal to or greater than a certain number, estimation becomes possible. In addition, there is a tendency that the greater the number of distance points, the higher the estimation accuracy. In addition to the above-described distribution distance and distance points, estimation error, vehicle speed, day and night, etc., can be cited as feature amount information that can be used when calculating the reliability of the estimation result of the road gradient. The above maps are created by experiments, computer simulations, etc., and stored in advance in the memory.

複数の信頼度の統合は、例えば、下記の式1を用いて行われる。具体的には、第一信頼度P1と第二信頼度P2とを統合した統合信頼度P12は、式1において(a,b)=(1,2)すなわちPa=P1およびPb=P2とすることで算出される。また、第一信頼度P1と第二信頼度P2と第三信頼度P3とを統合した統合信頼度P123は、式1においてPa=P12,Pb=P3とすることで算出される。第一信頼度P1~第四信頼度P4を統合した統合信頼度P1234は、式1においてPa=P123,Pb=P4とすることで算出される。5つ以上の信頼度の統合も同様にして行われる。すなわち、3つ以上の信頼度の統合は、式1による2つの信頼度の統合を反復することで行われ得る。
式1:Pab(Pa,Pb)
=Pa・Pb/{(Pa・Pb)+(1-Pa・(1-Pb)}
The integration of multiple degrees of reliability is performed using, for example, Equation 1 below. Specifically, the integrated reliability P12 , which integrates the first reliability P1 and the second reliability P2, is given by (a,b)=(1,2), that is, Pa=P1 and Pb=P2 in Equation 1. It is calculated by An integrated reliability P123 obtained by integrating the first reliability P1, the second reliability P2, and the third reliability P3 is calculated by setting Pa= P12 and Pb=P3 in Equation (1). An integrated reliability P 1234 obtained by integrating the first reliability P1 to the fourth reliability P4 is calculated by setting Pa=P 123 and Pb=P4 in Equation (1). Consolidation of 5 or more confidences is done in a similar way. That is, integration of more than two confidences can be done by repeating integration of two confidences according to Eq.
Formula 1: P ab (Pa, Pb)
= Pa · Pb / {(Pa · Pb) + (1-Pa · (1-Pb)}

このように、距離点数と分布距離とに応じた勾配推定の正しさらしさ(すなわち信頼度)をマップ化して、これらの信頼度を統合して経路表示における勾配表示態様に反映させることで、ずれや違和感がより少ない勾配表示が可能となる。具体的には、道路勾配の推定結果は、白線すなわち道路区画線LDの認識結果による影響を受ける。すなわち、例えば、道路区画線LDが掠れていたり、交差点ISにより道路区画線LDが寸断されていたりすると、道路区画線LDの曲率の算出結果に基づく道路勾配の推定結果の精度が低下する。また、自車両の比較的近くで精度よく認識された道路区画線LDの曲率に基づく道路勾配の推定結果と、遠方における実際の道路勾配とが一致するとは限らない。このため、遠方における道路区画線LDの認識が良好に行われないと、遠方における道路勾配の推定結果に大きな誤差が生じる。すると、図4Aに示されているように、遠方領域において、経路表示に大きなずれが生じる。そこで、統合信頼度Pの算出値が低くなる遠方領域において、表示を非表示化したり、視認性を低下させたりすることで、ずれや違和感がより少ない経路表示を行うことが可能となる。なお、図4Bに示されている表示例においては、信頼度すなわち統合信頼度Pが閾値Pth未満となった遠方領域を非表示としているが、本発明は、かかる態様に限定されない。すなわち、例えば、信頼度の値に応じて輝度等の視認性が段階的に変化するように、表示画像IMを表示してもよい。 In this way, by mapping the accuracy (that is, reliability) of gradient estimation according to the number of distance points and the distribution distance, and integrating these reliability levels and reflecting them in the gradient display mode in route display, deviation It is possible to display gradients with less sense of incongruity. Specifically, the estimation result of the road gradient is affected by the recognition result of the white line, that is, the road division line LD. That is, for example, if the road marking line LD is blurred or the road marking line LD is cut off by the intersection IS, the accuracy of the road gradient estimation result based on the calculation result of the curvature of the road marking line LD decreases. In addition, the estimation result of the road gradient based on the curvature of the road division line LD that is accurately recognized relatively close to the vehicle does not necessarily match the actual road gradient at a distance. Therefore, unless the road division lines LD in the distance are recognized satisfactorily, a large error occurs in the estimation result of the road gradient in the distance. Then, as shown in FIG. 4A, a large deviation occurs in the route display in the far area. Therefore, by hiding the display or reducing the visibility in the distant region where the calculated value of the integrated reliability P is low, it is possible to display the route with less misalignment and discomfort. In addition, in the display example shown in FIG. 4B, the distant area where the reliability, that is, the integrated reliability P is less than the threshold value Pth is not displayed, but the present invention is not limited to such an aspect. That is, for example, the display image IM may be displayed such that the visibility such as brightness changes stepwise according to the value of the reliability.

(第二実施形態:道路曲率)
図5、図6A、および図6Bは、経路表示における道路曲率(すなわちカーブ曲率)のずれを抑制する技術の一例を示す。すなわち、図5は、図2に示された信頼度算出部125における一動作例を示す。図6Aは、比較例として、道路曲率を加味した経路情報を表示するための表示画像IMを、信頼度を使用せずに認識結果に基づいて単純に表示した場合の表示例を示す。図6Bは、本実施形態による表示例を示す。
(Second embodiment: road curvature)
5, 6A, and 6B show an example of technology for suppressing deviation of road curvature (that is, curve curvature) in route display. That is, FIG. 5 shows an operation example of the reliability calculation unit 125 shown in FIG. FIG. 6A shows, as a comparative example, a display example in which a display image IM for displaying route information with road curvature added is simply displayed based on recognition results without using reliability. FIG. 6B shows a display example according to this embodiment.

本実施形態においては、認識部14は、自車両の進行先道路における道路形状を認識する。すなわち、認識部14は、進行先道路における道路曲率を算出すなわち推定する。認識結果取得部121は、進行先道路における道路曲率の推定結果を、認識部14から取得する。表示情報生成部124は、道路曲率の推定結果を加味して自車両の進行経路を表示するための表示画像IMである経路表示画像に対応する表示情報を生成する。信頼度算出部125は、道路曲率の推定結果の信頼度を算出する。そして、表示状態設定部126は、経路表示画像における表示状態を、道路曲率の推定結果の信頼度に基づいて設定する。具体的には、例えば、表示状態設定部126は、信頼度が高いほど経路表示画像の視認性が上がるように、表示状態を設定する。より詳細には、例えば、信頼度が高い場合には濃く、低い場合は薄くあるいは消す表示とする。 In this embodiment, the recognition unit 14 recognizes the shape of the road ahead of the vehicle. That is, the recognition unit 14 calculates, or estimates, the road curvature of the destination road. The recognition result acquisition unit 121 acquires from the recognition unit 14 the estimation result of the road curvature of the destination road. The display information generation unit 124 generates display information corresponding to the route display image, which is the display image IM for displaying the traveling route of the vehicle, taking into account the road curvature estimation result. The reliability calculation unit 125 calculates the reliability of the road curvature estimation result. Then, the display state setting unit 126 sets the display state in the route display image based on the reliability of the road curvature estimation result. Specifically, for example, the display state setting unit 126 sets the display state so that the visibility of the route display image increases as the reliability increases. More specifically, for example, if the reliability is high, the display is dark, and if the reliability is low, the display is light or blank.

認識結果だけに依存していては、表示ずれの軽減はできない。一方、ナビゲーション装置16が普及帯のものである場合、これに用いられる地図情報や自車両位置情報では、進路をずれなく表示するには位置精度が足りない。また、ナビゲーション装置16がADASIS規格に適合した高精度デジタル地図情報や高精度測位情報を利用している場合であっても、上記の通り、走行中に測位信号の受信障害等が発生し得る。ADASISはAdvanced Driver Assistance Systems Interface Specificationの略である。 Relying only on the recognition result cannot reduce the display deviation. On the other hand, if the navigation device 16 is of a popular type, the map information and the own vehicle position information used by the navigation device 16 do not have enough position accuracy to display the route without deviation. Even if the navigation device 16 uses high-precision digital map information and high-precision positioning information conforming to the ADASIS standard, as described above, positioning signal reception failure or the like may occur while the vehicle is running. ADASIS stands for Advanced Driver Assistance Systems Interface Specification.

この点、発明者は、画像認識結果の中間情報に着目すれば、表示ずれや違和感が発生しやすい状態を予測できることに着目した。そこで、本実施形態は、KFで推定された道路形状(すなわち例えばBsplineモデル)やDNNエッジ点に基づいて、奥行方向に横ずれの信頼度を計算し、信頼度に応じた表示を行う。KFはカルマンフィルタの略である。DNNはDeep Neural Networkの略である。エッジ点は、道路区画線LDとそれ以外の部分との境界上の特徴点である。DNNエッジ点は、DNN技術を用いて認識したエッジ点である。具体的には、例えば、道路曲率の認識すなわち算出の奥行方向位置である認識距離が長くなるほど、推定精度が低下する。このため、信頼度は、図5に示されているように、認識距離が長くなるほど推定精度が低下するように作成されたマップを用いて取得され得る。 In this regard, the inventor has focused on the fact that by focusing on the intermediate information of the image recognition result, it is possible to predict a state in which display deviation or discomfort is likely to occur. Therefore, in the present embodiment, the reliability of lateral deviation in the depth direction is calculated based on the road shape (ie, Bspline model, for example) estimated by KF and the DNN edge points, and display is performed according to the reliability. KF is an abbreviation for Kalman filter. DNN stands for Deep Neural Network. An edge point is a characteristic point on the boundary between the road division line LD and the other portion. A DNN edge point is an edge point recognized using the DNN technique. Specifically, for example, the longer the recognition distance, which is the position in the depth direction for recognition or calculation of the road curvature, the lower the estimation accuracy. For this reason, confidence can be obtained using a map created such that the longer the recognition distance, the lower the estimation accuracy, as shown in FIG.

さらに、図5に示されているように、本実施形態においては、信頼度算出部125は、上記第一実施形態と同様に、複数の信頼度を統合することで、統合信頼度Pを算出する。複数の信頼度の統合は、例えば、上記の式1を用いて行われる。道路曲率の推定結果の信頼度を算出する際に利用可能な特徴量情報としては、認識距離、エッジ点横位置誤差、先行車距離、車線幅、道路端横位置誤差、等が挙げられる。エッジ点横位置誤差は、KFで推定された道路形状とDNNエッジ点との横位置差であり、図5においては図示の簡略化のため「横位置差」として示されている。先行車距離は、自車両と先行車との間の距離である。すなわち、先行車の画像認識結果に基づく横位置の算出値を道路曲率の推定に用いる場合、先行車が自車両から遠方にあると、推定結果の精度が低下する。このため、先行車距離を信頼度に反映することで、より精度の高い信頼度算出が可能となる。 Furthermore, as shown in FIG. 5, in the present embodiment, the reliability calculation unit 125 calculates an integrated reliability P by integrating a plurality of reliability as in the first embodiment. do. Integration of multiple confidences is performed using, for example, Equation 1 above. Feature amount information that can be used when calculating the reliability of road curvature estimation results includes recognition distance, edge point lateral position error, preceding vehicle distance, lane width, road edge lateral position error, and the like. The edge point lateral position error is the lateral position difference between the road shape estimated by KF and the DNN edge point, and is shown as "lateral position difference" in FIG. 5 for the sake of simplification of illustration. The preceding vehicle distance is the distance between the own vehicle and the preceding vehicle. That is, when the calculated value of the lateral position based on the image recognition result of the preceding vehicle is used for estimating the road curvature, the precision of the estimation result decreases when the preceding vehicle is far from the own vehicle. Therefore, by reflecting the preceding vehicle distance in the reliability, it becomes possible to calculate the reliability with higher accuracy.

図6Aに示されているように、画像認識結果をそのまま用いて、道路曲率を反映した経路表示のための表示画像IMを表示すると、ずれや違和感が大きくなる。これに対し、図6Bに示されているように、統合信頼度Pの算出値が低くなる遠方領域において、表示を非表示化したり、視認性を低下させたりすることで、ずれや違和感がより少ない経路表示を行うことが可能となる。なお、図6Bに示されている表示例においては、信頼度すなわち統合信頼度Pが閾値Pth未満となった遠方領域を非表示としているが、本発明は、かかる態様に限定されない。すなわち、例えば、信頼度の値に応じて輝度等の視認性が段階的に変化するように、表示画像IMを表示してもよい。 As shown in FIG. 6A, if the image recognition result is used as it is to display the display image IM for the route display reflecting the road curvature, the deviation and discomfort will increase. On the other hand, as shown in FIG. 6B, by hiding the display or reducing the visibility in the distant region where the calculated value of the integrated reliability P is low, the shift and the sense of incongruity become more noticeable. It is possible to display a small number of routes. In addition, in the display example shown in FIG. 6B, the distant area where the reliability, that is, the integrated reliability P is less than the threshold value Pth is not displayed, but the present invention is not limited to such an aspect. That is, for example, the display image IM may be displayed such that the visibility such as brightness changes stepwise according to the value of the reliability.

(第三実施形態:POI)
本実施形態は、ドライバDに対して注目を促すべき物標であるPOIに関する情報を強調して通知するための表示画像IMの表示に関する例を示す。POIは、Point Of Interestの略であり、例えば、歩行者、先行車、交通標識、道路標示、等がこれに該当する。
(Third embodiment: POI)
This embodiment shows an example of the display of the display image IM for emphasizing and notifying the driver D of the information on the POI, which is the target to which the driver D should pay attention. POI is an abbreviation for Point Of Interest, and includes, for example, pedestrians, preceding vehicles, traffic signs, road signs, and the like.

図7は、特徴量情報としての認識距離、DNN認識スコア、追跡状態、および累積追跡回数のそれぞれに対応する信頼度マップを示す。図7における(A)のマップに示されているように、認識した距離が近いものほど信頼度を上げる。また、図7における(B)のマップに示されているように、DNNによる識別結果としてでてくるスコア値が高いほど信頼度を上げる。また、図7における(C)のマップに示されているように、ゴースト状態、すなわち、遮蔽物等による一時的な未認識状態になったときは信頼度を下げる。また、図7における(D)のマップに示されているように、検出した累積回数によって信頼度を上げる。本実施形態における信頼度は、これらの信頼度マップのうちの少なくとも1つを用いて取得され得る。複数の信頼度マップを用いて統合信頼度Pを算出する場合の処理は、上記の各実施形態と同様にして行われ得る。 FIG. 7 shows a reliability map corresponding to each of the recognition distance, the DNN recognition score, the tracking state, and the cumulative number of times of tracking as feature amount information. As shown in the map of (A) in FIG. 7, the shorter the recognized distance, the higher the reliability. Further, as shown in the map of (B) in FIG. 7, the higher the score value obtained as the identification result by DNN, the higher the reliability. Further, as shown in the map of (C) in FIG. 7, the reliability is lowered in a ghost state, that is, in a temporary non-recognition state due to an obstacle or the like. Also, as shown in the map of (D) in FIG. 7, the reliability is increased by the cumulative number of detections. Confidence in this embodiment can be obtained using at least one of these confidence maps. The processing for calculating the integrated reliability P using a plurality of reliability maps can be performed in the same manner as in each of the above-described embodiments.

さらに、表示画像IMの重畳表示対象が歩行者であって、且つ、以下の状況のいずれかに該当する場合、通常よりさらに輝度を上げたり点滅制御したりしてもよい。
・横断歩道近くにいるとき
・信号、停止線、または交差点(停止線から所定の値以上奥側にある信号との間)にいるとき
また、表示画像IMの重畳表示対象が交通標識である場合、特に注意を要する一時停止、進入禁止、速度表示等の規制表示のときは、通常よりさらに輝度を上げたり点滅制御したりしてもよい。
Furthermore, when the superimposed display target of the display image IM is a pedestrian and any of the following situations apply, the luminance may be increased more than usual or the blinking control may be performed.
・When you are near a pedestrian crossing ・When you are at a traffic light, a stop line, or an intersection (between the stop line and a traffic signal located farther than a predetermined distance from the stop line) In addition, when the superimposed display target of the display image IM is a traffic sign In particular, at the time of restriction display such as temporary stop, entry prohibition, speed display, etc., which require special attention, the brightness may be increased more than usual or the blinking control may be performed.

(第四実施形態:レーン内自車位置)
本実施形態は、レーン内自車位置に対応する横位置情報の推定結果の信頼度を算出する例を示す。レーン内自車位置は、走行中車線LR内での道路幅員方向における自車両の位置である。経路表示は、自車両の中心ではなく、走行中車線LRの中央を基準として表示される。このため、レーン内自車位置の認識信頼度に応じた表示を行うことで、違和感の少ない経路表示が可能となる。具体的には、例えば、信頼度に閾値を設定することにより、表示をキャンセルする表示制御が行われ得る。
(Fourth Embodiment: Vehicle Position in Lane)
This embodiment shows an example of calculating the reliability of the estimation result of the lateral position information corresponding to the in-lane vehicle position. The in-lane own vehicle position is the position of the own vehicle in the road width direction within the traveling lane LR. The route display is displayed with reference to the center of the running lane LR, not the center of the vehicle. Therefore, by performing display according to the recognition reliability of the in-lane vehicle position, it is possible to display a route with little sense of discomfort. Specifically, for example, by setting a threshold for reliability, display control to cancel display can be performed.

図8は、特徴量情報としての、白線の総延長距離および白線認識状態のそれぞれに対応する信頼度マップを示す。「白線」は道路区画線LDを略称したものである。自車両のレーン内横位置は、左右の白線の認識状態に依存する。このため、図8における(A)のマップに示されているように、白線の総延長距離が長いほど信頼度を上げる。また、図8における(B)のマップに示されているように、自車両の左右の白線の認識状態に応じて、以下のように信頼度を設定する。
・左右両方とも認識…信頼度高(例えば90%)
・左右いずれかのみ認識…車線幅が検出できず履歴に頼るため、信頼度中(例えば25%)
・左右両方とも認識できず…位置計算が不可能となるため、信頼度最低(例えば1%)
FIG. 8 shows a reliability map corresponding to each of the total extended distance of white lines and the state of recognition of white lines as feature amount information. "White line" is an abbreviation for road division line LD. The lateral position of the vehicle within the lane depends on the state of recognition of the left and right white lines. Therefore, as shown in the map of (A) in FIG. 8, the longer the total extension distance of the white lines, the higher the reliability. Further, as shown in the map of FIG. 8B, the reliability is set as follows according to the recognition state of the left and right white lines of the own vehicle.
・Recognition on both left and right … High reliability (eg 90%)
・Recognize only left or right … Lane width cannot be detected and relies on history, so reliability is medium (eg 25%)
・ Both left and right cannot be recognized … Position calculation is impossible, so the reliability is the lowest (eg 1%)

(第五実施形態:レーン番号)
本実施形態は、レーン番号に対応する横位置情報の推定結果の信頼度を算出する例を示す。レーン番号は、走行中道路RR内での道路幅員方向における自車両の走行中車線LRの位置を示すID番号である。例えば、レーン番号は、右から左に向けて値が1から昇順に付番される。レーン番号は、経路を無理なく円滑に案内するために、事前に適切なレーン位置に移るように促したり、目印となる店舗等の地物に関する案内情報を自車両からの適切な横位置に表示したりするために必要である。
(Fifth embodiment: lane number)
This embodiment shows an example of calculating the reliability of the estimation result of the lateral position information corresponding to the lane number. The lane number is an ID number indicating the position of the lane LR in which the vehicle is traveling in the road width direction on the road RR on which the vehicle is traveling. For example, the lane numbers are numbered in ascending order from right to left starting with a value of 1. In order to guide the route smoothly and without difficulty, the lane number prompts the user to move to the appropriate lane position in advance, and displays guidance information on features such as shops that serve as landmarks at an appropriate lateral position from the vehicle. It is necessary for

カメラ認識だけで実現できるレーン番号の特定は、(1)カメラ認識した白線の線種パターン(例えば左が実線で右が破線)や(2)カメラ認識した道路端(例えば路肩の下端等)からの自車両までの横オフセット距離をもとに、車線幅と路肩の幅を考慮することで行われ得る。実状は、(1)白線認識で出力する線種結果は離散的情報かつ不安定、一方、(2)道路端認識は周辺車両に遮蔽されることがあるため認識できたりできなかったりする。そこで、図9における(A)のマップに示されているように、一定期間内にレーン特定をできた値に対して、標準偏差をとりレーン番号の時間的な変動を信頼度とする。もし、一定期間内でレーン特定できていないときがある場合は、その回数に応じて所定値の標準偏差を加算し、変動が大きい、つまりレーン番号が信用できない状態に遷移させるようにする。また、自車両の左右隣レーンの前方所定距離(例えば30m)以内までの周辺車両数によって道路端認識が阻害されることが多いため、図9における(B)および(C)に示されているように、所定距離以内の左右の隣接車数も信頼度マップとする。本実施形態における信頼度も、これらの信頼度マップのうちの少なくとも1つを用いて取得され得る。複数の信頼度マップを用いて統合信頼度Pを算出する場合の処理は、上記の各実施形態と同様にして行われ得る。 Lane number identification that can be realized only by camera recognition is based on (1) the line type pattern of the white line recognized by the camera (for example, the left is a solid line and the right is a broken line) and (2) the road edge recognized by the camera (for example, the lower end of the shoulder). This can be done by considering the width of the lane and the width of the shoulder based on the lateral offset distance to the own vehicle. The actual situation is that (1) line type results output in white line recognition are discrete information and unstable, while (2) road edge recognition may or may not be recognized because it may be blocked by surrounding vehicles. Therefore, as shown in the map of (A) in FIG. 9, the standard deviation is taken with respect to the values for which the lane can be identified within a certain period of time, and the temporal fluctuation of the lane number is taken as the reliability. If there is a time when the lane cannot be identified within a certain period of time, a standard deviation of a predetermined value is added according to the number of times, and the fluctuation is large, that is, the lane number is changed to an unreliable state. In addition, road edge recognition is often hindered by the number of surrounding vehicles within a predetermined distance (for example, 30 m) in front of the left and right adjacent lanes of the own vehicle. Similarly, the number of adjacent vehicles on the left and right within a predetermined distance is also included in the reliability map. Confidence in this embodiment can also be obtained using at least one of these confidence maps. The processing for calculating the integrated reliability P using a plurality of reliability maps can be performed in the same manner as in each of the above-described embodiments.

(第六実施形態:交差点位置)
本実施形態は、交差点位置の推定結果の信頼度を算出する例を示す。交差点位置は、自車両に対する交差点ISの中心の相対位置である。推定する交差点位置は、典型的には、前後位置すなわち自車両の現在の進行方向における自車両の現在位置からの走行予定距離である。
(Sixth embodiment: intersection position)
This embodiment shows an example of calculating the reliability of the estimation result of the intersection position. The intersection position is the relative position of the center of the intersection IS with respect to the host vehicle. The estimated intersection position is typically a forward/backward position, that is, a planned traveling distance from the current position of the vehicle in the current traveling direction of the vehicle.

従来の車載ナビゲーションの位置精度では、経路あるいは進行方向を案内する対象となる交差点ISの前後位置がずれることがあった。この原因は、例えば、高層ビルやトンネルや立体駐車場等において、GPS等の測位信号が受信できなかったり受信しづらかったりした場合の、自車両位置推定の精度低下である。あるいは、この原因は、例えば、地図とマップマッチングする際に、実際の道路形状が地図から変わったことによる、自車両位置推定の誤差である。このように、自車両位置の推定あるいは算出に誤差が生じると、経路あるいは進行方向を案内する対象となる交差点ISの、自車両位置からの相対位置関係にも、誤差が生じる。すると、かかる交差点ISに対応して本来表示されるべき、経路あるいは進行方向を案内するための表示要素が、かかる交差点ISからずれた位置に表示されてしまう。そこで、カメラ認識結果を用いて交差点位置を推定あるいは算出することで、ずれや違和感のない経路表示が可能となる。 With the positional accuracy of conventional in-vehicle navigation, the front and rear positions of the intersection IS, which is the target of route or traveling direction guidance, may deviate. The cause of this is, for example, a decrease in the accuracy of vehicle position estimation when positioning signals such as GPS cannot be received or are difficult to receive in high-rise buildings, tunnels, multi-story parking lots, and the like. Alternatively, the cause of this is, for example, an error in self-vehicle position estimation due to a change in the actual road shape from the map when performing map matching with the map. Thus, if an error occurs in the estimation or calculation of the own vehicle position, an error also occurs in the relative positional relationship from the own vehicle position to the intersection IS for which the route or direction of travel is to be guided. As a result, display elements for guiding the route or traveling direction, which should be displayed corresponding to the intersection IS, are displayed at positions shifted from the intersection IS. Therefore, by estimating or calculating the position of the intersection using the camera recognition result, it is possible to display the route without deviation or discomfort.

信号のある交差点ISについて分析すると、カメラで認識できるものとして信号機TLと停止線LLとがあり、信号機TLは交差点ISの奥側に常設され、停止線LLは交差点ISの手前側に常設されるという特徴がある。そこで、交差点ISの奥側の信号機TLおよび手前側の停止線LLの中点を交差点ISの中心と仮定し、前後位置として計算するロジックとした。また、交差点ISの中心の横位置の計算は、自車両の走行中車線LRにおけるレーン番号であるレーンIDをもとに計算することとした。なお、信号機TLが交差点ISの手前側にも配置されている場合は、その画像認識結果に基づく推定位置を交差点位置の推定に反映させてもよい。 Analyzing an intersection IS with traffic lights, there are a traffic light TL and a stop line LL that can be recognized by a camera. There is a feature. Therefore, it is assumed that the middle point of the traffic light TL on the far side of the intersection IS and the stop line LL on the front side of the intersection IS is assumed to be the center of the intersection IS, and the logic is calculated as the front and rear positions. Also, the lateral position of the center of the intersection IS is calculated based on the lane ID, which is the lane number in the lane LR in which the vehicle is traveling. If the traffic light TL is also placed in front of the intersection IS, the estimated position based on the image recognition result may be reflected in the estimation of the intersection position.

ここで、交差点ISを一旦検出し始めた後、検出できなくなったらゴースト、さらに連続で所定回数(例えば4回)以上検出できなくなったら交差点位置をリセットする。交差点ISが近すぎて認識できなくなった場合は、自車両の表示として車速とヨーレートで補完表示する。 Here, after the intersection IS has been detected once, if it cannot be detected, it is a ghost, and if it cannot be detected more than a predetermined number of times (for example, four times) in succession, the intersection position is reset. When the intersection IS is too close to be recognized, the vehicle speed and yaw rate are complementarily displayed as the display of the own vehicle.

上記のように、交差点ISの前後位置は、信号機TLおよび停止線LLの認識の状態に依存する特徴がある。このため、以下の特徴量情報を用いた信頼度マップにより、信頼度を推定する。図10は、これらの信頼度マップの一例を示す。なお、カメラ認識の信頼度だけでなく、ナビゲーション装置16による自車両位置の信頼度を反映させてもよい。本実施形態における信頼度も、これらの信頼度マップのうちの少なくとも1つを用いて取得され得る。複数の信頼度マップを用いて統合信頼度Pを算出する場合の処理は、上記の各実施形態と同様にして行われ得る。
・停止線LLのDNN認識スコア値,追跡状態による信頼度
・信号機TLのDNN認識スコア値,追跡状態による信頼度
・認識距離による信頼度:近いほど信頼する
・累積検知回数:多いほど信頼する
As described above, the front and rear positions of the intersection IS have characteristics that depend on the state of recognition of the traffic light TL and the stop line LL. Therefore, the reliability is estimated by a reliability map using the following feature amount information. FIG. 10 shows an example of these confidence maps. Note that the reliability of the vehicle position by the navigation device 16 may be reflected in addition to the reliability of camera recognition. Confidence in this embodiment can also be obtained using at least one of these confidence maps. The processing for calculating the integrated reliability P using a plurality of reliability maps can be performed in the same manner as in each of the above-described embodiments.
・Reliability based on the DNN recognition score value of the stop line LL and the tracking state ・Reliability based on the DNN recognition score value of the traffic light TL and the tracking state ・Reliability based on the recognition distance: The closer, the more reliable ・Cumulative detection count: The higher, the more reliable

(第七実施形態:シーンによる信頼度設定)
本実施形態は、走行シーンすなわち自車両の走行状況を信頼度算出に反映する例を示す。ヘッドアップディスプレイ装置11による経路表示をカメラ認識で表示制御する場合、カメラ認識が不得意なシーンなると表示がずれるおそれがある。そこで、このようなシーンにおいて、表示ずれが発生する前に予め信頼度を下げ、誤った表示とならないようにする。すなわち、本実施形態においては、信頼度算出部125は、信頼度が低くなるような自車両の走行状況が画像認識結果に含まれる場合、信頼度を下げる方向に補正する。
(Seventh embodiment: Reliability setting by scene)
This embodiment shows an example in which the driving scene, that is, the driving condition of the own vehicle is reflected in the reliability calculation. When the route display by the head-up display device 11 is controlled by camera recognition, there is a possibility that the display may be shifted in a scene where the camera recognition is not good. Therefore, in such a scene, the reliability is lowered in advance before display deviation occurs so as to prevent erroneous display. That is, in the present embodiment, the reliability calculation unit 125 corrects the reliability so as to decrease when the image recognition result includes the driving situation of the own vehicle that causes the reliability to be low.

カメラによる道路形状(すなわち道路勾配や道路曲率)認識に誤りが発生しやすい典型的なシーンは、例えば、交差点ISに接近中、逆光、夜、等である。また、道路曲率については、分岐に接近中のシーンでも、道路形状認識に誤りが発生しやすい。具体的には、交差点ISにおいては、矢印等の路面標示が多く、白線が掠れていることも少なくない。また、交差点ISの内側には白線がないため、カメラによる誤・未認識が発生しやすい。分岐については、分岐側の白線をカメラで認識してしまうと、誤った表示なってしまう。逆光については、コールタールの補修痕や路面が輝いてカメラの誤・未認識が発生しやすい。夜については、カメラの露出量が多くなって、ぼけやノイズによって路面上の黒い部分の模様が見えづらくなり、道路勾配や道路曲率の推定を誤りやすい。 Typical scenes in which errors are likely to occur in recognizing road shapes (that is, road gradients and road curvatures) by a camera are, for example, approaching an intersection IS, backlight, nighttime, and the like. As for the curvature of the road, an error is likely to occur in recognizing the shape of the road even in a scene approaching a branch. Specifically, at the intersection IS, there are many road markings such as arrows, and white lines are often blurred. In addition, since there are no white lines inside the intersection IS, camera errors and non-recognition tend to occur. As for branching, if the white line on the branching side is recognized by the camera, the display will be erroneous. As for the backlight, the repair marks of coal tar and the shiny road surface are likely to cause camera errors and unrecognized images. At night, the amount of exposure of the camera increases, and it becomes difficult to see the black patterns on the road surface due to blurring and noise, and it is easy to make errors in estimating the road gradient and road curvature.

そこで、図11における(A)のマップに示されているように、交差点位置の画像認識結果に基づく交差点ISまでの距離が近いほど、信頼度を下げる。また、図11における(B)のマップに示されているように、地図情報上における交差点ISや分岐までの距離が近いほど、信頼度を下げる。また、図11における(C)のマップに示されているように、カメラ画像上半分の白飛び領域量が多いほど信頼度を下げる。また、図11における(D)のマップに示されているように、カメラの露出量が多いほど信頼度を下げる。本実施形態における信頼度も、これらの信頼度マップのうちの少なくとも1つを用いて取得され得る。複数の信頼度マップを用いて統合信頼度Pを算出する場合の処理は、上記の各実施形態と同様にして行われ得る。 Therefore, as shown in the map of (A) in FIG. 11, the closer the distance to the intersection IS based on the image recognition result of the intersection position, the lower the reliability. Further, as shown in the map of FIG. 11B, the closer the distance to the intersection IS or the branch on the map information, the lower the reliability. Also, as shown in the map of (C) in FIG. 11, the reliability decreases as the amount of overexposed areas in the upper half of the camera image increases. Also, as shown in the map of (D) in FIG. 11, the reliability decreases as the exposure amount of the camera increases. Confidence in this embodiment can also be obtained using at least one of these confidence maps. The processing for calculating the integrated reliability P using a plurality of reliability maps can be performed in the same manner as in each of the above-described embodiments.

(第八実施形態:認識不安定性判定による信頼度設定)
本実施形態は、雪道、不整備道路、雨天路面反射シーン等、認識した道路形状が不安定な場合は表示出力を抑制する例を示す。すなわち、本実施形態においては、認識した白線横位置や推定カーブ半径といった認識結果の変動量を特徴量にして、不安定な道路形状かどうかを意味する「道路形状の不安定状況」を確率的に推定し、これに基づき表示を抑制する。図12~図14は、本実施形態における信頼度算出および表示状態制御の概要を示す。なお、図12において、「尤度」は、道路形状認識の不安定性の度合いを示し、「不安定度」とも称される。この「不安定度」は、上記各実施形態における信頼度の反対概念であって、100%から信頼度を減算した値に相当する。図14における各マップの縦軸P’は、不安定度を示す。
(Eighth embodiment: Reliability setting by recognition instability determination)
This embodiment shows an example in which display output is suppressed when the recognized road shape is unstable, such as a snowy road, an unmaintained road, or a road surface reflection scene in rainy weather. That is, in the present embodiment, the amount of variation in the recognition results, such as the recognized horizontal position of the white line and the estimated curve radius, is used as a feature quantity to stochastically calculate the "unstable road shape", which means whether the road is unstable. and suppress display based on this. 12 to 14 show an overview of reliability calculation and display state control in this embodiment. In FIG. 12, "likelihood" indicates the degree of instability of road shape recognition, and is also called "instability". This "instability" is the opposite concept of the reliability in each of the above embodiments, and corresponds to a value obtained by subtracting the reliability from 100%. The vertical axis P' of each map in FIG. 14 indicates the degree of instability.

具体的には、図12に示されているように、信頼度算出部125は、各特徴量の各々について尤度の瞬時値である瞬時尤度の変動量を算出するとともに、複数の瞬時尤度を統合することで統合尤度を算出する。複数の尤度の統合方法は、上記の各実施形態における信頼度の統合方法と同様である。また、信頼度算出部125は、いわゆる「重み付き回帰」の手法等を用いた線形予測により、統合尤度の算出精度を向上する。すなわち、表示情報生成部124は、道路形状の推定結果の信頼度を用いた重み付き回帰による道路形状の推定結果に基づいて、経路表示画像に対応する表示情報を生成する。 Specifically, as shown in FIG. 12, the reliability calculation unit 125 calculates the amount of change in the instantaneous likelihood, which is the instantaneous value of the likelihood, for each feature quantity, and calculates a plurality of instantaneous likelihood values. The integrated likelihood is calculated by integrating the degrees. The method of integrating multiple likelihoods is the same as the method of integrating reliability in each of the embodiments described above. In addition, the reliability calculation unit 125 improves the calculation accuracy of the integrated likelihood by linear prediction using a so-called “weighted regression” method or the like. That is, the display information generation unit 124 generates display information corresponding to the route display image based on the road shape estimation result by weighted regression using the reliability of the road shape estimation result.

表示状態設定部126は、信頼度算出部125により算出された統合尤度、すなわち、物標の画像認識結果の変動状態に応じて、表示画像IMの表示状態を設定する。具体的には、図13に示されているように、表示状態設定部126は、不安定度すなわち統合尤度が上側閾値THH(例えば90%)以上となった場合に表示抑制(例えば非表示化)をオンし、その後、不安定度が下側閾値THL(例えば50%)未満となった場合に表示抑制をオフして再表示する。統合尤度が一旦上側閾値THH以上となって表示抑制がオンした時刻t1以降は、統合尤度が上側閾値THH未満となっても、下側閾値THL未満となる時刻t2までは表示抑制のオン状態が維持される。このように、表示状態設定部126は、上側閾値THHと下側閾値THLとを用いて表示状態をヒステリシス制御する。 The display state setting unit 126 sets the display state of the display image IM according to the integrated likelihood calculated by the reliability calculation unit 125, that is, the change state of the target image recognition result. Specifically, as shown in FIG. 13, the display state setting unit 126 suppresses display (for example, non-display) when the degree of instability, that is, the integrated likelihood, is equal to or higher than the upper threshold THH (for example, 90%). after that, when the degree of instability becomes less than the lower threshold value THL (for example, 50%), the display suppression is turned off and displayed again. After time t1 when the integrated likelihood once becomes equal to or greater than the upper threshold THH and display suppression is turned on, even if the integrated likelihood becomes less than the upper threshold THH, display suppression is turned on until time t2 when it becomes less than the lower threshold THL. state is maintained. Thus, the display state setting unit 126 hysteresis-controls the display state using the upper threshold THH and the lower threshold THL.

不安定度の判定方法は、以下の通りである。白線認識については、白線検知フラグ変動量、白線推定R変動量、および白線横位置変動量を特徴量情報とする。白線検知フラグ変動量については、図14における(A)のマップに示されているように、検知/未検知を繰り返すと認識が不安定とする。白線推定R変動量については、図14における(B)のマップに示されているように、認識した白線の向きの変動量が大きい場合は不安定とする。白線横位置変動量については、図14における(C)のマップに示されているように、認識した白線位置の変動量が大きい場合は不安定とする。道路勾配については、道路勾配の推定成功フラグ変動量と、道路勾配の推定値の変動量とを特徴量情報とする。道路勾配推定成功フラグ変動量については、図14における(D)のマップに示されているように、推定の成功/不成功を繰り返すと推定が不安定とする。道路勾配の変動量については、図14における(E)および(F)のマップに示されているように、推定した勾配の変動量が大きい場合は推定が不安定とし、縦断時と横断時とでマップを分ける。あるいは、例えば、認識結果情報を用いなくてもカメラ出力により認識可否が判定できれば(例えば、画面全体が真っ白な状態が継続している、カメラの温度が異常に高い、雨が強すぎて視界不良、車速が速すぎて動作保証外、等)、これを用いて不安定度を取得してもよい。 The method of determining the degree of instability is as follows. For white line recognition, the white line detection flag fluctuation amount, the white line estimated R fluctuation amount, and the white line lateral position fluctuation amount are used as feature amount information. As for the white line detection flag fluctuation amount, as shown in the map of (A) in FIG. 14, recognition becomes unstable when detection/non-detection is repeated. As shown in the map of FIG. 14B, the estimated white line R variation amount is unstable when the amount of variation in the direction of the recognized white line is large. As shown in the map of (C) in FIG. 14, the white line lateral position variation amount is unstable when the recognized white line position variation amount is large. As for the road gradient, the amount of change in the estimation success flag of the road gradient and the amount of change in the estimated value of the road gradient are used as feature quantity information. Regarding the road gradient estimation success flag fluctuation amount, as shown in the map of (D) in FIG. 14, the estimation becomes unstable when the estimation success/failure is repeated. As shown in the maps of (E) and (F) in FIG. 14, the amount of variation in road gradient is assumed to be unstable when the estimated variation in gradient is large, and the estimation is assumed to be unstable. Divide the map with Alternatively, for example, if it is possible to determine whether recognition is possible by camera output without using the recognition result information (for example, the entire screen continues to be pure white, the temperature of the camera is abnormally high, the rain is too strong and visibility is poor , the vehicle speed is too fast and the operation is not guaranteed, etc.), this may be used to acquire the instability.

(変形例)
本発明は、上記実施形態に限定されるものではない。故に、上記実施形態に対しては、適宜変更が可能である。以下、代表的な変形例について説明する。以下の変形例の説明においては、上記実施形態との相違点を主として説明する。また、上記実施形態と変形例とにおいて、相互に同一または均等である部分には、同一符号が付されている。したがって、以下の変形例の説明において、上記実施形態と同一の符号を有する構成要素に関しては、技術的矛盾または特段の追加説明なき限り、上記実施形態における説明が適宜援用され得る。
(Modification)
The present invention is not limited to the above embodiments. Therefore, the above embodiment can be modified as appropriate. A representative modified example will be described below. In the following description of the modified example, differences from the above embodiment will be mainly described. Moreover, in the above-described embodiment and modifications, the same or equivalent portions are denoted by the same reference numerals. Therefore, in the description of the modification below, the description in the above embodiment can be used as appropriate for components having the same reference numerals as those in the above embodiment, unless there is a technical contradiction or special additional description.

本発明は、上記実施形態にて示された具体的な装置構成に、何ら限定されるものではない。すなわち、例えば、車載システム10を搭載する車両1は、普通自動車に限定されない。具体的には、かかる車両1は、貨物トラック等の大型自動車であってもよい。車輪数についても特段の限定はなく、三輪自動車であってもよいし、貨物トラック等の六輪または八輪自動車であってもよい。車両1の種類は、内燃機関のみを備えたコンベンショナル自動車であってもよいし、内燃機関を備えない電気自動車または燃料電池車であってもよいし、いわゆるハイブリッド車であってもよい。車両1における車体2の形状および構造も、箱状すなわち平面視における略矩形状に限定されない。車両1の用途、ステアリングホイール8の位置、乗員数、等についても、特段の限定はない。すなわち、ドライバDは、動的運転タスクを担当あるいは実行する自車両乗員であればよい。換言すれば、ドライバDが運転操作を実行可能であれば、ドライバDの着座位置についても、特段の限定はない。また、ステアリングホイール8に代えて、あるいはこれとともに、ジョイスティック等の任意の操作デバイスが用いられ得る。 The present invention is by no means limited to the specific device configurations shown in the above embodiments. That is, for example, the vehicle 1 on which the in-vehicle system 10 is mounted is not limited to an ordinary automobile. Specifically, such a vehicle 1 may be a large automobile such as a freight truck. The number of wheels is not particularly limited, and it may be a three-wheeled vehicle, or a six-wheeled or eight-wheeled vehicle such as a freight truck. The type of vehicle 1 may be a conventional vehicle equipped with only an internal combustion engine, an electric vehicle or fuel cell vehicle without an internal combustion engine, or a so-called hybrid vehicle. The shape and structure of the vehicle body 2 of the vehicle 1 are also not limited to a box shape, that is, a substantially rectangular shape in plan view. There are no particular restrictions on the use of the vehicle 1, the position of the steering wheel 8, the number of passengers, and the like. In other words, the driver D may be an occupant of the own vehicle who is in charge of or executes the dynamic driving task. In other words, the seating position of the driver D is not particularly limited as long as the driver D can execute the driving operation. Also, any operating device such as a joystick may be used in place of or in conjunction with the steering wheel 8 .

車載システム10を構成する通信規格としては、CAN(国際登録商標)以外のもの、例えば、FlexRay(国際登録商標)等も採用され得る。また、車載システム10を構成する通信規格は、一種類に限定されない。例えば、車載システム10は、LIN等の通信規格に準拠したサブネットワーク回線を有していてもよい。LINはLocal Interconnect Networkの略である。 As a communication standard that configures the in-vehicle system 10, standards other than CAN (internationally registered trademark), such as FlexRay (internationally registered trademark), may be employed. In addition, the communication standard configuring the in-vehicle system 10 is not limited to one type. For example, the in-vehicle system 10 may have a subnetwork line conforming to a communication standard such as LIN. LIN is an abbreviation for Local Interconnect Network.

表示制御装置12は、プロセッサおよびメモリを備えた、いわゆる車載コンピュータとしての構成に限定されない。具体的には、例えば、表示制御装置12の全部あるいは一部は、上記のような動作を可能に構成されたデジタル回路、例えばASICあるいはFPGAを備えた構成であってもよい。ASICはApplication Specific Integrated Circuitの略である。FPGAはField Programmable Gate Arrayの略である。 The display control device 12 is not limited to a configuration as a so-called in-vehicle computer including a processor and memory. Specifically, for example, all or part of the display control device 12 may be configured with a digital circuit, such as an ASIC or FPGA, configured to enable the above operations. ASIC is an abbreviation for Application Specific Integrated Circuit. FPGA is an abbreviation for Field Programmable Gate Array.

上記実施形態にて説明した、各種の動作、手順、あるいは処理を実行可能とする、本発明に係るプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移的実体的記憶媒体に記憶され得る。すなわち、上記の各機能構成および方法は、これを実現するための手順を含むコンピュータプログラム、あるいは、当該プログラムを記憶した非遷移的実体的記憶媒体としても表現可能である。かかるプログラムは、V2X通信を介して、ダウンロードあるいはアップグレードされ得る。V2XはVehicle to Xの略である。あるいは、かかるプログラムは、車両1の製造工場、整備工場、販売店、等に設けられた端末機器を介して、ダウンロードあるいはアップグレードされ得る。かかるプログラムの格納先は、メモリーカード、光学ディスク、磁気ディスク、等であってもよい。 A program according to the present invention that enables execution of various operations, procedures, or processes described in the above embodiments is stored in a computer-readable non-transitional tangible storage medium as instructions executed by a computer. can be That is, each of the functional configurations and methods described above can be expressed as a computer program including procedures for realizing it, or as a non-transitional physical storage medium storing the program. Such programs can be downloaded or upgraded via V2X communication. V2X is an abbreviation for Vehicle to X. Alternatively, such a program can be downloaded or upgraded via terminal equipment provided at the vehicle 1 manufacturing plant, maintenance plant, dealer, or the like. Such programs may be stored in a memory card, an optical disk, a magnetic disk, or the like.

上記実施形態にて説明した、各種の動作、手順、あるいは処理を実行可能とする、本発明に係るプログラムは、V2X通信を介して、ダウンロードあるいはアップグレードされ得る。V2XはVehicle to Xの略である。あるいは、かかるプログラムは、自車両の製造工場、整備工場、販売店、等に設けられた端末機器を介して、ダウンロードあるいはアップグレードされ得る。かかるプログラムの格納先は、メモリーカード、光学ディスク、磁気ディスク、等であってもよい。 Programs according to the present invention that enable execution of various operations, procedures, or processes described in the above embodiments can be downloaded or upgraded via V2X communication. V2X is an abbreviation for Vehicle to X. Alternatively, such a program can be downloaded or upgraded via terminal equipment provided at the vehicle's manufacturing plant, maintenance plant, dealer, or the like. Such programs may be stored in a memory card, an optical disk, a magnetic disk, or the like.

ヘッドアップディスプレイ装置11は、フロントウィンドシールド4に投影するタイプに限定されない。すなわち、例えば、ヘッドアップディスプレイ装置11は、いわゆるコンバイナ方式であってもよい。コンバイナ方式のヘッドアップディスプレイ装置11は、いわゆる後付けタイプのものであってもよい。 The head-up display device 11 is not limited to the type that projects onto the front windshield 4 . That is, for example, the head-up display device 11 may be of a so-called combiner type. The combiner-type head-up display device 11 may be of a so-called retrofit type.

カメラとしての画像撮像装置13は、車体2あるいは車室3に固定的に装着されるタイプに限定されない。すなわち、例えば、画像撮像装置13として、いわゆる後付けのドライブレコーダに装備されたカメラを用いてもよい。あるいは、例えば、画像撮像装置13として、乗員により車室3内に持ち込まれた携帯端末に装備されたカメラ(例えばいわゆるスマートフォンに装備されたアウトカメラ)を用いてもよい。この場合、ドライバDの視点を検知するための不図示のドライバステータスモニタや車室内撮影用カメラに代えて、かかる携帯端末に装備された別のカメラ(例えばいわゆるスマートフォンに装備されたインカメラ)が用いられ得る。あるいは、画像撮像装置13として、カメラに代えてLiDARを用いてもよい。 The imaging device 13 as a camera is not limited to a type fixedly attached to the vehicle body 2 or the vehicle interior 3 . That is, for example, a camera mounted on a so-called retrofitted drive recorder may be used as the imaging device 13 . Alternatively, for example, as the image capturing device 13, a camera (for example, a so-called out-camera equipped in a smart phone) installed in a mobile terminal brought into the vehicle interior 3 by the passenger may be used. In this case, instead of a driver status monitor (not shown) for detecting the viewpoint of driver D or a camera for photographing the interior of the vehicle, another camera (for example, an in-camera equipped in a so-called smartphone) equipped in the mobile terminal is used. can be used. Alternatively, a LiDAR may be used as the imaging device 13 instead of the camera.

認識部14と認識結果取得部121とは一体化され得る。すなわち、認識結果取得部121は、画像撮像装置13により撮像された前景の画像に基づいて、前景に含まれる物標を画像認識するようになっていてもよい。換言すれば、本発明は、画像撮像装置13により撮像された前景の画像認識結果を運転制御等に利用する自動運転システムあるいはADASシステムを備えない車両1に対しても、良好に適用され得る。 The recognition unit 14 and the recognition result acquisition unit 121 can be integrated. That is, the recognition result acquisition unit 121 may perform image recognition of the target included in the foreground based on the foreground image captured by the imaging device 13 . In other words, the present invention can be applied favorably to a vehicle 1 that does not have an automatic driving system or an ADAS system that uses the recognition result of the foreground imaged by the imaging device 13 for driving control or the like.

ナビゲーション装置16は、ダッシュボード5に固定的に装着されるタイプに限定されない。すなわち、例えば、ナビゲーション装置16として、乗員により車室3内に持ち込まれた携帯端末を用いてもよい。この場合、上記のように、携帯端末に装備されたカメラが、画像撮像装置13、および/または、ドライバDの視点を検知するためのセンサとして用いられ得る。 The navigation device 16 is not limited to a type fixedly attached to the dashboard 5 . That is, for example, a portable terminal brought into the vehicle interior 3 by the passenger may be used as the navigation device 16 . In this case, as described above, a camera mounted on the mobile terminal may be used as a sensor for detecting the image capturing device 13 and/or the viewpoint of the driver D.

本発明は、上記実施形態にて示された具体的な動作態様あるいは動作例に限定されない。例えば、信頼度あるいは統合信頼度をローパスフィルタ処理してもよい。また、表示形態の調整に代えて、あるいは、これとともに、表示画像IMの形状そのものの補正を行ってもよい。具体的には、例えば、道路勾配=画像認識による推定値×信頼度として道路勾配の今回算出値を算出するとともに、道路勾配=α×今回算出値+(1-α)×過去値のようにローパスフィルタ処理してもよい。道路曲率等についても同様である。また、ヘッドアップディスプレイ装置11における表示画像IMによる経路表示を抑制する場合であっても、ナビゲーション装置16における経路表示は抑制しなくてもよい。 The present invention is not limited to the specific operational modes or operational examples shown in the above embodiments. For example, confidence or combined confidence may be low-pass filtered. Further, the shape of the display image IM itself may be corrected in place of or along with the adjustment of the display form. Specifically, for example, the currently calculated value of the road gradient is calculated as road gradient = estimated value by image recognition x reliability, and road gradient = α × current calculated value + (1-α) × past value like Low-pass filtering may be performed. The same applies to road curvature and the like. Further, even when the route display by the display image IM on the head-up display device 11 is suppressed, the route display on the navigation device 16 does not have to be suppressed.

本発明は、上記実施形態にて示された具体的な処理態様に限定されない。すなわち、例えば、「閾値以上」と「閾値を超える」とは、技術的に矛盾しない範囲内において、適宜置換可能である。同様に、「閾値以下」と「閾値未満」とは、技術的に矛盾しない範囲内において、適宜置換可能である。 The present invention is not limited to the specific processing modes shown in the above embodiments. In other words, for example, the terms "equal to or greater than the threshold" and "exceeding the threshold" can be appropriately interchanged within a technically consistent range. Similarly, "below the threshold value" and "less than the threshold value" can be interchanged as appropriate within a technically consistent range.

いわゆる「重み付き回帰」は、上記の各実施形態における道路形状推定に対して適用可能である。より信頼できる認識点を用いて道路形状推定を行うことで、道路形状推定精度が向上し、表示ずれや違和感のより少ない重畳表示が可能となる。なお、「重み付き回帰」それ自体の内容の詳細は、本願の出願時点において既に公知あるいは周知となっているため、本明細書においては説明を省略する。 So-called "weighted regression" is applicable to road shape estimation in each of the above embodiments. By estimating the road shape using more reliable recognition points, the accuracy of road shape estimation is improved, and superimposed display with less display deviation and discomfort becomes possible. Details of the contents of the "weighted regression" itself are already known or well known at the time of filing of the present application, and thus description thereof will be omitted in this specification.

「取得」、「推定」、「検出」、「検知」、「算出」、「抽出」、「生成」、等の、相互に類似する表現は、技術的に矛盾しない範囲内において、適宜置換可能である。 Mutually similar expressions such as "obtain", "estimate", "detect", "detect", "calculate", "extract", and "generate" can be replaced as appropriate within the scope of technical compatibility. is.

上記実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、構成要素の個数、量、範囲等の数値が言及されている場合、特に必須であると明示した場合および原理的に明らかに特定の数値に限定される場合等を除き、その特定の数値に本発明が限定されることはない。同様に、構成要素等の形状、方向、位置関係等が言及されている場合、特に必須であると明示した場合および原理的に特定の形状、方向、位置関係等に限定される場合等を除き、その形状、方向、位置関係等に本発明が限定されることはない。 Needless to say, the elements constituting the above-described embodiments are not necessarily essential, unless explicitly stated as essential or clearly considered essential in principle. In addition, when numerical values such as the number, amount, range, etc. of a constituent element are mentioned, unless it is explicitly stated that it is particularly essential, or when it is clearly limited to a specific numerical value in principle, the specific numerical value The present invention is not limited to Similarly, when the shape, direction, positional relationship, etc. of the constituent elements, etc. are mentioned, unless it is explicitly stated that it is particularly essential, or when it is limited to a specific shape, direction, positional relationship, etc. in principle , the shape, direction, positional relationship, etc., of which the present invention is not limited.

変形例も、上記の例示に限定されない。また、複数の変形例が、互いに組み合わされ得る。また、上記の複数の実施形態は、互いに重複適用され得る。また、上記実施形態の全部または一部と、変形例の全部または一部とが、互いに組み合わされ得る。 Modifications are also not limited to the above examples. Also, multiple variants can be combined with each other. In addition, the multiple embodiments described above may be overlapped with each other. Also, all or part of the above embodiments and all or part of the modifications may be combined with each other.

1 自車両
11 ヘッドアップディスプレイ装置(表示装置)
12 表示制御装置
13 画像撮像装置
121 認識結果取得部
122 自車両位置取得部
123 経路情報取得部
124 表示情報生成部
125 中心位置推定部
TD 進行方向表示
1 own vehicle 11 head-up display device (display device)
REFERENCE SIGNS LIST 12 display control device 13 imaging device 121 recognition result acquisition unit 122 host vehicle position acquisition unit 123 route information acquisition unit 124 display information generation unit 125 center position estimation unit TD traveling direction display

Claims (9)

自車両(1)に搭載されることで当該自車両の前景に表示画像(IM)を重畳表示する表示装置(11)における表示動作を制御するように構成された、表示制御装置(12)であって、
画像撮像装置(13)による前記前景の撮像画像に基づく物標の画像認識結果に対応する認識結果情報を取得する、認識結果取得部(121)と
前記認識結果情報の信頼度を、当該認識結果情報が取得される過程の中間情報または当該認識結果情報である、特徴量情報に基づいて算出する、信頼度算出部(125)と、
前記信頼度算出部により算出された前記信頼度に基づいて、前記表示画像における表示状態を設定する、表示状態設定部(126)と、
を備えた表示制御装置。
A display control device (12) configured to control the display operation of a display device (11) that superimposes and displays a display image (IM) on the foreground of the vehicle (1) by being mounted on the vehicle (1) There is
a recognition result acquisition unit (121) for acquiring recognition result information corresponding to a target image recognition result based on the foreground captured image by an imaging device (13); a reliability calculation unit (125) that calculates based on feature amount information, which is intermediate information in the process of acquiring information or the recognition result information;
a display state setting unit (126) for setting a display state in the display image based on the reliability calculated by the reliability calculation unit;
A display controller with
前記信頼度算出部は、
複数種類の前記特徴量情報のうちの一種類である第一特徴量情報に対応して用意された、前記第一特徴量情報と第一信頼度との対応関係を規定した第一対応関係情報を用いて、前記第一信頼度を取得し、
複数種類の前記特徴量情報のうちの他の一種類である第二特徴量情報に対応して用意された、前記第二特徴量情報と第二信頼度との対応関係を規定した第二対応関係情報を用いて、前記第二信頼度を取得し、
取得した前記第一信頼度と前記第二信頼度とを統合することで、前記信頼度を算出する、
請求項1に記載の表示制御装置。
The reliability calculation unit
First correspondence information that defines a correspondence relationship between the first feature amount information and the first reliability, prepared corresponding to the first feature amount information that is one type of the plurality of types of the feature amount information. to obtain the first reliability using
A second correspondence that defines a correspondence relationship between the second feature amount information and the second reliability, prepared corresponding to the second feature amount information that is another type of the plurality of types of the feature amount information. using the relationship information to obtain the second reliability;
calculating the reliability by integrating the obtained first reliability and the second reliability;
The display control device according to claim 1.
前記表示状態設定部は、前記信頼度が高いほど前記表示画像の視認性が上がるように、前記表示状態を設定する、
請求項1または2に記載の表示制御装置。
The display state setting unit sets the display state such that the visibility of the display image increases as the reliability increases.
The display control device according to claim 1 or 2.
前記信頼度算出部は、前記信頼度が低くなるような前記自車両の走行状況が前記画像認識結果に含まれる場合、前記信頼度を下げる方向に補正する、
請求項1~3のいずれか1つに記載の表示制御装置。
When the image recognition result includes a driving situation of the own vehicle that causes the reliability to be low, the reliability calculation unit corrects the reliability in the direction of decreasing the reliability.
The display control device according to any one of claims 1 to 3.
前記表示状態設定部は、前記物標の前記画像認識結果の変動状態に応じて、前記表示状態を設定する、
請求項1~4のいずれか1つに記載の表示制御装置。
The display state setting unit sets the display state according to a change state of the image recognition result of the target.
The display control device according to any one of claims 1 to 4.
前記認識結果情報に基づいて、前記表示装置に前記表示画像を表示させるための表示情報を生成する、表示情報生成部(124)をさらに備え、
前記信頼度算出部は、前記自車両の進行先道路における道路勾配または道路曲率である道路形状の推定結果の前記信頼度を算出し、
前記表示情報生成部は、前記道路形状の前記推定結果を加味して前記自車両の進行経路を表示するための前記表示画像である経路表示画像に対応する前記表示情報を生成し、
前記表示状態設定部は、前記経路表示画像における前記表示状態を、前記道路形状の前記推定結果の前記信頼度に基づいて設定する、
請求項1~5のいずれか1つに記載の表示制御装置。
further comprising a display information generation unit (124) that generates display information for displaying the display image on the display device based on the recognition result information,
The reliability calculation unit calculates the reliability of an estimation result of a road shape, which is a road gradient or a road curvature, on a road ahead of the vehicle,
The display information generation unit generates the display information corresponding to the route display image, which is the display image for displaying the traveling route of the vehicle, taking into consideration the estimation result of the road shape,
The display state setting unit sets the display state in the route display image based on the reliability of the estimation result of the road shape.
The display control device according to any one of claims 1 to 5.
前記表示情報生成部は、前記道路形状の前記推定結果の前記信頼度を用いた重み付き回帰による前記道路形状の前記推定結果に基づいて、前記経路表示画像に対応する前記表示情報を生成する、
請求項6に記載の表示制御装置。
The display information generation unit generates the display information corresponding to the route display image based on the estimation result of the road geometry by weighted regression using the reliability of the estimation result of the road geometry.
The display control device according to claim 6.
前記信頼度算出部は、前記自車両の走行中道路内での道路幅員方向における位置に対応する横位置情報の推定結果の前記信頼度を算出し、
前記表示状態設定部は、前記自車両の周囲の地物に関する案内情報を表示するための前記表示画像における前記表示状態を、前記横位置情報の推定結果の前記信頼度に基づいて設定する、
請求項1~7のいずれか1つに記載の表示制御装置。
The reliability calculation unit calculates the reliability of an estimation result of lateral position information corresponding to a position in the road width direction of the vehicle on which the vehicle is traveling,
The display state setting unit sets the display state of the display image for displaying guidance information about features around the own vehicle based on the reliability of the estimation result of the lateral position information.
The display control device according to any one of claims 1 to 7.
自車両(1)に搭載されることで当該自車両の前景に表示画像(IM)を重畳表示する表示装置(11)における表示動作を制御するように構成された表示制御装置(12)により実行される、表示制御プログラムであって、
前記表示制御装置によって実行される処理は、
画像撮像装置(13)による前記前景の撮像画像に基づく物標の画像認識結果に対応する認識結果情報を取得する、認識結果取得処理と、
前記認識結果情報の信頼度を、当該認識結果情報が取得される過程の中間情報または当該認識結果情報である、特徴量情報に基づいて算出する、信頼度算出処理と、
前記信頼度算出処理により算出された前記信頼度に基づいて、前記表示画像における表示状態を設定する、表示状態設定処理と、
を含む、
表示制御プログラム。
Executed by a display control device (12) configured to control the display operation of a display device (11) mounted on a vehicle (1) to superimpose a display image (IM) on the foreground of the vehicle (1) a display control program, comprising:
The processing executed by the display control device includes:
a recognition result acquisition process for acquiring recognition result information corresponding to a target image recognition result based on the foreground captured image by the imaging device (13);
Reliability calculation processing for calculating the reliability of the recognition result information based on feature amount information, which is intermediate information in the process of acquiring the recognition result information or the recognition result information;
display state setting processing for setting a display state in the display image based on the reliability calculated by the reliability calculation processing;
including,
Display control program.
JP2022011073A 2022-01-27 2022-01-27 Display control device and display control program Pending JP2023109519A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022011073A JP2023109519A (en) 2022-01-27 2022-01-27 Display control device and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022011073A JP2023109519A (en) 2022-01-27 2022-01-27 Display control device and display control program

Publications (1)

Publication Number Publication Date
JP2023109519A true JP2023109519A (en) 2023-08-08

Family

ID=87522654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022011073A Pending JP2023109519A (en) 2022-01-27 2022-01-27 Display control device and display control program

Country Status (1)

Country Link
JP (1) JP2023109519A (en)

Similar Documents

Publication Publication Date Title
US9507345B2 (en) Vehicle control system and method
US10964217B2 (en) Travel control method and travel control apparatus
EP2461305B1 (en) Road shape recognition device
US10179588B2 (en) Autonomous vehicle control system
EP2933790B1 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
US9734719B2 (en) Method and apparatus for guiding a vehicle in the surroundings of an object
US20140240502A1 (en) Device for Assisting a Driver Driving a Vehicle or for Independently Driving a Vehicle
US9267808B2 (en) Visual guidance system
CN109804420B (en) Vehicle control device
CN107010043A (en) The travel controlling system of vehicle
JP7260064B2 (en) Own vehicle position estimation device, running position estimation method
JP5994574B2 (en) Position guidance system, method and program
WO2022138123A1 (en) Available parking space identification device, available parking space identification method, and program
CN115769050A (en) Vehicle position estimation device and travel control device
JP2021026693A (en) Display control apparatus, display control method, and display control program
JP2022014729A (en) Adverse environment determination device, and adverse environment determination method
WO2021020033A1 (en) Display control device, display control method, and display control program
JP2023109519A (en) Display control device and display control program
US10864856B2 (en) Mobile body surroundings display method and mobile body surroundings display apparatus
JP7386692B2 (en) Driving support method and driving support device
JP2022140026A (en) Image processing device, image processing method and program
JP2023015597A (en) Display control device and display control program
JP7447842B2 (en) Vehicle display control device, vehicle display control method
US11640173B2 (en) Control apparatus, control method, and computer-readable storage medium storing program
JP7362800B2 (en) Vehicle control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240410