JP2021089578A - Display control device - Google Patents

Display control device Download PDF

Info

Publication number
JP2021089578A
JP2021089578A JP2019219671A JP2019219671A JP2021089578A JP 2021089578 A JP2021089578 A JP 2021089578A JP 2019219671 A JP2019219671 A JP 2019219671A JP 2019219671 A JP2019219671 A JP 2019219671A JP 2021089578 A JP2021089578 A JP 2021089578A
Authority
JP
Japan
Prior art keywords
unit
display
control device
display control
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019219671A
Other languages
Japanese (ja)
Other versions
JP7351734B2 (en
Inventor
裕丈 石神
Hirotake Ishigami
裕丈 石神
勝之 今西
Katsuyuki Imanishi
勝之 今西
大祐 竹森
Daisuke Takemori
大祐 竹森
大翔 坂野
Taisho Sakano
大翔 坂野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2019219671A priority Critical patent/JP7351734B2/en
Publication of JP2021089578A publication Critical patent/JP2021089578A/en
Application granted granted Critical
Publication of JP7351734B2 publication Critical patent/JP7351734B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a display control device that can apparently suppress a change in a distance between a display object and a road surface even when a road in front of a vehicle has a slope.SOLUTION: A display control device 1 uses a display unit to display a display object superimposed on a landscape in front of a vehicle. The display control device 1 includes: an image acquisition unit 9 that acquires an image; a top edge detection unit 11 that detects a top edge of a road area in the image; a slope estimation unit 13 that estimates a slope of a road; a display position determination unit 15 that determines, based on the slope, a display position of the display object in a vertical direction; and a display unit 17 that displays the display object at the display position determined by the display position determination unit. The slope estimation unit 13 estimates, based on the position of the top edge in the image, the slope of the road.SELECTED DRAWING: Figure 2

Description

本開示は表示制御装置に関する。 The present disclosure relates to a display control device.

特許文献1に車両用表示装置が開示されている。車両用表示装置は、道路の路面等の実景の上に表示物を重畳して表示する。 Patent Document 1 discloses a vehicle display device. The vehicle display device superimposes and displays a display object on an actual view such as a road surface.

WO2018/030320A1WO2018 / 03320A1

車両の前方の道路に勾配が存在することがある。表示物の表示位置が一定であると、表示物と道路の路面との距離が、勾配に応じて変化してしまう。例えば、勾配が存在しない場合に、表示物が路面に接するように表示されていたとする。表示物の表示位置が一定であると、車両の前方に下りの勾配がある場合、表示物は、路面から浮き上がって表示されてしまう。また、表示物の表示位置が一定であると、車両の前方に上りの勾配がある場合、表示物は、路面の中に沈み込んだように表示されてしまう。 There may be a slope on the road in front of the vehicle. If the display position of the display object is constant, the distance between the display object and the road surface of the road changes according to the slope. For example, suppose that the displayed object is displayed so as to touch the road surface when there is no gradient. If the display position of the display object is constant and there is a downward slope in front of the vehicle, the display object will be displayed floating from the road surface. Further, if the display position of the displayed object is constant and there is an upward slope in front of the vehicle, the displayed object is displayed as if it has sunk into the road surface.

本開示の1つの局面では、車両の前方の道路に勾配が存在する場合でも、見かけ上、表示物と道路の路面との距離の変化を抑制できる表示制御装置を提供することが好ましい。 In one aspect of the present disclosure, it is preferable to provide a display control device that can apparently suppress a change in the distance between the display object and the road surface even when the road in front of the vehicle has a slope.

本開示の1つの局面は、表示装置(47)を用いて、車両(3)の前方の風景(73)に重畳した表示物(71)を表示する表示制御装置(1)である。表示制御装置は、前記車両の前方の風景を表す画像(53)を取得するように構成された画像取得ユニット(9)と、前記画像において、道路の領域(55)の上端(61)を検出するように構成された上端検出ユニット(11)と、前記道路の勾配を推定するように構成された勾配推定ユニット(13)と、前記勾配推定ユニットが推定した前記勾配に基づき、前記表示物の上下方向における表示位置を決定するように構成された表示位置決定ユニット(15)と、前記表示装置を用いて、前記表示位置決定ユニットが決定した前記表示位置に前記表示物を表示するように構成された表示ユニット(17)と、を備える。 One aspect of the present disclosure is a display control device (1) that uses a display device (47) to display a display object (71) superimposed on a landscape (73) in front of the vehicle (3). The display control device detects an image acquisition unit (9) configured to acquire an image (53) representing the landscape in front of the vehicle, and an upper end (61) of a road region (55) in the image. Based on the upper end detection unit (11) configured to perform the above, the gradient estimation unit (13) configured to estimate the slope of the road, and the gradient estimated by the gradient estimation unit, the display object. Using the display position determination unit (15) configured to determine the display position in the vertical direction and the display device, the display object is configured to be displayed at the display position determined by the display position determination unit. The display unit (17) is provided.

前記勾配推定ユニットは、前記画像における前記上端の位置に基づき、前記道路の勾配を推定するように構成された上端使用ユニット(31)を備える。
本開示の1つの局面である表示制御装置は、道路の勾配を推定する。本開示の1つの局面である表示制御装置は、推定された道路の勾配に基づき、表示物の表示位置を決定する。そのため、本開示の1つの局面である表示制御装置によれば、道路の勾配がある場合でも、見かけ上、表示物と道路の路面との距離の変化を抑制することができる。
The gradient estimation unit includes an upper end use unit (31) configured to estimate the slope of the road based on the position of the upper end in the image.
The display control device, which is one aspect of the present disclosure, estimates the slope of the road. The display control device, which is one aspect of the present disclosure, determines the display position of the display object based on the estimated road slope. Therefore, according to the display control device, which is one aspect of the present disclosure, it is possible to apparently suppress a change in the distance between the display object and the road surface even when there is a slope of the road.

本開示の1つの局面である表示制御装置は、道路の領域の上端の位置に基づき、道路の勾配を推定する。そのため本開示の1つの局面である表示制御装置は、道路の勾配を容易に推定することができる。また、本開示の1つの局面である表示制御装置は、他の推定方法が使用できない場合でも、道路の勾配を推定できる。 The display control device, which is one aspect of the present disclosure, estimates the slope of the road based on the position of the upper end of the area of the road. Therefore, the display control device, which is one aspect of the present disclosure, can easily estimate the slope of the road. Further, the display control device, which is one aspect of the present disclosure, can estimate the slope of the road even when another estimation method cannot be used.

表示制御装置の構成を表すブロック図である。It is a block diagram which shows the structure of a display control device. 表示制御装置の機能的構成を表すブロック図である。It is a block diagram which shows the functional structure of a display control device. 表示制御装置が実行する表示処理を表すフローチャートである。It is a flowchart which shows the display process which a display control apparatus executes. 表示制御装置が実行する表示処理を表すフローチャートである。It is a flowchart which shows the display process which a display control apparatus executes. 表示制御装置が実行する道路の領域検出処理を表すフローチャートである。It is a flowchart which shows the area detection process of the road executed by a display control device. テンプレートと、前方画像とを表す説明図である。It is explanatory drawing which shows the template and the front image. 前方画像、道路の領域、及び上端を表す説明図である。It is explanatory drawing which shows the front image, the area of a road, and the upper end. 道路の領域の上端の位置を用いて前方勾配を推定する方法を表す説明図である。It is explanatory drawing which shows the method of estimating the forward gradient using the position of the upper end of the area of a road. 表示物の例を表す説明図である。It is explanatory drawing which shows the example of the display object.

本開示の例示的な実施形態について図面を参照しながら説明する。
<第1実施形態>
1.表示制御装置1の構成
表示制御装置1の構成を、図1及び図2に基づき説明する。図1に示すように、表示制御装置1は、車両3に搭載されている。表示制御装置1は、CPU5と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ7とする)と、を有するマイクロコンピュータを備える。
An exemplary embodiment of the present disclosure will be described with reference to the drawings.
<First Embodiment>
1. 1. Configuration of Display Control Device 1 The configuration of the display control device 1 will be described with reference to FIGS. 1 and 2. As shown in FIG. 1, the display control device 1 is mounted on the vehicle 3. The display control device 1 includes a microcomputer having a CPU 5 and, for example, a semiconductor memory such as a RAM or a ROM (hereinafter referred to as a memory 7).

表示制御装置1の各機能は、CPU5が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ7が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、表示制御装置1は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。 Each function of the display control device 1 is realized by the CPU 5 executing a program stored in a non-transitional substantive recording medium. In this example, the memory 7 corresponds to a non-transitional substantive recording medium in which a program is stored. Moreover, when this program is executed, the method corresponding to the program is executed. The display control device 1 may include one microcomputer or a plurality of microcomputers.

表示制御装置1は、図2に示すように、画像取得ユニット9と、上端検出ユニット11と、勾配推定ユニット13と、表示位置決定ユニット15と、表示ユニット17と、車線境界線検出ユニット19と、位置情報取得ユニット21と、読み出しユニット23と、物標検出ユニット25と、信頼度算出ユニット27と、明瞭度決定ユニット29と、を備える。 As shown in FIG. 2, the display control device 1 includes an image acquisition unit 9, an upper end detection unit 11, a gradient estimation unit 13, a display position determination unit 15, a display unit 17, and a lane boundary line detection unit 19. A position information acquisition unit 21, a reading unit 23, a target detection unit 25, a reliability calculation unit 27, and an intelligibility determination unit 29 are provided.

勾配推定ユニット13は、上端使用ユニット31と、車線境界線使用ユニット33と、地図使用ユニット35と、物標使用ユニット37と、を備える。
表示制御装置1は、車両3が備える各種構成と接続している。図1に示すように、表示制御装置1と接続している構成として、カメラ39と、GPS41と、記憶部43と、レーダ45と、ヘッドアップディスプレイ(HUD)47とがある。
The gradient estimation unit 13 includes an upper end use unit 31, a lane boundary line use unit 33, a map use unit 35, and a target use unit 37.
The display control device 1 is connected to various configurations included in the vehicle 3. As shown in FIG. 1, as a configuration connected to the display control device 1, there are a camera 39, a GPS 41, a storage unit 43, a radar 45, and a head-up display (HUD) 47.

カメラ39は、車両3の前方の風景を表す画像(以下では前方画像53とする)を生成する。カメラ39は、前方画像53を表示制御装置1に送る。GPS41は、車両3の位置情報を取得する。
記憶部43は、地図情報49を記憶している。地図情報49は、複数の場所における勾配情報を含む。勾配情報とは、道路の勾配を表す情報である。表示制御装置1は、地図情報49を読み出すことができる。
The camera 39 generates an image representing the landscape in front of the vehicle 3 (hereinafter referred to as a front image 53). The camera 39 sends the front image 53 to the display control device 1. GPS 41 acquires the position information of the vehicle 3.
The storage unit 43 stores the map information 49. The map information 49 includes gradient information at a plurality of places. Gradient information is information representing the slope of a road. The display control device 1 can read the map information 49.

レーダ45は、車両3の前方に存在する物標を検出することができる。物標として、例えば、他の車両、歩行者、固定物等が挙げられる。レーダ45は、物標の検出結果を表す信号を表示制御装置1に送る。物標の検出結果を表す信号は、車両3から物標までの距離、車両3を基準とした物標の方位等を表す信号である。物標の方位は、水平方向における方位と、上下方向における方位とを含む。 The radar 45 can detect a target existing in front of the vehicle 3. Examples of the target include other vehicles, pedestrians, fixed objects, and the like. The radar 45 sends a signal indicating the detection result of the target to the display control device 1. The signal indicating the detection result of the target is a signal indicating the distance from the vehicle 3 to the target, the direction of the target with respect to the vehicle 3, and the like. The orientation of the target includes an orientation in the horizontal direction and an orientation in the vertical direction.

HUD47は、車両3の前方の風景に重畳した表示物を表示する。HUD47は表示装置に対応する。表示物として、例えば、図形、文字、数字、記号等が挙げられる。図形として、例えば、矢印、帯状の図形、直線、曲線、多角形等が挙げられる。 The HUD 47 displays a display object superimposed on the landscape in front of the vehicle 3. HUD47 corresponds to the display device. Examples of the display object include figures, letters, numbers, symbols, and the like. Examples of the figure include an arrow, a band-shaped figure, a straight line, a curve, a polygon, and the like.

表示物は、例えば、車両3のドライバから見て、仮想的に、3次元空間上に存在するかのように見える表示物(以下では仮想表示物とする)である。仮想表示物は、例えば、仮想的に、道路の路面からの距離が一定であるように見える表示物である。仮想表示物は、例えば、仮想的に、道路の路面に沿って延びる表示物である。 The display object is, for example, a display object (hereinafter referred to as a virtual display object) that virtually appears to exist in a three-dimensional space when viewed from the driver of the vehicle 3. The virtual display object is, for example, a display object that virtually appears to have a constant distance from the road surface. The virtual display object is, for example, a display object that virtually extends along the road surface of the road.

2.表示制御装置1が実行する処理
表示制御装置1が所定時間ごとに繰り返し実行する表示処理を、図3〜図9に基づき説明する。図3のステップ1では、画像取得ユニット9が、カメラ39を用いて前方画像53を取得する。
2. Processes Executed by the Display Control Device 1 Display processes executed by the display control device 1 repeatedly at predetermined time intervals will be described with reference to FIGS. 3 to 9. In step 1 of FIG. 3, the image acquisition unit 9 acquires the front image 53 using the camera 39.

ステップ2では、上端検出ユニット11が、前記ステップ1で取得した前方画像53において、道路の領域55を検出する。道路の領域55を検出する処理を図5、及び図6に基づき説明する。
上端検出ユニット11は、N個のテンプレート51を備えている。Nは1以上の自然数である。図6に示すように、テンプレート51は、前方画像53よりも小さい。N個のテンプレート51には、それぞれ、1からNまでの番号が付されている。N個のテンプレート51は、それぞれ、一般的な道路の輝度と同様の輝度を有している。N個のテンプレート51の輝度は、テンプレートごとに異なる。
In step 2, the upper end detection unit 11 detects the road region 55 in the forward image 53 acquired in step 1. The process of detecting the area 55 of the road will be described with reference to FIGS. 5 and 6.
The upper end detection unit 11 includes N templates 51. N is a natural number of 1 or more. As shown in FIG. 6, the template 51 is smaller than the front image 53. Each of the N templates 51 is numbered from 1 to N. Each of the N templates 51 has a brightness similar to that of a general road. The brightness of the N templates 51 is different for each template.

ステップ31では、上端検出ユニット11が、iの値を1にする。iとは、テンプレート51の番号である。
ステップ32では、上端検出ユニット11が、i番目のテンプレート51を選択する。
In step 31, the upper end detection unit 11 sets the value of i to 1. i is the number of the template 51.
In step 32, the upper end detection unit 11 selects the i-th template 51.

ステップ33では、上端検出ユニット11が、i番目のテンプレート51を、前方画像53における初期位置に重ねる。初期位置は、予め設定された位置である。前方画像53のうち、テンプレート51と重なる部分を、以下では比較領域とする。 In step 33, the upper end detection unit 11 superimposes the i-th template 51 on the initial position in the front image 53. The initial position is a preset position. The portion of the front image 53 that overlaps with the template 51 will be referred to as a comparison area below.

ステップ34では、上端検出ユニット11が、比較領域の輝度を取得する。
ステップ35では、上端検出ユニット11が、テンプレート51の輝度と、前記ステップ34で取得した比較領域の輝度とが近いか否かを判断する。輝度が近いとは、例えば、輝度の差が予め設定された閾値以下であることである。テンプレート51の輝度と、比較領域の輝度とが近い場合、本処理はステップ36に進む。テンプレート51の輝度と、比較領域の輝度とが近くない場合、本処理はステップ37に進む。
In step 34, the upper end detection unit 11 acquires the brightness of the comparison region.
In step 35, the upper end detection unit 11 determines whether or not the brightness of the template 51 and the brightness of the comparison region acquired in step 34 are close to each other. The close brightness means, for example, that the difference in brightness is equal to or less than a preset threshold value. When the brightness of the template 51 and the brightness of the comparison area are close to each other, this process proceeds to step 36. If the brightness of the template 51 and the brightness of the comparison area are not close to each other, this process proceeds to step 37.

ステップ36では、上端検出ユニット11が、比較領域を、道路の領域であるとする。
ステップ37では、上端検出ユニット11が、比較領域を、道路の領域ではないとする。
ステップ38では、テンプレート51の位置が終了位置であるか否かを、上端検出ユニット11が判断する。終了位置とは、テンプレート51が前方画像53の全領域を探索し終わったときのテンプレート51の位置である。テンプレート51の位置が終了位置ではない場合、本処理はステップ39に進む。テンプレート51の位置が終了位置である場合、本処理はステップ40に進む。
In step 36, the upper end detection unit 11 assumes that the comparison area is a road area.
In step 37, the upper end detection unit 11 assumes that the comparison area is not a road area.
In step 38, the upper end detection unit 11 determines whether or not the position of the template 51 is the end position. The end position is the position of the template 51 when the template 51 has searched the entire area of the front image 53. If the position of the template 51 is not the end position, the process proceeds to step 39. If the position of the template 51 is the end position, this process proceeds to step 40.

ステップ39では、上端検出ユニット11が、テンプレート51を次の位置に移動させる。ステップ39の後、本処理はステップ34に進む。
ステップ40では、iの値がNであるか否かを上端検出ユニット11が判断する。なお、iの値がNであることは、全てのテンプレート51について前記ステップ32〜39の処理を実行済みであることを意味する。iの値がNである場合、道路の領域を検出する処理は終了し、図3のステップ3に進む。iの値がNではない場合、本処理はステップ41に進む。
In step 39, the top detection unit 11 moves the template 51 to the next position. After step 39, the process proceeds to step 34.
In step 40, the upper end detection unit 11 determines whether or not the value of i is N. When the value of i is N, it means that the processes of steps 32 to 39 have been executed for all the templates 51. When the value of i is N, the process of detecting the area of the road ends, and the process proceeds to step 3 of FIG. If the value of i is not N, this process proceeds to step 41.

ステップ41では、上端検出ユニット11が、iの値を1だけ増加させる。ステップ41の後、本処理はステップ32に進む。
道路の領域を検出する処理の結果、図7に示すように、前方画像53において、道路の領域55が検出される。なお、道路の領域55を検出する処理を行うとき、前方画像53のうち、車両や構造物がある領域を予め除外しておき、除外されなかった領域において道路の領域55を検出してもよい。車両や構造物がある領域は、車両や構造物のテンプレートを用いたテンプレートマッチングの方法で検出できる。
In step 41, the upper end detection unit 11 increases the value of i by one. After step 41, the process proceeds to step 32.
As a result of the process of detecting the road area, as shown in FIG. 7, the road area 55 is detected in the front image 53. When performing the process of detecting the road area 55, the area where the vehicle or the structure is located may be excluded in advance from the front image 53, and the road area 55 may be detected in the area not excluded. .. The area where the vehicle or structure is located can be detected by the template matching method using the template of the vehicle or structure.

図3に戻り、ステップ3では、車線境界線検出ユニット19が、前記ステップ1で取得された前方画像53において、車線境界線を検出する。車線境界線として、例えば、白線等が挙げられる。車線境界線を検出する方法は、例えば、以下のとおりである。車線境界線検出ユニット19は、前方画像53において、エッジを抽出する。エッジは、輝度が急変する画素である。車線境界線検出ユニット19は、抽出したエッジに基づき、公知の方法で車線境界線を検出する。 Returning to FIG. 3, in step 3, the lane boundary line detection unit 19 detects the lane boundary line in the front image 53 acquired in step 1. Examples of the lane boundary line include a white line and the like. The method for detecting the lane boundary line is, for example, as follows. The lane boundary line detection unit 19 extracts an edge in the front image 53. An edge is a pixel whose brightness changes suddenly. The lane boundary line detection unit 19 detects the lane boundary line by a known method based on the extracted edge.

ステップ4では、車線境界線使用ユニット33が、前記ステップ3で検出された車線境界線に基づき、車両3の前方の道路の勾配(以下では前方勾配θとする)を推定する。前方勾配θとは、図8に示すように、車両3が存在する道路57を基準とする、車両3の前方の道路59の勾配である。 In step 4, the lane boundary line use unit 33 estimates the slope of the road ahead of the vehicle 3 (hereinafter referred to as the forward slope θ) based on the lane boundary line detected in step 3. As shown in FIG. 8, the forward gradient θ is the gradient of the road 59 in front of the vehicle 3 with reference to the road 57 on which the vehicle 3 is located.

前方画像53において車線境界線が延びる方向と、前方勾配θとは相関関係を有する。車線境界線使用ユニット33は、前方画像53において車線境界線が延びる方向に基づき、前方勾配θを推定する。 In the front image 53, the direction in which the lane boundary line extends and the forward gradient θ have a correlation. The lane boundary line use unit 33 estimates the forward gradient θ based on the direction in which the lane boundary line extends in the front image 53.

ステップ5では、信頼度算出ユニット27が、前記ステップ4で推定された前方勾配θの信頼度R1を算出する。信頼度算出ユニット27は、前記ステップ3で抽出されたエッジの数が多いほど、信頼度R1を高く算出する。 In step 5, the reliability calculation unit 27 calculates the reliability R1 of the forward gradient θ estimated in step 4. The reliability calculation unit 27 calculates the reliability R1 higher as the number of edges extracted in step 3 increases.

ステップ6では、前記ステップ5で算出された信頼度R1が、予め設定された閾値以上であるか否かを信頼度算出ユニット27が判断する。信頼度R1が閾値以上である場合、本処理は図4のステップ22に進む。信頼度R1が閾値未満である場合、本処理はステップ7に進む。 In step 6, the reliability calculation unit 27 determines whether or not the reliability R1 calculated in step 5 is equal to or higher than a preset threshold value. When the reliability R1 is equal to or higher than the threshold value, this process proceeds to step 22 in FIG. If the reliability R1 is less than the threshold value, this process proceeds to step 7.

ステップ7では、上端検出ユニット11が、前記ステップ1で取得された前方画像53において、図7に示す上端61を検出する。上端61は、道路の領域55の上端である。
前方画像53において、上端61が表示されている場合、上端検出ユニット11は、上端61を直接検出する。前方画像53において、上端61が物標等により隠されている場合、上端検出ユニット11は、道路の領域55の左右の境界線63、65を前方に延長する。上端検出ユニット11は、境界線63と境界線65との交点を上端61とする。
In step 7, the upper end detection unit 11 detects the upper end 61 shown in FIG. 7 in the front image 53 acquired in step 1. The upper end 61 is the upper end of the road area 55.
When the upper end 61 is displayed in the front image 53, the upper end detection unit 11 directly detects the upper end 61. In the front image 53, when the upper end 61 is hidden by a target or the like, the upper end detection unit 11 extends the left and right boundary lines 63 and 65 of the road region 55 forward. The upper end detection unit 11 has an upper end 61 at the intersection of the boundary line 63 and the boundary line 65.

ステップ8では、上端使用ユニット31が、前記ステップ7で検出された上端61の位置に基づき、前方勾配θを推定する。前方勾配θの推定方法を以下で説明する。図8に示すように、前方勾配θが0度である場合の消失点を、基準消失点67とする。基準消失点67は、カメラ39の画角の中で固定された位置にある。図8に示すθ’は、以下の式(1)により表される。 In step 8, the upper end use unit 31 estimates the forward gradient θ based on the position of the upper end 61 detected in step 7. The method of estimating the forward gradient θ will be described below. As shown in FIG. 8, the vanishing point when the forward gradient θ is 0 degrees is defined as the reference vanishing point 67. The reference vanishing point 67 is at a fixed position within the angle of view of the camera 39. Θ'shown in FIG. 8 is represented by the following equation (1).

Figure 2021089578
Figure 2021089578

式(1)においてdは、カメラ39の結像位置69における、上端61と、基準消失点67との距離である。式(1)におけるFは、カメラ39の焦点距離である。上端使用ユニット31は、式(1)により、θ’を算出する。θ’は前方勾配θと近似する。そのため、上端使用ユニット31は、算出されたθ’を前方勾配θとする。 In the formula (1), d is the distance between the upper end 61 and the reference vanishing point 67 at the imaging position 69 of the camera 39. F in the equation (1) is the focal length of the camera 39. The upper end use unit 31 calculates θ'by the equation (1). θ'is approximated by the forward gradient θ. Therefore, the upper end use unit 31 sets the calculated θ'as the forward gradient θ.

ステップ9では、信頼度算出ユニット27が、前記ステップ8で推定された前方勾配θの信頼度R2を算出する。信頼度算出ユニット27は、道路の領域55の全体にわたって、輝度の相関値の統計値を算出する。輝度の相関値とは、前記ステップ35で比較した、テンプレート51の輝度と、比較領域の輝度との近さを表す値である。テンプレート51の輝度と、比較領域の輝度とが近いほど、相関値は大きくなる。信頼度算出ユニット27は、統計値が大きいほど、信頼度R2を高く算出する。 In step 9, the reliability calculation unit 27 calculates the reliability R2 of the forward gradient θ estimated in step 8. The reliability calculation unit 27 calculates a statistical value of the correlation value of the brightness over the entire area 55 of the road. The luminance correlation value is a value representing the closeness between the luminance of the template 51 and the luminance of the comparison region compared in step 35. The closer the brightness of the template 51 to the brightness of the comparison area, the larger the correlation value. The reliability calculation unit 27 calculates the reliability R2 higher as the statistical value becomes larger.

ステップ10では、前記ステップ9で算出された信頼度R2が、予め設定された閾値以上であるか否かを信頼度算出ユニット27が判断する。信頼度R2が閾値以上である場合、本処理は図4のステップ22に進む。信頼度R2が閾値未満である場合、本処理はステップ11に進む。 In step 10, the reliability calculation unit 27 determines whether or not the reliability R2 calculated in step 9 is equal to or higher than a preset threshold value. When the reliability R2 is equal to or higher than the threshold value, this process proceeds to step 22 in FIG. If the reliability R2 is less than the threshold value, this process proceeds to step 11.

ステップ11では、物標検出ユニット25が、レーダ45を用いて、車両3の前方の物標を検出する処理を実行する。
ステップ12では、前記ステップ11の処理で物標が検出されたか否かを物標検出ユニット25が判断する。物標が検出された場合、本処理はステップ13に進む。物標が検出されなかった場合、本処理はステップ16に進む。
In step 11, the target detection unit 25 uses the radar 45 to execute a process of detecting a target in front of the vehicle 3.
In step 12, the target detection unit 25 determines whether or not the target has been detected in the process of step 11. If a target is detected, this process proceeds to step 13. If no target is detected, this process proceeds to step 16.

ステップ13では、物標使用ユニット37が、前記ステップ11の処理で検出された物標の方位を取得する。物標の方位とは、車両3を基準とする方位である。物標の方位と、前方勾配θとは相関関係を有する。例えば、前方勾配θが登り勾配であって、前方勾配θの値が大きいほど、物標の方位は上方である。物標使用ユニット37は、物標の方位に基づき、前方勾配θを推定する。 In step 13, the target use unit 37 acquires the direction of the target detected in the process of step 11. The direction of the target is the direction with respect to the vehicle 3. There is a correlation between the direction of the target and the forward gradient θ. For example, the forward gradient θ is an ascending gradient, and the larger the value of the forward gradient θ, the higher the direction of the target. The target use unit 37 estimates the forward gradient θ based on the direction of the target.

前記ステップ11の処理で複数の物標が検出された場合、物標使用ユニット37は、まず、それぞれの物標ごとに前方勾配θを推定する。次に、物標使用ユニット37は、物標ごとの前方勾配θを統計的に処理することで、最終的な前方勾配θを推定する。 When a plurality of targets are detected in the process of step 11, the target use unit 37 first estimates the forward gradient θ for each target. Next, the target use unit 37 estimates the final forward slope θ by statistically processing the forward slope θ for each target.

ステップ14では、信頼度算出ユニット27が、前記ステップ13で推定された前方勾配θの信頼度R3を算出する。信頼度算出ユニット27は、前記ステップ11の処理で検出された物標の数が多いほど、信頼度R3を高く算出する。 In step 14, the reliability calculation unit 27 calculates the reliability R3 of the forward gradient θ estimated in step 13. The reliability calculation unit 27 calculates the reliability R3 higher as the number of targets detected in the process of step 11 increases.

ステップ15では、前記ステップ14で算出された信頼度R3が、予め設定された閾値以上であるか否かを信頼度算出ユニット27が判断する。信頼度R3が閾値以上である場合、本処理は図4のステップ22に進む。信頼度R3が閾値未満である場合、本処理はステップ16に進む。 In step 15, the reliability calculation unit 27 determines whether or not the reliability R3 calculated in step 14 is equal to or higher than a preset threshold value. When the reliability R3 is equal to or higher than the threshold value, this process proceeds to step 22 in FIG. If the reliability R3 is less than the threshold value, this process proceeds to step 16.

ステップ16では、位置情報取得ユニット21が、GPS41を用いて、車両3の位置情報を取得する。
ステップ17では、記憶部43から地図情報49を読み出すことができるか否かを読み出しユニット23が判断する。記憶部43から地図情報49を読み出すことができる場合、本処理は図4のステップ18に進む。記憶部43から地図情報49を読み出すことができない場合、本処理は図4のステップ21に進む。
In step 16, the position information acquisition unit 21 acquires the position information of the vehicle 3 by using the GPS 41.
In step 17, the reading unit 23 determines whether or not the map information 49 can be read from the storage unit 43. If the map information 49 can be read from the storage unit 43, this process proceeds to step 18 of FIG. If the map information 49 cannot be read from the storage unit 43, this process proceeds to step 21 of FIG.

ステップ18では、まず、読み出しユニット23が、記憶部43から地図情報49を読み出す。次に、地図使用ユニット35が、前記ステップ16で取得された車両3の位置情報と、読み出された地図情報49とを照合することで、前方勾配θを推定する。 In step 18, first, the reading unit 23 reads the map information 49 from the storage unit 43. Next, the map use unit 35 estimates the forward gradient θ by collating the position information of the vehicle 3 acquired in step 16 with the read map information 49.

ステップ19では、信頼度算出ユニット27が、前記ステップ18で推定された前方勾配θの信頼度R4を算出する。信頼度算出ユニット27は、前記ステップ16で取得した車両3の位置情報の信頼値が高いほど、信頼度R4を高く算出する。車両3の位置情報の信頼値は、例えば、信号を受信できたGPS衛星の数が多いほど、高くなる。 In step 19, the reliability calculation unit 27 calculates the reliability R4 of the forward gradient θ estimated in step 18. The reliability calculation unit 27 calculates the reliability R4 higher as the reliability value of the position information of the vehicle 3 acquired in step 16 is higher. The reliability value of the position information of the vehicle 3 becomes higher, for example, as the number of GPS satellites that can receive the signal increases.

ステップ20では、前記ステップ19で算出された信頼度R4が、予め設定された閾値以上であるか否かを信頼度算出ユニット27が判断する。信頼度R4が閾値以上である場合、本処理はステップ22に進む。信頼度R4が閾値未満である場合、本処理はステップ21に進む。 In step 20, the reliability calculation unit 27 determines whether or not the reliability R4 calculated in step 19 is equal to or higher than a preset threshold value. If the reliability R4 is equal to or higher than the threshold value, the present process proceeds to step 22. If the reliability R4 is less than the threshold value, this process proceeds to step 21.

ステップ21では、勾配推定ユニット13が、前方勾配θの値を、前回の表示処理で推定された値とする。
ステップ22では、表示位置決定ユニット15が、前方勾配θに基づき、表示物の上下方向における表示位置を決定する。使用する前方勾配θは、前記ステップ6で肯定判断した場合は、前記ステップ4で推定された前方勾配θである。
In step 21, the gradient estimation unit 13 sets the value of the forward gradient θ as the value estimated in the previous display process.
In step 22, the display position determination unit 15 determines the display position in the vertical direction of the display object based on the forward gradient θ. The forward gradient θ to be used is the forward gradient θ estimated in step 4 when the affirmative judgment is made in step 6.

また、使用する前方勾配θは、前記ステップ10で肯定判断された場合は、前記ステップ8で推定された前方勾配θである。また、使用する前方勾配θは、前記ステップ15で肯定判断された場合は、前記ステップ13で推定された前方勾配θである。 Further, the forward gradient θ to be used is the forward gradient θ estimated in step 8 when affirmatively determined in step 10. Further, the forward gradient θ to be used is the forward gradient θ estimated in step 13 when affirmatively determined in step 15.

また、使用する前方勾配θは、前記ステップ20で肯定判断された場合は、前記ステップ18で推定された前方勾配θである。また、使用する前方勾配θは、前記ステップ20で否定判断された場合は、前回の表示処理で推定された前方勾配θである。 Further, the forward gradient θ to be used is the forward gradient θ estimated in step 18 when affirmatively determined in step 20. Further, the forward gradient θ to be used is the forward gradient θ estimated in the previous display process when a negative determination is made in step 20.

表示位置決定ユニット15が表示位置を決定する方法は以下のとおりである。表示位置決定ユニット15は、前方勾配θに対応するピッチ角を持つ平面を3次元空間上に規定する。表示位置決定ユニット15は、3次元空間上において仮想的に、その平面上に表示物を配置する。表示位置決定ユニット15は、3次元空間上の平面及び表示物を、2次元空間上の画像に変換する。表示位置決定ユニット15は、変換後の画像における表示物の位置を採用する。 The method by which the display position determination unit 15 determines the display position is as follows. The display position determining unit 15 defines a plane having a pitch angle corresponding to the forward gradient θ in the three-dimensional space. The display position determining unit 15 virtually arranges a display object on the plane in the three-dimensional space. The display position determining unit 15 converts a plane and a display object in the three-dimensional space into an image in the two-dimensional space. The display position determining unit 15 adopts the position of the displayed object in the converted image.

ステップ23では、明瞭度決定ユニット29が、信頼度に応じて、表示物とその周囲との境界の明瞭度を決定する。使用する信頼度は、前記ステップ22の処理で使用した前方勾配θの信頼度である。明瞭度決定ユニット29は、例えば、信頼度が高いほど、境界の明瞭度を高くする。境界の明瞭度が低い態様として、例えば、境界がグラデーション化されている態様、表示物の一部又は全部の透明度が高い態様等が挙げられる。 In step 23, the intelligibility determination unit 29 determines the intelligibility of the boundary between the display object and its surroundings according to the reliability. The reliability used is the reliability of the forward gradient θ used in the process of step 22. For example, the higher the reliability of the clarity determination unit 29, the higher the clarity of the boundary. Examples of the mode in which the boundary clarity is low include a mode in which the boundary is gradation, a mode in which a part or all of the displayed object is highly transparent, and the like.

ステップ24では、表示ユニット17が、HUD47を用いて、表示物を表示する。表示位置は、前記ステップ22で決定された位置である。
図9に、表示物71の例を示す。表示物71は、車両3のドライバの視点から見て、車両3の前方の風景73に重畳している。表示物71は、ドライバから見て、仮想的に、3次元空間上に存在するかのように見える。表示物71は、前方の道路59の路面に沿って延びている。表示物71は、前方勾配θの有無、及び、前方勾配θの大小によらず、前方の道路59の路面からの距離が、どこでも一定であるように見える表示物である。
In step 24, the display unit 17 displays a display object using the HUD 47. The display position is the position determined in step 22.
FIG. 9 shows an example of the display object 71. The display object 71 is superimposed on the landscape 73 in front of the vehicle 3 when viewed from the viewpoint of the driver of the vehicle 3. From the driver's point of view, the display object 71 virtually appears as if it exists in a three-dimensional space. The display object 71 extends along the road surface of the road 59 ahead. The display object 71 is a display object in which the distance from the road surface of the road 59 in front appears to be constant regardless of the presence or absence of the forward gradient θ and the magnitude of the forward gradient θ.

3.表示制御装置1が奏する効果
(1A)表示制御装置1は、前方勾配θを推定する。表示制御装置1は、推定された前方勾配θに基づき、表示物の表示位置を決定する。そのため、表示制御装置1によれば、前方勾配θがある場合でも、表示物と道路の路面との距離が一定に見えるように、表示物を表示することができる。
3. 3. Effect of display control device 1 (1A) The display control device 1 estimates the forward gradient θ. The display control device 1 determines the display position of the display object based on the estimated forward gradient θ. Therefore, according to the display control device 1, the display object can be displayed so that the distance between the display object and the road surface of the road can be seen to be constant even when there is a forward gradient θ.

表示制御装置1は、前方画像53における上端61の位置に基づき、前方勾配θを推定する。そのため、表示制御装置1は、前方勾配θを容易に推定することができる。また、表示制御装置1は、他の推定方法が使用できない場合でも、前方勾配θを推定できる。 The display control device 1 estimates the forward gradient θ based on the position of the upper end 61 in the forward image 53. Therefore, the display control device 1 can easily estimate the forward gradient θ. Further, the display control device 1 can estimate the forward gradient θ even when another estimation method cannot be used.

(1B)表示制御装置1は、前方画像53において、車線境界線を検出する。表示制御装置1は、 前方画像53において車線境界線が延びる方向に基づき、前方勾配θを推定する。そのため、表示制御装置1は、前方勾配θを一層正確に推定できる。また、表示制御装置1は、他の推定方法が使用できない場合でも、前方勾配θを推定できる。 (1B) The display control device 1 detects the lane boundary line in the front image 53. The display control device 1 estimates the forward gradient θ based on the direction in which the lane boundary line extends in the front image 53. Therefore, the display control device 1 can estimate the forward gradient θ more accurately. Further, the display control device 1 can estimate the forward gradient θ even when another estimation method cannot be used.

(1C)表示制御装置1は、車両3の位置情報を取得する。表示制御装置1は、記憶部43から地図情報49を読み出す。表示制御装置1は、車両3の位置情報と、地図情報49とを照合することで、前方勾配θを推定する。そのため、表示制御装置1は、前方勾配θを一層正確に推定できる。また、表示制御装置1は、他の推定方法が使用できない場合でも、前方勾配θを推定できる。 (1C) The display control device 1 acquires the position information of the vehicle 3. The display control device 1 reads out the map information 49 from the storage unit 43. The display control device 1 estimates the forward gradient θ by collating the position information of the vehicle 3 with the map information 49. Therefore, the display control device 1 can estimate the forward gradient θ more accurately. Further, the display control device 1 can estimate the forward gradient θ even when another estimation method cannot be used.

(1D)表示制御装置1は、レーダ45を用いて車両3の前方に存在する物標を検出する。表示制御装置1は、検出された物標の方位に基づき、前方勾配θを推定する。そのため、表示制御装置1は、前方勾配θを一層正確に推定できる。また、表示制御装置1は、他の推定方法が使用できない場合でも、前方勾配θを推定できる。 (1D) The display control device 1 detects a target existing in front of the vehicle 3 by using the radar 45. The display control device 1 estimates the forward gradient θ based on the detected direction of the target. Therefore, the display control device 1 can estimate the forward gradient θ more accurately. Further, the display control device 1 can estimate the forward gradient θ even when another estimation method cannot be used.

(1E)表示制御装置1は、推定された前方勾配θの信頼度を算出する。表示制御装置1は、信頼度に応じて、表示物とその周囲との境界の明瞭度を決定する。よって、信頼度が低い場合、表示物の境界の明瞭度は低くなる。その結果、表示物と道路の路面との距離にずれがある場合でも、そのずれが目立ち難くなる。
<他の実施形態>
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1E) The display control device 1 calculates the reliability of the estimated forward gradient θ. The display control device 1 determines the clarity of the boundary between the display object and its surroundings according to the reliability. Therefore, when the reliability is low, the clarity of the boundary of the displayed object is low. As a result, even if there is a deviation between the displayed object and the road surface, the deviation becomes less noticeable.
<Other Embodiments>
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and can be implemented in various modifications.

(1)表示物を表示する表示装置は、HUD47以外の表示装置であってもよい。例えば、ウインドシールドの中に表示素子を埋め込んだ表示装置等であってもよい。
(2)道路の領域55を検出する検出する方法は他の方法であってもよい。例えば、機械学習により学習済みのモデルを用いて、前方画像53から道路の領域55を検出してもよい。
(1) The display device for displaying the display object may be a display device other than HUD47. For example, it may be a display device in which a display element is embedded in a windshield.
(2) The detection method for detecting the area 55 of the road may be another method. For example, the road region 55 may be detected from the front image 53 using a model trained by machine learning.

(3)信頼度を算出する方法は他の方法であってもよい。例えば、前方画像53のノイズが多いほど、信頼度R1を低くすることができる。また、地図情報49の作成又は更新の日付が古いほど、信頼度R4を低くすることができる。また、前方勾配θの推定方法自体に応じて信頼度を決定してもよい。 (3) The method for calculating the reliability may be another method. For example, the more noise the front image 53 has, the lower the reliability R1 can be. Further, the older the date of creation or update of the map information 49, the lower the reliability R4 can be. Further, the reliability may be determined according to the method of estimating the forward gradient θ itself.

(4)本開示に記載の表示制御装置1及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の表示制御装置1及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の表示制御装置1及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。表示制御装置1に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。 (4) The display control device 1 and its method described in the present disclosure are provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. It may be realized by a dedicated computer. Alternatively, the display control device 1 and its method described in the present disclosure may be realized by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits. Alternatively, the display control device 1 and its method described in the present disclosure include a processor and memory programmed to perform one or more functions and a processor composed of one or more hardware logic circuits. It may be realized by one or more dedicated computers configured by a combination. The computer program may also be stored on a computer-readable non-transitional tangible recording medium as an instruction executed by the computer. The method for realizing the functions of each part included in the display control device 1 does not necessarily include software, and all the functions may be realized by using one or a plurality of hardware.

(5)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (5) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components. .. Further, a plurality of functions possessed by the plurality of components may be realized by one component, or one function realized by the plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. In addition, at least a part of the configuration of the above embodiment may be added or replaced with the configuration of the other above embodiment.

(6)上述した表示制御装置1の他、当該表示制御装置1を構成要素とするシステム、当該表示制御装置1としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、表示制御方法等、種々の形態で本開示を実現することもできる。 (6) In addition to the above-mentioned display control device 1, a system having the display control device 1 as a component, a program for operating a computer as the display control device 1, and a non-transitional semiconductor memory or the like in which this program is recorded The present disclosure can also be realized in various forms such as an actual recording medium and a display control method.

1…表示制御装置、3…車両、9…画像取得ユニット、11…上端検出ユニット、13…勾配推定ユニット、15…表示位置決定ユニット、17…表示ユニット、31…上端使用ユニット、33…車線境界線使用ユニット、47…HUD、53…前方画像、55…道路の領域、61…上端、71…表示物 1 ... Display control device, 3 ... Vehicle, 9 ... Image acquisition unit, 11 ... Upper end detection unit, 13 ... Gradient estimation unit, 15 ... Display position determination unit, 17 ... Display unit, 31 ... Upper end use unit, 33 ... Lane boundary Line use unit, 47 ... HUD, 53 ... forward image, 55 ... road area, 61 ... top edge, 71 ... display

Claims (5)

表示装置(47)を用いて、車両(3)の前方の風景(73)に重畳した表示物(71)を表示する表示制御装置(1)であって、
前記車両の前方の風景を表す画像(53)を取得するように構成された画像取得ユニット(9)と、
前記画像において、道路の領域(55)の上端(61)を検出するように構成された上端検出ユニット(11)と、
前記道路の勾配を推定するように構成された勾配推定ユニット(13)と、
前記勾配推定ユニットが推定した前記勾配に基づき、前記表示物の上下方向における表示位置を決定するように構成された表示位置決定ユニット(15)と、
前記表示装置を用いて、前記表示位置決定ユニットが決定した前記表示位置に前記表示物を表示するように構成された表示ユニット(17)と、
を備え、
前記勾配推定ユニットは、前記画像における前記上端の位置に基づき、前記道路の勾配を推定するように構成された上端使用ユニット(31)を備える、
表示制御装置。
A display control device (1) for displaying a display object (71) superimposed on a landscape (73) in front of a vehicle (3) using a display device (47).
An image acquisition unit (9) configured to acquire an image (53) representing the landscape in front of the vehicle, and an image acquisition unit (9).
In the image, the upper end detection unit (11) configured to detect the upper end (61) of the road area (55), and the upper end detection unit (11).
A gradient estimation unit (13) configured to estimate the slope of the road, and
A display position determination unit (15) configured to determine a display position in the vertical direction of the display object based on the gradient estimated by the gradient estimation unit.
A display unit (17) configured to display the display object at the display position determined by the display position determining unit using the display device.
With
The gradient estimation unit includes an upper end use unit (31) configured to estimate the slope of the road based on the position of the upper end in the image.
Display control device.
請求項1に記載の表示制御装置であって、
前記画像において、車線境界線を検出するように構成された車線境界線検出ユニット(19)をさらに備え、
前記勾配推定ユニットは、
前記画像において前記車線境界線が延びる方向に基づき、前記道路の勾配を推定するように構成された車線境界線使用ユニット(33)をさらに備える、
表示制御装置。
The display control device according to claim 1.
In the image, the lane boundary detection unit (19) configured to detect the lane boundary is further provided.
The gradient estimation unit
A lane boundary use unit (33) configured to estimate the slope of the road based on the direction in which the lane boundary extends in the image is further provided.
Display control device.
請求項1又は2に記載の表示制御装置であって、
前記車両の位置情報を取得するように構成された位置情報取得ユニット(21)と、
道路の勾配情報を含む地図情報(49)を記憶した記憶部(43)から前記地図情報を読み出すように構成された読み出しユニット(23)と、
をさらに備え、
前記勾配推定ユニットは、前記位置情報取得ユニットで取得した前記位置情報と、前記読み出しユニットが読み出した前記地図情報とを照合することで、前記道路の勾配を推定するように構成された地図使用ユニット(35)をさらに備える、
表示制御装置。
The display control device according to claim 1 or 2.
A position information acquisition unit (21) configured to acquire the position information of the vehicle, and
A reading unit (23) configured to read the map information from a storage unit (43) that stores map information (49) including road gradient information.
With more
The gradient estimation unit is a map use unit configured to estimate the slope of the road by collating the position information acquired by the position information acquisition unit with the map information read by the reading unit. Further equipped with (35),
Display control device.
請求項1〜3のいずれか1項に記載の表示制御装置であって、
レーダ(45)を用いて前記車両の前方に存在する物標を検出するように構成された物標検出ユニット(25)をさらに備え、
前記勾配推定ユニットは、前記物標検出ユニットが検出した前記物標の方位に基づき、前記道路の勾配を推定するように構成された物標使用ユニット(37)をさらに備える、
表示制御装置。
The display control device according to any one of claims 1 to 3.
A target detection unit (25) configured to detect a target existing in front of the vehicle using a radar (45) is further provided.
The gradient estimation unit further includes a target use unit (37) configured to estimate the slope of the road based on the orientation of the target detected by the target detection unit.
Display control device.
請求項1〜4のいずれか1項に記載の表示制御装置であって、
前記勾配推定ユニットが推定した前記勾配の信頼度を算出するように構成された信頼度算出ユニット(27)と、
前記信頼度に応じて、前記表示物とその周囲との境界の明瞭度を決定するように構成された明瞭度決定ユニット(29)と、
をさらに備える表示制御装置。
The display control device according to any one of claims 1 to 4.
A reliability calculation unit (27) configured to calculate the reliability of the gradient estimated by the gradient estimation unit, and
An intelligibility determination unit (29) configured to determine the intelligibility of the boundary between the display object and its surroundings according to the reliability.
A display control device further equipped with.
JP2019219671A 2019-12-04 2019-12-04 display control device Active JP7351734B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019219671A JP7351734B2 (en) 2019-12-04 2019-12-04 display control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019219671A JP7351734B2 (en) 2019-12-04 2019-12-04 display control device

Publications (2)

Publication Number Publication Date
JP2021089578A true JP2021089578A (en) 2021-06-10
JP7351734B2 JP7351734B2 (en) 2023-09-27

Family

ID=76220437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019219671A Active JP7351734B2 (en) 2019-12-04 2019-12-04 display control device

Country Status (1)

Country Link
JP (1) JP7351734B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003200751A (en) * 2002-01-07 2003-07-15 Hitachi Ltd Automatic follow-up control device
JP2012255703A (en) * 2011-06-08 2012-12-27 Isuzu Motors Ltd Road gradient estimation apparatus
JP2019059248A (en) * 2016-03-28 2019-04-18 マクセル株式会社 Head-up display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003200751A (en) * 2002-01-07 2003-07-15 Hitachi Ltd Automatic follow-up control device
JP2012255703A (en) * 2011-06-08 2012-12-27 Isuzu Motors Ltd Road gradient estimation apparatus
JP2019059248A (en) * 2016-03-28 2019-04-18 マクセル株式会社 Head-up display device

Also Published As

Publication number Publication date
JP7351734B2 (en) 2023-09-27

Similar Documents

Publication Publication Date Title
JP6775188B2 (en) Head-up display device and display control method
US9460352B2 (en) Lane boundary line recognition device
JP5904925B2 (en) Vehicle periphery monitoring device
US10127460B2 (en) Lane boundary line information acquiring device
JP5747549B2 (en) Signal detector and program
CN107305632B (en) Monocular computer vision technology-based target object distance measuring method and system
US10268902B2 (en) Outside recognition system, vehicle and camera dirtiness detection method
JP5959073B2 (en) Detection device, detection method, and program
US11200432B2 (en) Method and apparatus for determining driving information
US10817729B2 (en) Dynamic driving metric output generation using computer vision methods
JP6520740B2 (en) Object detection method, object detection device, and program
JP4937029B2 (en) Object detection apparatus and program
Liu et al. Development of a vision-based driver assistance system with lane departure warning and forward collision warning functions
JP6339058B2 (en) On-vehicle equipment and head-to-head distance calculation method
US11562576B2 (en) Dynamic adjustment of augmented reality image
Petrovai et al. A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices
JP2015225546A (en) Object detection device, drive support apparatus, object detection method, and object detection program
JP2018169888A (en) Road parameter estimation system
JP2021033510A (en) Driving assistance device
JP6483360B2 (en) Object recognition device
US11580695B2 (en) Method for a sensor-based and memory-based representation of a surroundings, display device and vehicle having the display device
KR102003387B1 (en) Method for detecting and locating traffic participants using bird&#39;s-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
EP3410345A1 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP7351734B2 (en) display control device
JP6132807B2 (en) Lane mark recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230914

R150 Certificate of patent or registration of utility model

Ref document number: 7351734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150