JP7351734B2 - display control device - Google Patents

display control device Download PDF

Info

Publication number
JP7351734B2
JP7351734B2 JP2019219671A JP2019219671A JP7351734B2 JP 7351734 B2 JP7351734 B2 JP 7351734B2 JP 2019219671 A JP2019219671 A JP 2019219671A JP 2019219671 A JP2019219671 A JP 2019219671A JP 7351734 B2 JP7351734 B2 JP 7351734B2
Authority
JP
Japan
Prior art keywords
unit
display
slope
control device
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019219671A
Other languages
Japanese (ja)
Other versions
JP2021089578A (en
Inventor
裕丈 石神
勝之 今西
大祐 竹森
大翔 坂野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019219671A priority Critical patent/JP7351734B2/en
Publication of JP2021089578A publication Critical patent/JP2021089578A/en
Application granted granted Critical
Publication of JP7351734B2 publication Critical patent/JP7351734B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は表示制御装置に関する。 The present disclosure relates to a display control device.

特許文献1に車両用表示装置が開示されている。車両用表示装置は、道路の路面等の実景の上に表示物を重畳して表示する。 Patent Document 1 discloses a vehicle display device. A vehicle display device displays a display object superimposed on an actual scene such as a road surface.

WO2018/030320A1WO2018/030320A1

車両の前方の道路に勾配が存在することがある。表示物の表示位置が一定であると、表示物と道路の路面との距離が、勾配に応じて変化してしまう。例えば、勾配が存在しない場合に、表示物が路面に接するように表示されていたとする。表示物の表示位置が一定であると、車両の前方に下りの勾配がある場合、表示物は、路面から浮き上がって表示されてしまう。また、表示物の表示位置が一定であると、車両の前方に上りの勾配がある場合、表示物は、路面の中に沈み込んだように表示されてしまう。 There may be a slope on the road in front of the vehicle. If the display position of the displayed object is constant, the distance between the displayed object and the road surface will change depending on the gradient. For example, suppose that the displayed object is displayed so as to be in contact with the road surface when there is no slope. If the display position of the display object is constant, if there is a downward slope in front of the vehicle, the display object will be displayed floating off the road surface. Furthermore, if the display position of the display object is constant, if there is an upward slope in front of the vehicle, the display object will appear as if it has sunk into the road surface.

本開示の1つの局面では、車両の前方の道路に勾配が存在する場合でも、見かけ上、表示物と道路の路面との距離の変化を抑制できる表示制御装置を提供することが好ましい。 In one aspect of the present disclosure, it is preferable to provide a display control device that can suppress a change in the apparent distance between a display object and the road surface even when there is a slope on the road in front of the vehicle.

本開示の1つの局面は、表示装置(47)を用いて、車両(3)の前方の風景(73)に重畳した表示物(71)を表示する表示制御装置(1)である。表示制御装置は、前記車両の前方の風景を表す画像(53)を取得するように構成された画像取得ユニット(9)と、前記画像において、道路の領域(55)の上端(61)を検出するように構成された上端検出ユニット(11)と、前記道路の勾配を推定するように構成された勾配推定ユニット(13)と、前記勾配推定ユニットが推定した前記勾配に基づき、前記表示物の上下方向における表示位置を決定するように構成された表示位置決定ユニット(15)と、前記表示装置を用いて、前記表示位置決定ユニットが決定した前記表示位置に前記表示物を表示するように構成された表示ユニット(17)と、を備える。 One aspect of the present disclosure is a display control device (1) that uses a display device (47) to display a display object (71) superimposed on a scenery (73) in front of a vehicle (3). The display control device includes an image acquisition unit (9) configured to acquire an image (53) representing the scenery in front of the vehicle, and detects an upper end (61) of a road area (55) in the image. an upper end detection unit (11) configured to estimate the slope of the road; a slope estimation unit (13) configured to estimate the slope of the road; The display object is configured to be displayed at the display position determined by the display position determination unit using a display position determination unit (15) configured to determine a display position in the vertical direction and the display device. a display unit (17).

前記勾配推定ユニットは、前記画像における前記上端の位置に基づき、前記道路の勾配を推定するように構成された上端使用ユニット(31)を備える。
本開示の1つの局面である表示制御装置は、道路の勾配を推定する。本開示の1つの局面である表示制御装置は、推定された道路の勾配に基づき、表示物の表示位置を決定する。そのため、本開示の1つの局面である表示制御装置によれば、道路の勾配がある場合でも、見かけ上、表示物と道路の路面との距離の変化を抑制することができる。
The slope estimation unit comprises a top edge usage unit (31) configured to estimate the slope of the road based on the position of the top edge in the image.
A display control device that is one aspect of the present disclosure estimates the gradient of a road. A display control device that is one aspect of the present disclosure determines a display position of a display object based on the estimated road slope. Therefore, according to the display control device that is one aspect of the present disclosure, even if the road has a slope, it is possible to suppress a change in the apparent distance between the displayed object and the road surface.

本開示の1つの局面である表示制御装置は、道路の領域の上端の位置に基づき、道路の勾配を推定する。そのため本開示の1つの局面である表示制御装置は、道路の勾配を容易に推定することができる。また、本開示の1つの局面である表示制御装置は、他の推定方法が使用できない場合でも、道路の勾配を推定できる。 A display control device that is one aspect of the present disclosure estimates the gradient of a road based on the position of the upper end of the road area. Therefore, the display control device that is one aspect of the present disclosure can easily estimate the slope of the road. Furthermore, the display control device that is one aspect of the present disclosure can estimate the gradient of a road even when other estimation methods cannot be used.

表示制御装置の構成を表すブロック図である。FIG. 2 is a block diagram showing the configuration of a display control device. 表示制御装置の機能的構成を表すブロック図である。FIG. 2 is a block diagram showing the functional configuration of a display control device. 表示制御装置が実行する表示処理を表すフローチャートである。3 is a flowchart illustrating display processing executed by the display control device. 表示制御装置が実行する表示処理を表すフローチャートである。3 is a flowchart illustrating display processing executed by the display control device. 表示制御装置が実行する道路の領域検出処理を表すフローチャートである。3 is a flowchart representing a road area detection process executed by the display control device. テンプレートと、前方画像とを表す説明図である。It is an explanatory view showing a template and a front image. 前方画像、道路の領域、及び上端を表す説明図である。FIG. 3 is an explanatory diagram showing a front image, a road area, and an upper end. 道路の領域の上端の位置を用いて前方勾配を推定する方法を表す説明図である。FIG. 3 is an explanatory diagram illustrating a method of estimating a forward slope using the position of the upper end of a road area. 表示物の例を表す説明図である。It is an explanatory view showing an example of a display object.

本開示の例示的な実施形態について図面を参照しながら説明する。
<第1実施形態>
1.表示制御装置1の構成
表示制御装置1の構成を、図1及び図2に基づき説明する。図1に示すように、表示制御装置1は、車両3に搭載されている。表示制御装置1は、CPU5と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ7とする)と、を有するマイクロコンピュータを備える。
Exemplary embodiments of the present disclosure will be described with reference to the drawings.
<First embodiment>
1. Configuration of Display Control Device 1 The configuration of the display control device 1 will be explained based on FIGS. 1 and 2. As shown in FIG. 1, the display control device 1 is mounted on a vehicle 3. The display control device 1 includes a microcomputer having a CPU 5 and a semiconductor memory (hereinafter referred to as a memory 7) such as a RAM or a ROM.

表示制御装置1の各機能は、CPU5が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ7が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、表示制御装置1は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。 Each function of the display control device 1 is realized by the CPU 5 executing a program stored in a non-transitional physical recording medium. In this example, the memory 7 corresponds to a non-transitional physical recording medium that stores a program. Also, by executing this program, a method corresponding to the program is executed. Note that the display control device 1 may include one microcomputer or a plurality of microcomputers.

表示制御装置1は、図2に示すように、画像取得ユニット9と、上端検出ユニット11と、勾配推定ユニット13と、表示位置決定ユニット15と、表示ユニット17と、車線境界線検出ユニット19と、位置情報取得ユニット21と、読み出しユニット23と、物標検出ユニット25と、信頼度算出ユニット27と、明瞭度決定ユニット29と、を備える。 As shown in FIG. 2, the display control device 1 includes an image acquisition unit 9, an upper end detection unit 11, a gradient estimation unit 13, a display position determination unit 15, a display unit 17, and a lane boundary line detection unit 19. , a position information acquisition unit 21, a readout unit 23, a target object detection unit 25, a reliability calculation unit 27, and a clarity determination unit 29.

勾配推定ユニット13は、上端使用ユニット31と、車線境界線使用ユニット33と、地図使用ユニット35と、物標使用ユニット37と、を備える。
表示制御装置1は、車両3が備える各種構成と接続している。図1に示すように、表示制御装置1と接続している構成として、カメラ39と、GPS41と、記憶部43と、レーダ45と、ヘッドアップディスプレイ(HUD)47とがある。
The gradient estimation unit 13 includes an upper end usage unit 31, a lane boundary usage unit 33, a map usage unit 35, and a target usage unit 37.
The display control device 1 is connected to various components included in the vehicle 3. As shown in FIG. 1, components connected to the display control device 1 include a camera 39, a GPS 41, a storage section 43, a radar 45, and a head-up display (HUD) 47.

カメラ39は、車両3の前方の風景を表す画像(以下では前方画像53とする)を生成する。カメラ39は、前方画像53を表示制御装置1に送る。GPS41は、車両3の位置情報を取得する。
記憶部43は、地図情報49を記憶している。地図情報49は、複数の場所における勾配情報を含む。勾配情報とは、道路の勾配を表す情報である。表示制御装置1は、地図情報49を読み出すことができる。
The camera 39 generates an image representing the scenery in front of the vehicle 3 (hereinafter referred to as a front image 53). The camera 39 sends the front image 53 to the display control device 1. The GPS 41 acquires position information of the vehicle 3.
The storage unit 43 stores map information 49. The map information 49 includes slope information at multiple locations. Slope information is information representing the slope of a road. The display control device 1 can read the map information 49.

レーダ45は、車両3の前方に存在する物標を検出することができる。物標として、例えば、他の車両、歩行者、固定物等が挙げられる。レーダ45は、物標の検出結果を表す信号を表示制御装置1に送る。物標の検出結果を表す信号は、車両3から物標までの距離、車両3を基準とした物標の方位等を表す信号である。物標の方位は、水平方向における方位と、上下方向における方位とを含む。 Radar 45 can detect a target existing in front of vehicle 3. Examples of targets include other vehicles, pedestrians, fixed objects, and the like. The radar 45 sends a signal representing the target object detection result to the display control device 1 . The signal representing the detection result of the target is a signal representing the distance from the vehicle 3 to the target, the direction of the target with respect to the vehicle 3, and the like. The orientation of the target includes an orientation in the horizontal direction and an orientation in the vertical direction.

HUD47は、車両3の前方の風景に重畳した表示物を表示する。HUD47は表示装置に対応する。表示物として、例えば、図形、文字、数字、記号等が挙げられる。図形として、例えば、矢印、帯状の図形、直線、曲線、多角形等が挙げられる。 The HUD 47 displays objects superimposed on the scenery in front of the vehicle 3. The HUD 47 corresponds to a display device. Examples of display objects include figures, characters, numbers, symbols, and the like. Examples of the figure include an arrow, a band-shaped figure, a straight line, a curved line, a polygon, and the like.

表示物は、例えば、車両3のドライバから見て、仮想的に、3次元空間上に存在するかのように見える表示物(以下では仮想表示物とする)である。仮想表示物は、例えば、仮想的に、道路の路面からの距離が一定であるように見える表示物である。仮想表示物は、例えば、仮想的に、道路の路面に沿って延びる表示物である。 The display object is, for example, a display object (hereinafter referred to as a virtual display object) that appears as if it virtually exists in a three-dimensional space when viewed from the driver of the vehicle 3. The virtual display object is, for example, a display object that appears to be virtually at a constant distance from the road surface. The virtual display object is, for example, a display object that virtually extends along the road surface.

2.表示制御装置1が実行する処理
表示制御装置1が所定時間ごとに繰り返し実行する表示処理を、図3~図9に基づき説明する。図3のステップ1では、画像取得ユニット9が、カメラ39を用いて前方画像53を取得する。
2. Process Executed by Display Control Device 1 The display process repeatedly executed by the display control device 1 at predetermined time intervals will be explained based on FIGS. 3 to 9. In step 1 of FIG. 3, the image acquisition unit 9 acquires the front image 53 using the camera 39.

ステップ2では、上端検出ユニット11が、前記ステップ1で取得した前方画像53において、道路の領域55を検出する。道路の領域55を検出する処理を図5、及び図6に基づき説明する。
上端検出ユニット11は、N個のテンプレート51を備えている。Nは1以上の自然数である。図6に示すように、テンプレート51は、前方画像53よりも小さい。N個のテンプレート51には、それぞれ、1からNまでの番号が付されている。N個のテンプレート51は、それぞれ、一般的な道路の輝度と同様の輝度を有している。N個のテンプレート51の輝度は、テンプレートごとに異なる。
In step 2, the upper end detection unit 11 detects a road area 55 in the forward image 53 acquired in step 1. The process of detecting the road area 55 will be explained based on FIGS. 5 and 6.
The upper end detection unit 11 includes N templates 51. N is a natural number of 1 or more. As shown in FIG. 6, the template 51 is smaller than the front image 53. Each of the N templates 51 is numbered from 1 to N. Each of the N templates 51 has a brightness similar to that of a general road. The brightness of the N templates 51 differs from template to template.

ステップ31では、上端検出ユニット11が、iの値を1にする。iとは、テンプレート51の番号である。
ステップ32では、上端検出ユニット11が、i番目のテンプレート51を選択する。
In step 31, the upper end detection unit 11 sets the value of i to 1. i is the number of the template 51.
In step 32, the upper end detection unit 11 selects the i-th template 51.

ステップ33では、上端検出ユニット11が、i番目のテンプレート51を、前方画像53における初期位置に重ねる。初期位置は、予め設定された位置である。前方画像53のうち、テンプレート51と重なる部分を、以下では比較領域とする。 In step 33, the upper end detection unit 11 overlaps the i-th template 51 at the initial position in the front image 53. The initial position is a preset position. A portion of the front image 53 that overlaps with the template 51 is hereinafter referred to as a comparison area.

ステップ34では、上端検出ユニット11が、比較領域の輝度を取得する。
ステップ35では、上端検出ユニット11が、テンプレート51の輝度と、前記ステップ34で取得した比較領域の輝度とが近いか否かを判断する。輝度が近いとは、例えば、輝度の差が予め設定された閾値以下であることである。テンプレート51の輝度と、比較領域の輝度とが近い場合、本処理はステップ36に進む。テンプレート51の輝度と、比較領域の輝度とが近くない場合、本処理はステップ37に進む。
In step 34, the upper end detection unit 11 obtains the brightness of the comparison area.
In step 35, the upper end detection unit 11 determines whether the brightness of the template 51 and the brightness of the comparison area obtained in step 34 are close to each other. The fact that the brightness is close means that, for example, the difference in brightness is less than or equal to a preset threshold. If the brightness of the template 51 and the brightness of the comparison area are close, the process proceeds to step 36. If the brightness of the template 51 and the brightness of the comparison area are not close, the process proceeds to step 37.

ステップ36では、上端検出ユニット11が、比較領域を、道路の領域であるとする。
ステップ37では、上端検出ユニット11が、比較領域を、道路の領域ではないとする。
ステップ38では、テンプレート51の位置が終了位置であるか否かを、上端検出ユニット11が判断する。終了位置とは、テンプレート51が前方画像53の全領域を探索し終わったときのテンプレート51の位置である。テンプレート51の位置が終了位置ではない場合、本処理はステップ39に進む。テンプレート51の位置が終了位置である場合、本処理はステップ40に進む。
In step 36, the upper end detection unit 11 determines that the comparison area is a road area.
In step 37, the upper end detection unit 11 determines that the comparison area is not a road area.
In step 38, the upper end detection unit 11 determines whether the position of the template 51 is the end position. The end position is the position of the template 51 when the template 51 has finished searching the entire area of the front image 53. If the position of the template 51 is not the end position, the process proceeds to step 39. If the position of the template 51 is the end position, the process proceeds to step 40.

ステップ39では、上端検出ユニット11が、テンプレート51を次の位置に移動させる。ステップ39の後、本処理はステップ34に進む。
ステップ40では、iの値がNであるか否かを上端検出ユニット11が判断する。なお、iの値がNであることは、全てのテンプレート51について前記ステップ32~39の処理を実行済みであることを意味する。iの値がNである場合、道路の領域を検出する処理は終了し、図3のステップ3に進む。iの値がNではない場合、本処理はステップ41に進む。
In step 39, the upper end detection unit 11 moves the template 51 to the next position. After step 39, the process proceeds to step 34.
In step 40, the upper end detection unit 11 determines whether the value of i is N. Note that the value of i being N means that the processes of steps 32 to 39 have been performed for all templates 51. If the value of i is N, the process of detecting the road area ends and the process proceeds to step 3 in FIG. If the value of i is not N, the process proceeds to step 41.

ステップ41では、上端検出ユニット11が、iの値を1だけ増加させる。ステップ41の後、本処理はステップ32に進む。
道路の領域を検出する処理の結果、図7に示すように、前方画像53において、道路の領域55が検出される。なお、道路の領域55を検出する処理を行うとき、前方画像53のうち、車両や構造物がある領域を予め除外しておき、除外されなかった領域において道路の領域55を検出してもよい。車両や構造物がある領域は、車両や構造物のテンプレートを用いたテンプレートマッチングの方法で検出できる。
In step 41, the upper end detection unit 11 increases the value of i by one. After step 41, the process proceeds to step 32.
As a result of the process of detecting a road area, a road area 55 is detected in the forward image 53, as shown in FIG. Note that when performing the process of detecting the road area 55, it is also possible to exclude in advance an area where a vehicle or structure is present from the forward image 53, and then detect the road area 55 in the area that has not been excluded. . An area where a vehicle or structure is located can be detected by a template matching method using a template of the vehicle or structure.

図3に戻り、ステップ3では、車線境界線検出ユニット19が、前記ステップ1で取得された前方画像53において、車線境界線を検出する。車線境界線として、例えば、白線等が挙げられる。車線境界線を検出する方法は、例えば、以下のとおりである。車線境界線検出ユニット19は、前方画像53において、エッジを抽出する。エッジは、輝度が急変する画素である。車線境界線検出ユニット19は、抽出したエッジに基づき、公知の方法で車線境界線を検出する。 Returning to FIG. 3, in step 3, the lane boundary detection unit 19 detects lane boundaries in the forward image 53 acquired in step 1. Examples of lane boundary lines include white lines. A method for detecting lane boundary lines is, for example, as follows. The lane boundary detection unit 19 extracts edges in the forward image 53. An edge is a pixel whose brightness changes suddenly. The lane boundary line detection unit 19 detects lane boundary lines using a known method based on the extracted edges.

ステップ4では、車線境界線使用ユニット33が、前記ステップ3で検出された車線境界線に基づき、車両3の前方の道路の勾配(以下では前方勾配θとする)を推定する。前方勾配θとは、図8に示すように、車両3が存在する道路57を基準とする、車両3の前方の道路59の勾配である。 In step 4, the lane boundary line use unit 33 estimates the slope of the road in front of the vehicle 3 (hereinafter referred to as front slope θ) based on the lane boundary line detected in step 3. The forward slope θ is the slope of the road 59 in front of the vehicle 3 with reference to the road 57 on which the vehicle 3 exists, as shown in FIG.

前方画像53において車線境界線が延びる方向と、前方勾配θとは相関関係を有する。車線境界線使用ユニット33は、前方画像53において車線境界線が延びる方向に基づき、前方勾配θを推定する。 There is a correlation between the direction in which the lane boundary line extends in the forward image 53 and the forward slope θ. The lane boundary line usage unit 33 estimates the forward slope θ based on the direction in which the lane boundary line extends in the forward image 53.

ステップ5では、信頼度算出ユニット27が、前記ステップ4で推定された前方勾配θの信頼度R1を算出する。信頼度算出ユニット27は、前記ステップ3で抽出されたエッジの数が多いほど、信頼度R1を高く算出する。 In step 5, the reliability calculation unit 27 calculates the reliability R1 of the forward slope θ estimated in step 4. The reliability calculation unit 27 calculates the reliability R1 higher as the number of edges extracted in step 3 increases.

ステップ6では、前記ステップ5で算出された信頼度R1が、予め設定された閾値以上であるか否かを信頼度算出ユニット27が判断する。信頼度R1が閾値以上である場合、本処理は図4のステップ22に進む。信頼度R1が閾値未満である場合、本処理はステップ7に進む。 In step 6, the reliability calculation unit 27 determines whether the reliability R1 calculated in step 5 is greater than or equal to a preset threshold. If the reliability R1 is greater than or equal to the threshold, the process proceeds to step 22 in FIG. If the reliability R1 is less than the threshold, the process proceeds to step 7.

ステップ7では、上端検出ユニット11が、前記ステップ1で取得された前方画像53において、図7に示す上端61を検出する。上端61は、道路の領域55の上端である。
前方画像53において、上端61が表示されている場合、上端検出ユニット11は、上端61を直接検出する。前方画像53において、上端61が物標等により隠されている場合、上端検出ユニット11は、道路の領域55の左右の境界線63、65を前方に延長する。上端検出ユニット11は、境界線63と境界線65との交点を上端61とする。
In step 7, the upper end detection unit 11 detects the upper end 61 shown in FIG. 7 in the front image 53 acquired in step 1. The upper end 61 is the upper end of the road area 55.
When the upper end 61 is displayed in the front image 53, the upper end detection unit 11 directly detects the upper end 61. In the forward image 53, when the upper end 61 is hidden by a target or the like, the upper end detection unit 11 extends the left and right boundaries 63, 65 of the road area 55 forward. The upper end detection unit 11 determines the intersection of the boundary line 63 and the boundary line 65 as the upper end 61.

ステップ8では、上端使用ユニット31が、前記ステップ7で検出された上端61の位置に基づき、前方勾配θを推定する。前方勾配θの推定方法を以下で説明する。図8に示すように、前方勾配θが0度である場合の消失点を、基準消失点67とする。基準消失点67は、カメラ39の画角の中で固定された位置にある。図8に示すθ’は、以下の式(1)により表される。 In step 8, the upper end use unit 31 estimates the forward slope θ based on the position of the upper end 61 detected in step 7. A method for estimating the forward gradient θ will be explained below. As shown in FIG. 8, the vanishing point when the forward slope θ is 0 degrees is defined as a reference vanishing point 67. The reference vanishing point 67 is located at a fixed position within the angle of view of the camera 39. θ′ shown in FIG. 8 is expressed by the following equation (1).

Figure 0007351734000001
Figure 0007351734000001

式(1)においてdは、カメラ39の結像位置69における、上端61と、基準消失点67との距離である。式(1)におけるFは、カメラ39の焦点距離である。上端使用ユニット31は、式(1)により、θ’を算出する。θ’は前方勾配θと近似する。そのため、上端使用ユニット31は、算出されたθ’を前方勾配θとする。 In equation (1), d is the distance between the upper end 61 and the reference vanishing point 67 at the imaging position 69 of the camera 39. F in equation (1) is the focal length of the camera 39. The upper end use unit 31 calculates θ' using equation (1). θ' approximates the forward slope θ. Therefore, the upper end use unit 31 uses the calculated θ' as the forward slope θ.

ステップ9では、信頼度算出ユニット27が、前記ステップ8で推定された前方勾配θの信頼度R2を算出する。信頼度算出ユニット27は、道路の領域55の全体にわたって、輝度の相関値の統計値を算出する。輝度の相関値とは、前記ステップ35で比較した、テンプレート51の輝度と、比較領域の輝度との近さを表す値である。テンプレート51の輝度と、比較領域の輝度とが近いほど、相関値は大きくなる。信頼度算出ユニット27は、統計値が大きいほど、信頼度R2を高く算出する。 In step 9, the reliability calculation unit 27 calculates the reliability R2 of the forward slope θ estimated in step 8. The reliability calculation unit 27 calculates statistical values of brightness correlation values over the entire road area 55. The brightness correlation value is a value representing the closeness between the brightness of the template 51 and the brightness of the comparison area compared in step 35 above. The closer the brightness of the template 51 and the brightness of the comparison area are, the larger the correlation value becomes. The reliability calculation unit 27 calculates the reliability R2 higher as the statistical value is larger.

ステップ10では、前記ステップ9で算出された信頼度R2が、予め設定された閾値以上であるか否かを信頼度算出ユニット27が判断する。信頼度R2が閾値以上である場合、本処理は図4のステップ22に進む。信頼度R2が閾値未満である場合、本処理はステップ11に進む。 In step 10, the reliability calculation unit 27 determines whether the reliability R2 calculated in step 9 is greater than or equal to a preset threshold. If the reliability R2 is equal to or greater than the threshold, the process proceeds to step 22 in FIG. If the reliability R2 is less than the threshold, the process proceeds to step 11.

ステップ11では、物標検出ユニット25が、レーダ45を用いて、車両3の前方の物標を検出する処理を実行する。
ステップ12では、前記ステップ11の処理で物標が検出されたか否かを物標検出ユニット25が判断する。物標が検出された場合、本処理はステップ13に進む。物標が検出されなかった場合、本処理はステップ16に進む。
In step 11, the target object detection unit 25 executes a process of detecting a target object in front of the vehicle 3 using the radar 45.
In step 12, the target object detection unit 25 determines whether or not the target object was detected in the process of step 11. If the target object is detected, the process proceeds to step 13. If no target object is detected, the process proceeds to step 16.

ステップ13では、物標使用ユニット37が、前記ステップ11の処理で検出された物標の方位を取得する。物標の方位とは、車両3を基準とする方位である。物標の方位と、前方勾配θとは相関関係を有する。例えば、前方勾配θが登り勾配であって、前方勾配θの値が大きいほど、物標の方位は上方である。物標使用ユニット37は、物標の方位に基づき、前方勾配θを推定する。 In step 13, the target using unit 37 acquires the direction of the target detected in the process of step 11. The azimuth of the target is the azimuth with respect to the vehicle 3. There is a correlation between the direction of the target and the forward slope θ. For example, the forward slope θ is an uphill slope, and the larger the value of the forward slope θ, the higher the direction of the target is. The target using unit 37 estimates the forward slope θ based on the direction of the target.

前記ステップ11の処理で複数の物標が検出された場合、物標使用ユニット37は、まず、それぞれの物標ごとに前方勾配θを推定する。次に、物標使用ユニット37は、物標ごとの前方勾配θを統計的に処理することで、最終的な前方勾配θを推定する。 When a plurality of targets are detected in the process of step 11, the target using unit 37 first estimates the forward gradient θ for each target. Next, the target using unit 37 estimates the final forward slope θ by statistically processing the forward slope θ for each target.

ステップ14では、信頼度算出ユニット27が、前記ステップ13で推定された前方勾配θの信頼度R3を算出する。信頼度算出ユニット27は、前記ステップ11の処理で検出された物標の数が多いほど、信頼度R3を高く算出する。 In step 14, the reliability calculation unit 27 calculates the reliability R3 of the forward gradient θ estimated in step 13. The reliability calculation unit 27 calculates the reliability R3 higher as the number of targets detected in the process of step 11 increases.

ステップ15では、前記ステップ14で算出された信頼度R3が、予め設定された閾値以上であるか否かを信頼度算出ユニット27が判断する。信頼度R3が閾値以上である場合、本処理は図4のステップ22に進む。信頼度R3が閾値未満である場合、本処理はステップ16に進む。 In step 15, the reliability calculation unit 27 determines whether the reliability R3 calculated in step 14 is greater than or equal to a preset threshold. If the reliability R3 is equal to or greater than the threshold, the process proceeds to step 22 in FIG. If the reliability R3 is less than the threshold, the process proceeds to step 16.

ステップ16では、位置情報取得ユニット21が、GPS41を用いて、車両3の位置情報を取得する。
ステップ17では、記憶部43から地図情報49を読み出すことができるか否かを読み出しユニット23が判断する。記憶部43から地図情報49を読み出すことができる場合、本処理は図4のステップ18に進む。記憶部43から地図情報49を読み出すことができない場合、本処理は図4のステップ21に進む。
In step 16, the position information acquisition unit 21 uses the GPS 41 to acquire position information of the vehicle 3.
In step 17, the reading unit 23 determines whether the map information 49 can be read from the storage section 43. If the map information 49 can be read from the storage unit 43, the process proceeds to step 18 in FIG. If the map information 49 cannot be read from the storage unit 43, the process proceeds to step 21 in FIG.

ステップ18では、まず、読み出しユニット23が、記憶部43から地図情報49を読み出す。次に、地図使用ユニット35が、前記ステップ16で取得された車両3の位置情報と、読み出された地図情報49とを照合することで、前方勾配θを推定する。 In step 18, the reading unit 23 first reads the map information 49 from the storage section 43. Next, the map using unit 35 estimates the forward slope θ by comparing the position information of the vehicle 3 acquired in step 16 with the read map information 49.

ステップ19では、信頼度算出ユニット27が、前記ステップ18で推定された前方勾配θの信頼度R4を算出する。信頼度算出ユニット27は、前記ステップ16で取得した車両3の位置情報の信頼値が高いほど、信頼度R4を高く算出する。車両3の位置情報の信頼値は、例えば、信号を受信できたGPS衛星の数が多いほど、高くなる。 In step 19, the reliability calculation unit 27 calculates the reliability R4 of the forward gradient θ estimated in step 18. The reliability calculation unit 27 calculates the reliability R4 higher as the reliability value of the position information of the vehicle 3 acquired in step 16 is higher. For example, the reliability value of the position information of the vehicle 3 increases as the number of GPS satellites whose signals can be received increases.

ステップ20では、前記ステップ19で算出された信頼度R4が、予め設定された閾値以上であるか否かを信頼度算出ユニット27が判断する。信頼度R4が閾値以上である場合、本処理はステップ22に進む。信頼度R4が閾値未満である場合、本処理はステップ21に進む。 In step 20, the reliability calculation unit 27 determines whether the reliability R4 calculated in step 19 is greater than or equal to a preset threshold. If the reliability R4 is equal to or greater than the threshold, the process proceeds to step 22. If the reliability R4 is less than the threshold, the process proceeds to step 21.

ステップ21では、勾配推定ユニット13が、前方勾配θの値を、前回の表示処理で推定された値とする。
ステップ22では、表示位置決定ユニット15が、前方勾配θに基づき、表示物の上下方向における表示位置を決定する。使用する前方勾配θは、前記ステップ6で肯定判断した場合は、前記ステップ4で推定された前方勾配θである。
In step 21, the slope estimating unit 13 sets the value of the forward slope θ to the value estimated in the previous display process.
In step 22, the display position determining unit 15 determines the vertical display position of the display object based on the forward slope θ. The forward gradient θ to be used is the forward gradient θ estimated in step 4 if the determination in step 6 is affirmative.

また、使用する前方勾配θは、前記ステップ10で肯定判断された場合は、前記ステップ8で推定された前方勾配θである。また、使用する前方勾配θは、前記ステップ15で肯定判断された場合は、前記ステップ13で推定された前方勾配θである。 Further, the forward gradient θ to be used is the forward gradient θ estimated in step 8 if the determination in step 10 is affirmative. Further, the forward slope θ to be used is the front slope θ estimated in the step 13 if an affirmative determination is made in the step 15 above.

また、使用する前方勾配θは、前記ステップ20で肯定判断された場合は、前記ステップ18で推定された前方勾配θである。また、使用する前方勾配θは、前記ステップ20で否定判断された場合は、前回の表示処理で推定された前方勾配θである。 Further, the forward slope θ to be used is the front slope θ estimated in the step 18 if the determination in step 20 is affirmative. Furthermore, if a negative determination is made in step 20, the forward slope θ to be used is the front slope θ estimated in the previous display process.

表示位置決定ユニット15が表示位置を決定する方法は以下のとおりである。表示位置決定ユニット15は、前方勾配θに対応するピッチ角を持つ平面を3次元空間上に規定する。表示位置決定ユニット15は、3次元空間上において仮想的に、その平面上に表示物を配置する。表示位置決定ユニット15は、3次元空間上の平面及び表示物を、2次元空間上の画像に変換する。表示位置決定ユニット15は、変換後の画像における表示物の位置を採用する。 The method by which the display position determining unit 15 determines the display position is as follows. The display position determining unit 15 defines a plane in three-dimensional space having a pitch angle corresponding to the forward slope θ. The display position determining unit 15 virtually arranges a display object on a plane in three-dimensional space. The display position determining unit 15 converts a plane and a display object in a three-dimensional space into an image in a two-dimensional space. The display position determining unit 15 employs the position of the display object in the converted image.

ステップ23では、明瞭度決定ユニット29が、信頼度に応じて、表示物とその周囲との境界の明瞭度を決定する。使用する信頼度は、前記ステップ22の処理で使用した前方勾配θの信頼度である。明瞭度決定ユニット29は、例えば、信頼度が高いほど、境界の明瞭度を高くする。境界の明瞭度が低い態様として、例えば、境界がグラデーション化されている態様、表示物の一部又は全部の透明度が高い態様等が挙げられる。 In step 23, the clarity determination unit 29 determines the clarity of the boundary between the displayed object and its surroundings according to the reliability. The reliability used is the reliability of the forward slope θ used in the process of step 22. For example, the clarity determination unit 29 increases the clarity of the boundary as the confidence level increases. Examples of modes in which the clarity of the boundary is low include modes in which the boundary is gradated, modes in which part or all of the displayed object is highly transparent, and the like.

ステップ24では、表示ユニット17が、HUD47を用いて、表示物を表示する。表示位置は、前記ステップ22で決定された位置である。
図9に、表示物71の例を示す。表示物71は、車両3のドライバの視点から見て、車両3の前方の風景73に重畳している。表示物71は、ドライバから見て、仮想的に、3次元空間上に存在するかのように見える。表示物71は、前方の道路59の路面に沿って延びている。表示物71は、前方勾配θの有無、及び、前方勾配θの大小によらず、前方の道路59の路面からの距離が、どこでも一定であるように見える表示物である。
In step 24, the display unit 17 uses the HUD 47 to display the display object. The display position is the position determined in step 22 above.
FIG. 9 shows an example of the display object 71. The display object 71 is superimposed on the scenery 73 in front of the vehicle 3 when viewed from the viewpoint of the driver of the vehicle 3. When viewed from the driver, the display object 71 appears as if it virtually exists in a three-dimensional space. The display object 71 extends along the road surface of the road 59 ahead. The display object 71 is a display object in which the distance from the road surface of the road 59 ahead appears to be constant regardless of the presence or absence of the forward slope θ and the magnitude of the forward slope θ.

3.表示制御装置1が奏する効果
(1A)表示制御装置1は、前方勾配θを推定する。表示制御装置1は、推定された前方勾配θに基づき、表示物の表示位置を決定する。そのため、表示制御装置1によれば、前方勾配θがある場合でも、表示物と道路の路面との距離が一定に見えるように、表示物を表示することができる。
3. Effects of the display control device 1 (1A) The display control device 1 estimates the forward slope θ. The display control device 1 determines the display position of the display object based on the estimated forward slope θ. Therefore, according to the display control device 1, even if there is a forward slope θ, the displayed object can be displayed so that the distance between the displayed object and the road surface appears constant.

表示制御装置1は、前方画像53における上端61の位置に基づき、前方勾配θを推定する。そのため、表示制御装置1は、前方勾配θを容易に推定することができる。また、表示制御装置1は、他の推定方法が使用できない場合でも、前方勾配θを推定できる。 The display control device 1 estimates the forward slope θ based on the position of the upper end 61 in the forward image 53. Therefore, the display control device 1 can easily estimate the forward slope θ. Furthermore, the display control device 1 can estimate the forward slope θ even when other estimation methods cannot be used.

(1B)表示制御装置1は、前方画像53において、車線境界線を検出する。表示制御装置1は、 前方画像53において車線境界線が延びる方向に基づき、前方勾配θを推定する。そのため、表示制御装置1は、前方勾配θを一層正確に推定できる。また、表示制御装置1は、他の推定方法が使用できない場合でも、前方勾配θを推定できる。 (1B) The display control device 1 detects lane boundary lines in the forward image 53. The display control device 1 estimates the forward slope θ based on the direction in which the lane boundary line extends in the forward image 53. Therefore, the display control device 1 can estimate the forward slope θ more accurately. Furthermore, the display control device 1 can estimate the forward slope θ even when other estimation methods cannot be used.

(1C)表示制御装置1は、車両3の位置情報を取得する。表示制御装置1は、記憶部43から地図情報49を読み出す。表示制御装置1は、車両3の位置情報と、地図情報49とを照合することで、前方勾配θを推定する。そのため、表示制御装置1は、前方勾配θを一層正確に推定できる。また、表示制御装置1は、他の推定方法が使用できない場合でも、前方勾配θを推定できる。 (1C) The display control device 1 acquires position information of the vehicle 3. Display control device 1 reads map information 49 from storage unit 43 . The display control device 1 estimates the forward slope θ by comparing the position information of the vehicle 3 and the map information 49. Therefore, the display control device 1 can estimate the forward slope θ more accurately. Furthermore, the display control device 1 can estimate the forward slope θ even when other estimation methods cannot be used.

(1D)表示制御装置1は、レーダ45を用いて車両3の前方に存在する物標を検出する。表示制御装置1は、検出された物標の方位に基づき、前方勾配θを推定する。そのため、表示制御装置1は、前方勾配θを一層正確に推定できる。また、表示制御装置1は、他の推定方法が使用できない場合でも、前方勾配θを推定できる。 (1D) The display control device 1 detects a target existing in front of the vehicle 3 using the radar 45. The display control device 1 estimates the forward slope θ based on the direction of the detected target. Therefore, the display control device 1 can estimate the forward slope θ more accurately. Furthermore, the display control device 1 can estimate the forward slope θ even when other estimation methods cannot be used.

(1E)表示制御装置1は、推定された前方勾配θの信頼度を算出する。表示制御装置1は、信頼度に応じて、表示物とその周囲との境界の明瞭度を決定する。よって、信頼度が低い場合、表示物の境界の明瞭度は低くなる。その結果、表示物と道路の路面との距離にずれがある場合でも、そのずれが目立ち難くなる。
<他の実施形態>
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1E) The display control device 1 calculates the reliability of the estimated forward slope θ. The display control device 1 determines the clarity of the boundary between the displayed object and its surroundings according to the reliability. Therefore, when the reliability is low, the clarity of the boundary of the displayed object is low. As a result, even if there is a difference in the distance between the displayed object and the road surface, the difference becomes less noticeable.
<Other embodiments>
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments and can be implemented with various modifications.

(1)表示物を表示する表示装置は、HUD47以外の表示装置であってもよい。例えば、ウインドシールドの中に表示素子を埋め込んだ表示装置等であってもよい。
(2)道路の領域55を検出する検出する方法は他の方法であってもよい。例えば、機械学習により学習済みのモデルを用いて、前方画像53から道路の領域55を検出してもよい。
(1) The display device that displays the display object may be a display device other than the HUD 47. For example, it may be a display device in which a display element is embedded in a windshield.
(2) The method of detecting the road area 55 may be another method. For example, the road area 55 may be detected from the forward image 53 using a model that has been trained by machine learning.

(3)信頼度を算出する方法は他の方法であってもよい。例えば、前方画像53のノイズが多いほど、信頼度R1を低くすることができる。また、地図情報49の作成又は更新の日付が古いほど、信頼度R4を低くすることができる。また、前方勾配θの推定方法自体に応じて信頼度を決定してもよい。 (3) Other methods may be used to calculate the reliability. For example, the more noise there is in the front image 53, the lower the reliability R1 can be. Furthermore, the older the creation or update date of the map information 49 is, the lower the reliability R4 can be. Furthermore, the reliability may be determined depending on the method of estimating the forward gradient θ itself.

(4)本開示に記載の表示制御装置1及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の表示制御装置1及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の表示制御装置1及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。表示制御装置1に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。 (4) The display control device 1 and its method according to the present disclosure are provided by configuring a processor and memory programmed to execute one or more functions embodied by a computer program. It may also be realized by a dedicated computer. Alternatively, the display control device 1 and its method described in the present disclosure may be implemented by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the display control device 1 and its method according to the present disclosure may include a processor configured with a processor and memory programmed to execute one or more functions, and one or more hardware logic circuits. It may also be realized by one or more dedicated computers configured in combination. The computer program may also be stored as instructions executed by a computer on a computer-readable non-transitory tangible storage medium. The method of realizing the functions of each part included in the display control device 1 does not necessarily need to include software, and all the functions may be realized using one or more pieces of hardware.

(5)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (5) Multiple functions of one component in the above embodiments may be realized by multiple components, and one function of one component may be realized by multiple components. . Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Further, a part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of other embodiments.

(6)上述した表示制御装置1の他、当該表示制御装置1を構成要素とするシステム、当該表示制御装置1としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、表示制御方法等、種々の形態で本開示を実現することもできる。 (6) In addition to the display control device 1 described above, a system including the display control device 1 as a component, a program for making a computer function as the display control device 1, a semiconductor memory storing this program, etc. The present disclosure can also be realized in various forms such as a physical recording medium and a display control method.

1…表示制御装置、3…車両、9…画像取得ユニット、11…上端検出ユニット、13…勾配推定ユニット、15…表示位置決定ユニット、17…表示ユニット、31…上端使用ユニット、33…車線境界線使用ユニット、47…HUD、53…前方画像、55…道路の領域、61…上端、71…表示物 DESCRIPTION OF SYMBOLS 1... Display control device, 3... Vehicle, 9... Image acquisition unit, 11... Upper end detection unit, 13... Gradient estimation unit, 15... Display position determination unit, 17... Display unit, 31... Upper end use unit, 33... Lane boundary Line usage unit, 47...HUD, 53...Front image, 55...Road area, 61...Top end, 71...Displayed object

Claims (3)

表示装置(47)を用いて、車両(3)の前方の風景(73)に重畳した表示物(71)を表示する表示制御装置(1)であって、
前記車両の前方の風景を表す画像(53)を取得するように構成された画像取得ユニット(9)と、
前記画像において、道路の領域(55)の上端(61)を検出するように構成された上端検出ユニット(11)と、
前記道路の勾配を推定するように構成された勾配推定ユニット(13)と、
前記勾配推定ユニットが推定した前記勾配に基づき、前記表示物の上下方向における表示位置を決定するように構成された表示位置決定ユニット(15)と、
前記表示装置を用いて、前記表示位置決定ユニットが決定した前記表示位置に前記表示物を表示するように構成された表示ユニット(17)と、
前記画像において、輝度が急変する画素であるエッジを抽出し、抽出した前記エッジに基づき車線境界線を検出するように構成された車線境界線検出ユニット(19)と、
前記勾配推定ユニットが推定した前記勾配の信頼度を算出するように構成された信頼度算出ユニット(27)と、
前記信頼度に応じて、前記表示物とその周囲との境界の明瞭度を決定するように構成された明瞭度決定ユニット(29)と、
を備え、
前記勾配推定ユニットは、前記画像における前記上端の位置に基づき、前記道路の勾配を推定するように構成された上端使用ユニット(31)、及び、前記画像において前記車線境界線が延びる方向に基づき、前記道路の勾配を推定するように構成された車線境界線使用ユニット(33)を備え
前記信頼度算出ユニットは、前記車線境界線検出ユニットにより抽出された前記エッジの数が多いほど、前記信頼度を高く算出する、
表示制御装置。
A display control device (1) that uses a display device (47) to display a display object (71) superimposed on a scenery (73) in front of a vehicle (3),
an image acquisition unit (9) configured to acquire an image (53) representing a scene in front of the vehicle;
a top edge detection unit (11) configured to detect a top edge (61) of a road area (55) in the image;
a slope estimation unit (13) configured to estimate the slope of the road;
a display position determining unit (15) configured to determine a vertical display position of the display object based on the slope estimated by the slope estimation unit;
a display unit (17) configured to use the display device to display the display object at the display position determined by the display position determining unit;
a lane boundary line detection unit (19) configured to extract edges, which are pixels whose brightness suddenly changes, in the image, and detect lane boundary lines based on the extracted edges;
a reliability calculation unit (27) configured to calculate reliability of the slope estimated by the slope estimation unit;
a clarity determining unit (29) configured to determine the clarity of a boundary between the displayed object and its surroundings according to the reliability;
Equipped with
The slope estimating unit is configured to estimate the slope of the road based on the position of the top edge in the image , and based on the direction in which the lane boundary line extends in the image, comprising a lane boundary usage unit (33) configured to estimate the slope of the road ;
The reliability calculation unit calculates the reliability higher as the number of edges extracted by the lane boundary detection unit increases.
Display control device.
請求項1記載の表示制御装置であって、
前記車両の位置情報を取得するように構成された位置情報取得ユニット(21)と、
道路の勾配情報を含む地図情報(49)を記憶した記憶部(43)から前記地図情報を読み出すように構成された読み出しユニット(23)と、
をさらに備え、
前記勾配推定ユニットは、前記位置情報取得ユニットで取得した前記位置情報と、前記読み出しユニットが読み出した前記地図情報とを照合することで、前記道路の勾配を推定するように構成された地図使用ユニット(35)をさらに備える、
表示制御装置。
The display control device according to claim 1,
a position information acquisition unit (21) configured to acquire position information of the vehicle;
a reading unit (23) configured to read map information (49) including road slope information from a storage section (43);
Furthermore,
The slope estimating unit is a map using unit configured to estimate the slope of the road by comparing the position information acquired by the position information acquisition unit with the map information read by the reading unit. (35) further comprising:
Display control device.
請求項1又は2に記載の表示制御装置であって、
レーダ(45)を用いて前記車両の前方に存在する物標を検出するように構成された物標検出ユニット(25)をさらに備え、
前記勾配推定ユニットは、前記物標検出ユニットが検出した前記物標の方位に基づき、前記道路の勾配を推定するように構成された物標使用ユニット(37)をさらに備える、
表示制御装置。
The display control device according to claim 1 or 2 ,
The vehicle further includes a target detection unit (25) configured to detect a target existing in front of the vehicle using a radar (45),
The slope estimation unit further includes a target object use unit (37) configured to estimate the slope of the road based on the direction of the target detected by the target detection unit.
Display control device.
JP2019219671A 2019-12-04 2019-12-04 display control device Active JP7351734B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019219671A JP7351734B2 (en) 2019-12-04 2019-12-04 display control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019219671A JP7351734B2 (en) 2019-12-04 2019-12-04 display control device

Publications (2)

Publication Number Publication Date
JP2021089578A JP2021089578A (en) 2021-06-10
JP7351734B2 true JP7351734B2 (en) 2023-09-27

Family

ID=76220437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019219671A Active JP7351734B2 (en) 2019-12-04 2019-12-04 display control device

Country Status (1)

Country Link
JP (1) JP7351734B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003200751A (en) 2002-01-07 2003-07-15 Hitachi Ltd Automatic follow-up control device
JP2012255703A (en) 2011-06-08 2012-12-27 Isuzu Motors Ltd Road gradient estimation apparatus
JP2019059248A (en) 2016-03-28 2019-04-18 マクセル株式会社 Head-up display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003200751A (en) 2002-01-07 2003-07-15 Hitachi Ltd Automatic follow-up control device
JP2012255703A (en) 2011-06-08 2012-12-27 Isuzu Motors Ltd Road gradient estimation apparatus
JP2019059248A (en) 2016-03-28 2019-04-18 マクセル株式会社 Head-up display device

Also Published As

Publication number Publication date
JP2021089578A (en) 2021-06-10

Similar Documents

Publication Publication Date Title
US9536155B2 (en) Marking line detection system and marking line detection method of a distant road surface area
KR102585219B1 (en) Device and method to control speed of vehicle
US9460352B2 (en) Lane boundary line recognition device
US9245188B2 (en) Lane detection system and method
JP5747549B2 (en) Signal detector and program
US9501720B2 (en) Object detection apparatus
US11200432B2 (en) Method and apparatus for determining driving information
US8994823B2 (en) Object detection apparatus and storage medium storing object detection program
JP5197679B2 (en) Object detection apparatus and program
JP4263737B2 (en) Pedestrian detection device
CN107305632B (en) Monocular computer vision technology-based target object distance measuring method and system
US20070031006A1 (en) Method for detecting nocturnal fog and system for implementing the method
KR20200036335A (en) Method and apparatus of determining lane
JP2014085920A (en) Vehicle surroundings monitoring device
US9489585B2 (en) Lane mark recognition device
Liu et al. Development of a vision-based driver assistance system with lane departure warning and forward collision warning functions
JP2015225546A (en) Object detection device, drive support apparatus, object detection method, and object detection program
KR20210061069A (en) Method and apparatus of displaying 3d object
JP6483360B2 (en) Object recognition device
JP2018169888A (en) Road parameter estimation system
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP7351734B2 (en) display control device
KR102003387B1 (en) Method for detecting and locating traffic participants using bird&#39;s-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
US11010618B2 (en) Apparatus for identifying line marking on road surface
JP7290104B2 (en) SELF-LOCATION ESTIMATING DEVICE, METHOD AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230914

R150 Certificate of patent or registration of utility model

Ref document number: 7351734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150