JP7351734B2 - display control device - Google Patents
display control device Download PDFInfo
- Publication number
- JP7351734B2 JP7351734B2 JP2019219671A JP2019219671A JP7351734B2 JP 7351734 B2 JP7351734 B2 JP 7351734B2 JP 2019219671 A JP2019219671 A JP 2019219671A JP 2019219671 A JP2019219671 A JP 2019219671A JP 7351734 B2 JP7351734 B2 JP 7351734B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- display
- slope
- control device
- display control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 34
- 238000004364 calculation method Methods 0.000 claims description 16
- 238000003708 edge detection Methods 0.000 claims 1
- 238000000034 method Methods 0.000 description 57
- 230000006870 function Effects 0.000 description 10
- 239000000470 constituent Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Instrument Panels (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本開示は表示制御装置に関する。 The present disclosure relates to a display control device.
特許文献1に車両用表示装置が開示されている。車両用表示装置は、道路の路面等の実景の上に表示物を重畳して表示する。
車両の前方の道路に勾配が存在することがある。表示物の表示位置が一定であると、表示物と道路の路面との距離が、勾配に応じて変化してしまう。例えば、勾配が存在しない場合に、表示物が路面に接するように表示されていたとする。表示物の表示位置が一定であると、車両の前方に下りの勾配がある場合、表示物は、路面から浮き上がって表示されてしまう。また、表示物の表示位置が一定であると、車両の前方に上りの勾配がある場合、表示物は、路面の中に沈み込んだように表示されてしまう。 There may be a slope on the road in front of the vehicle. If the display position of the displayed object is constant, the distance between the displayed object and the road surface will change depending on the gradient. For example, suppose that the displayed object is displayed so as to be in contact with the road surface when there is no slope. If the display position of the display object is constant, if there is a downward slope in front of the vehicle, the display object will be displayed floating off the road surface. Furthermore, if the display position of the display object is constant, if there is an upward slope in front of the vehicle, the display object will appear as if it has sunk into the road surface.
本開示の1つの局面では、車両の前方の道路に勾配が存在する場合でも、見かけ上、表示物と道路の路面との距離の変化を抑制できる表示制御装置を提供することが好ましい。 In one aspect of the present disclosure, it is preferable to provide a display control device that can suppress a change in the apparent distance between a display object and the road surface even when there is a slope on the road in front of the vehicle.
本開示の1つの局面は、表示装置(47)を用いて、車両(3)の前方の風景(73)に重畳した表示物(71)を表示する表示制御装置(1)である。表示制御装置は、前記車両の前方の風景を表す画像(53)を取得するように構成された画像取得ユニット(9)と、前記画像において、道路の領域(55)の上端(61)を検出するように構成された上端検出ユニット(11)と、前記道路の勾配を推定するように構成された勾配推定ユニット(13)と、前記勾配推定ユニットが推定した前記勾配に基づき、前記表示物の上下方向における表示位置を決定するように構成された表示位置決定ユニット(15)と、前記表示装置を用いて、前記表示位置決定ユニットが決定した前記表示位置に前記表示物を表示するように構成された表示ユニット(17)と、を備える。 One aspect of the present disclosure is a display control device (1) that uses a display device (47) to display a display object (71) superimposed on a scenery (73) in front of a vehicle (3). The display control device includes an image acquisition unit (9) configured to acquire an image (53) representing the scenery in front of the vehicle, and detects an upper end (61) of a road area (55) in the image. an upper end detection unit (11) configured to estimate the slope of the road; a slope estimation unit (13) configured to estimate the slope of the road; The display object is configured to be displayed at the display position determined by the display position determination unit using a display position determination unit (15) configured to determine a display position in the vertical direction and the display device. a display unit (17).
前記勾配推定ユニットは、前記画像における前記上端の位置に基づき、前記道路の勾配を推定するように構成された上端使用ユニット(31)を備える。
本開示の1つの局面である表示制御装置は、道路の勾配を推定する。本開示の1つの局面である表示制御装置は、推定された道路の勾配に基づき、表示物の表示位置を決定する。そのため、本開示の1つの局面である表示制御装置によれば、道路の勾配がある場合でも、見かけ上、表示物と道路の路面との距離の変化を抑制することができる。
The slope estimation unit comprises a top edge usage unit (31) configured to estimate the slope of the road based on the position of the top edge in the image.
A display control device that is one aspect of the present disclosure estimates the gradient of a road. A display control device that is one aspect of the present disclosure determines a display position of a display object based on the estimated road slope. Therefore, according to the display control device that is one aspect of the present disclosure, even if the road has a slope, it is possible to suppress a change in the apparent distance between the displayed object and the road surface.
本開示の1つの局面である表示制御装置は、道路の領域の上端の位置に基づき、道路の勾配を推定する。そのため本開示の1つの局面である表示制御装置は、道路の勾配を容易に推定することができる。また、本開示の1つの局面である表示制御装置は、他の推定方法が使用できない場合でも、道路の勾配を推定できる。 A display control device that is one aspect of the present disclosure estimates the gradient of a road based on the position of the upper end of the road area. Therefore, the display control device that is one aspect of the present disclosure can easily estimate the slope of the road. Furthermore, the display control device that is one aspect of the present disclosure can estimate the gradient of a road even when other estimation methods cannot be used.
本開示の例示的な実施形態について図面を参照しながら説明する。
<第1実施形態>
1.表示制御装置1の構成
表示制御装置1の構成を、図1及び図2に基づき説明する。図1に示すように、表示制御装置1は、車両3に搭載されている。表示制御装置1は、CPU5と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ7とする)と、を有するマイクロコンピュータを備える。
Exemplary embodiments of the present disclosure will be described with reference to the drawings.
<First embodiment>
1. Configuration of
表示制御装置1の各機能は、CPU5が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ7が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、表示制御装置1は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
Each function of the
表示制御装置1は、図2に示すように、画像取得ユニット9と、上端検出ユニット11と、勾配推定ユニット13と、表示位置決定ユニット15と、表示ユニット17と、車線境界線検出ユニット19と、位置情報取得ユニット21と、読み出しユニット23と、物標検出ユニット25と、信頼度算出ユニット27と、明瞭度決定ユニット29と、を備える。
As shown in FIG. 2, the
勾配推定ユニット13は、上端使用ユニット31と、車線境界線使用ユニット33と、地図使用ユニット35と、物標使用ユニット37と、を備える。
表示制御装置1は、車両3が備える各種構成と接続している。図1に示すように、表示制御装置1と接続している構成として、カメラ39と、GPS41と、記憶部43と、レーダ45と、ヘッドアップディスプレイ(HUD)47とがある。
The
The
カメラ39は、車両3の前方の風景を表す画像(以下では前方画像53とする)を生成する。カメラ39は、前方画像53を表示制御装置1に送る。GPS41は、車両3の位置情報を取得する。
記憶部43は、地図情報49を記憶している。地図情報49は、複数の場所における勾配情報を含む。勾配情報とは、道路の勾配を表す情報である。表示制御装置1は、地図情報49を読み出すことができる。
The
The
レーダ45は、車両3の前方に存在する物標を検出することができる。物標として、例えば、他の車両、歩行者、固定物等が挙げられる。レーダ45は、物標の検出結果を表す信号を表示制御装置1に送る。物標の検出結果を表す信号は、車両3から物標までの距離、車両3を基準とした物標の方位等を表す信号である。物標の方位は、水平方向における方位と、上下方向における方位とを含む。
HUD47は、車両3の前方の風景に重畳した表示物を表示する。HUD47は表示装置に対応する。表示物として、例えば、図形、文字、数字、記号等が挙げられる。図形として、例えば、矢印、帯状の図形、直線、曲線、多角形等が挙げられる。
The
表示物は、例えば、車両3のドライバから見て、仮想的に、3次元空間上に存在するかのように見える表示物(以下では仮想表示物とする)である。仮想表示物は、例えば、仮想的に、道路の路面からの距離が一定であるように見える表示物である。仮想表示物は、例えば、仮想的に、道路の路面に沿って延びる表示物である。
The display object is, for example, a display object (hereinafter referred to as a virtual display object) that appears as if it virtually exists in a three-dimensional space when viewed from the driver of the
2.表示制御装置1が実行する処理
表示制御装置1が所定時間ごとに繰り返し実行する表示処理を、図3~図9に基づき説明する。図3のステップ1では、画像取得ユニット9が、カメラ39を用いて前方画像53を取得する。
2. Process Executed by
ステップ2では、上端検出ユニット11が、前記ステップ1で取得した前方画像53において、道路の領域55を検出する。道路の領域55を検出する処理を図5、及び図6に基づき説明する。
上端検出ユニット11は、N個のテンプレート51を備えている。Nは1以上の自然数である。図6に示すように、テンプレート51は、前方画像53よりも小さい。N個のテンプレート51には、それぞれ、1からNまでの番号が付されている。N個のテンプレート51は、それぞれ、一般的な道路の輝度と同様の輝度を有している。N個のテンプレート51の輝度は、テンプレートごとに異なる。
In step 2, the upper
The upper
ステップ31では、上端検出ユニット11が、iの値を1にする。iとは、テンプレート51の番号である。
ステップ32では、上端検出ユニット11が、i番目のテンプレート51を選択する。
In
In step 32, the upper
ステップ33では、上端検出ユニット11が、i番目のテンプレート51を、前方画像53における初期位置に重ねる。初期位置は、予め設定された位置である。前方画像53のうち、テンプレート51と重なる部分を、以下では比較領域とする。
In
ステップ34では、上端検出ユニット11が、比較領域の輝度を取得する。
ステップ35では、上端検出ユニット11が、テンプレート51の輝度と、前記ステップ34で取得した比較領域の輝度とが近いか否かを判断する。輝度が近いとは、例えば、輝度の差が予め設定された閾値以下であることである。テンプレート51の輝度と、比較領域の輝度とが近い場合、本処理はステップ36に進む。テンプレート51の輝度と、比較領域の輝度とが近くない場合、本処理はステップ37に進む。
In step 34, the upper
In
ステップ36では、上端検出ユニット11が、比較領域を、道路の領域であるとする。
ステップ37では、上端検出ユニット11が、比較領域を、道路の領域ではないとする。
ステップ38では、テンプレート51の位置が終了位置であるか否かを、上端検出ユニット11が判断する。終了位置とは、テンプレート51が前方画像53の全領域を探索し終わったときのテンプレート51の位置である。テンプレート51の位置が終了位置ではない場合、本処理はステップ39に進む。テンプレート51の位置が終了位置である場合、本処理はステップ40に進む。
In step 36, the upper
In
In step 38, the upper
ステップ39では、上端検出ユニット11が、テンプレート51を次の位置に移動させる。ステップ39の後、本処理はステップ34に進む。
ステップ40では、iの値がNであるか否かを上端検出ユニット11が判断する。なお、iの値がNであることは、全てのテンプレート51について前記ステップ32~39の処理を実行済みであることを意味する。iの値がNである場合、道路の領域を検出する処理は終了し、図3のステップ3に進む。iの値がNではない場合、本処理はステップ41に進む。
In
In step 40, the upper
ステップ41では、上端検出ユニット11が、iの値を1だけ増加させる。ステップ41の後、本処理はステップ32に進む。
道路の領域を検出する処理の結果、図7に示すように、前方画像53において、道路の領域55が検出される。なお、道路の領域55を検出する処理を行うとき、前方画像53のうち、車両や構造物がある領域を予め除外しておき、除外されなかった領域において道路の領域55を検出してもよい。車両や構造物がある領域は、車両や構造物のテンプレートを用いたテンプレートマッチングの方法で検出できる。
In
As a result of the process of detecting a road area, a
図3に戻り、ステップ3では、車線境界線検出ユニット19が、前記ステップ1で取得された前方画像53において、車線境界線を検出する。車線境界線として、例えば、白線等が挙げられる。車線境界線を検出する方法は、例えば、以下のとおりである。車線境界線検出ユニット19は、前方画像53において、エッジを抽出する。エッジは、輝度が急変する画素である。車線境界線検出ユニット19は、抽出したエッジに基づき、公知の方法で車線境界線を検出する。
Returning to FIG. 3, in
ステップ4では、車線境界線使用ユニット33が、前記ステップ3で検出された車線境界線に基づき、車両3の前方の道路の勾配(以下では前方勾配θとする)を推定する。前方勾配θとは、図8に示すように、車両3が存在する道路57を基準とする、車両3の前方の道路59の勾配である。
In step 4, the lane boundary
前方画像53において車線境界線が延びる方向と、前方勾配θとは相関関係を有する。車線境界線使用ユニット33は、前方画像53において車線境界線が延びる方向に基づき、前方勾配θを推定する。
There is a correlation between the direction in which the lane boundary line extends in the
ステップ5では、信頼度算出ユニット27が、前記ステップ4で推定された前方勾配θの信頼度R1を算出する。信頼度算出ユニット27は、前記ステップ3で抽出されたエッジの数が多いほど、信頼度R1を高く算出する。
In
ステップ6では、前記ステップ5で算出された信頼度R1が、予め設定された閾値以上であるか否かを信頼度算出ユニット27が判断する。信頼度R1が閾値以上である場合、本処理は図4のステップ22に進む。信頼度R1が閾値未満である場合、本処理はステップ7に進む。
In step 6, the
ステップ7では、上端検出ユニット11が、前記ステップ1で取得された前方画像53において、図7に示す上端61を検出する。上端61は、道路の領域55の上端である。
前方画像53において、上端61が表示されている場合、上端検出ユニット11は、上端61を直接検出する。前方画像53において、上端61が物標等により隠されている場合、上端検出ユニット11は、道路の領域55の左右の境界線63、65を前方に延長する。上端検出ユニット11は、境界線63と境界線65との交点を上端61とする。
In
When the
ステップ8では、上端使用ユニット31が、前記ステップ7で検出された上端61の位置に基づき、前方勾配θを推定する。前方勾配θの推定方法を以下で説明する。図8に示すように、前方勾配θが0度である場合の消失点を、基準消失点67とする。基準消失点67は、カメラ39の画角の中で固定された位置にある。図8に示すθ’は、以下の式(1)により表される。
In step 8, the upper
式(1)においてdは、カメラ39の結像位置69における、上端61と、基準消失点67との距離である。式(1)におけるFは、カメラ39の焦点距離である。上端使用ユニット31は、式(1)により、θ’を算出する。θ’は前方勾配θと近似する。そのため、上端使用ユニット31は、算出されたθ’を前方勾配θとする。
In equation (1), d is the distance between the
ステップ9では、信頼度算出ユニット27が、前記ステップ8で推定された前方勾配θの信頼度R2を算出する。信頼度算出ユニット27は、道路の領域55の全体にわたって、輝度の相関値の統計値を算出する。輝度の相関値とは、前記ステップ35で比較した、テンプレート51の輝度と、比較領域の輝度との近さを表す値である。テンプレート51の輝度と、比較領域の輝度とが近いほど、相関値は大きくなる。信頼度算出ユニット27は、統計値が大きいほど、信頼度R2を高く算出する。
In step 9, the
ステップ10では、前記ステップ9で算出された信頼度R2が、予め設定された閾値以上であるか否かを信頼度算出ユニット27が判断する。信頼度R2が閾値以上である場合、本処理は図4のステップ22に進む。信頼度R2が閾値未満である場合、本処理はステップ11に進む。
In step 10, the
ステップ11では、物標検出ユニット25が、レーダ45を用いて、車両3の前方の物標を検出する処理を実行する。
ステップ12では、前記ステップ11の処理で物標が検出されたか否かを物標検出ユニット25が判断する。物標が検出された場合、本処理はステップ13に進む。物標が検出されなかった場合、本処理はステップ16に進む。
In
In step 12, the target
ステップ13では、物標使用ユニット37が、前記ステップ11の処理で検出された物標の方位を取得する。物標の方位とは、車両3を基準とする方位である。物標の方位と、前方勾配θとは相関関係を有する。例えば、前方勾配θが登り勾配であって、前方勾配θの値が大きいほど、物標の方位は上方である。物標使用ユニット37は、物標の方位に基づき、前方勾配θを推定する。
In
前記ステップ11の処理で複数の物標が検出された場合、物標使用ユニット37は、まず、それぞれの物標ごとに前方勾配θを推定する。次に、物標使用ユニット37は、物標ごとの前方勾配θを統計的に処理することで、最終的な前方勾配θを推定する。
When a plurality of targets are detected in the process of
ステップ14では、信頼度算出ユニット27が、前記ステップ13で推定された前方勾配θの信頼度R3を算出する。信頼度算出ユニット27は、前記ステップ11の処理で検出された物標の数が多いほど、信頼度R3を高く算出する。
In step 14, the
ステップ15では、前記ステップ14で算出された信頼度R3が、予め設定された閾値以上であるか否かを信頼度算出ユニット27が判断する。信頼度R3が閾値以上である場合、本処理は図4のステップ22に進む。信頼度R3が閾値未満である場合、本処理はステップ16に進む。
In
ステップ16では、位置情報取得ユニット21が、GPS41を用いて、車両3の位置情報を取得する。
ステップ17では、記憶部43から地図情報49を読み出すことができるか否かを読み出しユニット23が判断する。記憶部43から地図情報49を読み出すことができる場合、本処理は図4のステップ18に進む。記憶部43から地図情報49を読み出すことができない場合、本処理は図4のステップ21に進む。
In step 16, the position
In
ステップ18では、まず、読み出しユニット23が、記憶部43から地図情報49を読み出す。次に、地図使用ユニット35が、前記ステップ16で取得された車両3の位置情報と、読み出された地図情報49とを照合することで、前方勾配θを推定する。
In step 18, the
ステップ19では、信頼度算出ユニット27が、前記ステップ18で推定された前方勾配θの信頼度R4を算出する。信頼度算出ユニット27は、前記ステップ16で取得した車両3の位置情報の信頼値が高いほど、信頼度R4を高く算出する。車両3の位置情報の信頼値は、例えば、信号を受信できたGPS衛星の数が多いほど、高くなる。
In
ステップ20では、前記ステップ19で算出された信頼度R4が、予め設定された閾値以上であるか否かを信頼度算出ユニット27が判断する。信頼度R4が閾値以上である場合、本処理はステップ22に進む。信頼度R4が閾値未満である場合、本処理はステップ21に進む。
In step 20, the
ステップ21では、勾配推定ユニット13が、前方勾配θの値を、前回の表示処理で推定された値とする。
ステップ22では、表示位置決定ユニット15が、前方勾配θに基づき、表示物の上下方向における表示位置を決定する。使用する前方勾配θは、前記ステップ6で肯定判断した場合は、前記ステップ4で推定された前方勾配θである。
In
In step 22, the display
また、使用する前方勾配θは、前記ステップ10で肯定判断された場合は、前記ステップ8で推定された前方勾配θである。また、使用する前方勾配θは、前記ステップ15で肯定判断された場合は、前記ステップ13で推定された前方勾配θである。
Further, the forward gradient θ to be used is the forward gradient θ estimated in step 8 if the determination in step 10 is affirmative. Further, the forward slope θ to be used is the front slope θ estimated in the
また、使用する前方勾配θは、前記ステップ20で肯定判断された場合は、前記ステップ18で推定された前方勾配θである。また、使用する前方勾配θは、前記ステップ20で否定判断された場合は、前回の表示処理で推定された前方勾配θである。 Further, the forward slope θ to be used is the front slope θ estimated in the step 18 if the determination in step 20 is affirmative. Furthermore, if a negative determination is made in step 20, the forward slope θ to be used is the front slope θ estimated in the previous display process.
表示位置決定ユニット15が表示位置を決定する方法は以下のとおりである。表示位置決定ユニット15は、前方勾配θに対応するピッチ角を持つ平面を3次元空間上に規定する。表示位置決定ユニット15は、3次元空間上において仮想的に、その平面上に表示物を配置する。表示位置決定ユニット15は、3次元空間上の平面及び表示物を、2次元空間上の画像に変換する。表示位置決定ユニット15は、変換後の画像における表示物の位置を採用する。
The method by which the display
ステップ23では、明瞭度決定ユニット29が、信頼度に応じて、表示物とその周囲との境界の明瞭度を決定する。使用する信頼度は、前記ステップ22の処理で使用した前方勾配θの信頼度である。明瞭度決定ユニット29は、例えば、信頼度が高いほど、境界の明瞭度を高くする。境界の明瞭度が低い態様として、例えば、境界がグラデーション化されている態様、表示物の一部又は全部の透明度が高い態様等が挙げられる。
In
ステップ24では、表示ユニット17が、HUD47を用いて、表示物を表示する。表示位置は、前記ステップ22で決定された位置である。
図9に、表示物71の例を示す。表示物71は、車両3のドライバの視点から見て、車両3の前方の風景73に重畳している。表示物71は、ドライバから見て、仮想的に、3次元空間上に存在するかのように見える。表示物71は、前方の道路59の路面に沿って延びている。表示物71は、前方勾配θの有無、及び、前方勾配θの大小によらず、前方の道路59の路面からの距離が、どこでも一定であるように見える表示物である。
In step 24, the
FIG. 9 shows an example of the
3.表示制御装置1が奏する効果
(1A)表示制御装置1は、前方勾配θを推定する。表示制御装置1は、推定された前方勾配θに基づき、表示物の表示位置を決定する。そのため、表示制御装置1によれば、前方勾配θがある場合でも、表示物と道路の路面との距離が一定に見えるように、表示物を表示することができる。
3. Effects of the display control device 1 (1A) The
表示制御装置1は、前方画像53における上端61の位置に基づき、前方勾配θを推定する。そのため、表示制御装置1は、前方勾配θを容易に推定することができる。また、表示制御装置1は、他の推定方法が使用できない場合でも、前方勾配θを推定できる。
The
(1B)表示制御装置1は、前方画像53において、車線境界線を検出する。表示制御装置1は、 前方画像53において車線境界線が延びる方向に基づき、前方勾配θを推定する。そのため、表示制御装置1は、前方勾配θを一層正確に推定できる。また、表示制御装置1は、他の推定方法が使用できない場合でも、前方勾配θを推定できる。
(1B) The
(1C)表示制御装置1は、車両3の位置情報を取得する。表示制御装置1は、記憶部43から地図情報49を読み出す。表示制御装置1は、車両3の位置情報と、地図情報49とを照合することで、前方勾配θを推定する。そのため、表示制御装置1は、前方勾配θを一層正確に推定できる。また、表示制御装置1は、他の推定方法が使用できない場合でも、前方勾配θを推定できる。
(1C) The
(1D)表示制御装置1は、レーダ45を用いて車両3の前方に存在する物標を検出する。表示制御装置1は、検出された物標の方位に基づき、前方勾配θを推定する。そのため、表示制御装置1は、前方勾配θを一層正確に推定できる。また、表示制御装置1は、他の推定方法が使用できない場合でも、前方勾配θを推定できる。
(1D) The
(1E)表示制御装置1は、推定された前方勾配θの信頼度を算出する。表示制御装置1は、信頼度に応じて、表示物とその周囲との境界の明瞭度を決定する。よって、信頼度が低い場合、表示物の境界の明瞭度は低くなる。その結果、表示物と道路の路面との距離にずれがある場合でも、そのずれが目立ち難くなる。
<他の実施形態>
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1E) The
<Other embodiments>
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments and can be implemented with various modifications.
(1)表示物を表示する表示装置は、HUD47以外の表示装置であってもよい。例えば、ウインドシールドの中に表示素子を埋め込んだ表示装置等であってもよい。
(2)道路の領域55を検出する検出する方法は他の方法であってもよい。例えば、機械学習により学習済みのモデルを用いて、前方画像53から道路の領域55を検出してもよい。
(1) The display device that displays the display object may be a display device other than the
(2) The method of detecting the
(3)信頼度を算出する方法は他の方法であってもよい。例えば、前方画像53のノイズが多いほど、信頼度R1を低くすることができる。また、地図情報49の作成又は更新の日付が古いほど、信頼度R4を低くすることができる。また、前方勾配θの推定方法自体に応じて信頼度を決定してもよい。
(3) Other methods may be used to calculate the reliability. For example, the more noise there is in the
(4)本開示に記載の表示制御装置1及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の表示制御装置1及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の表示制御装置1及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。表示制御装置1に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(4) The
(5)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (5) Multiple functions of one component in the above embodiments may be realized by multiple components, and one function of one component may be realized by multiple components. . Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Further, a part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of other embodiments.
(6)上述した表示制御装置1の他、当該表示制御装置1を構成要素とするシステム、当該表示制御装置1としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、表示制御方法等、種々の形態で本開示を実現することもできる。
(6) In addition to the
1…表示制御装置、3…車両、9…画像取得ユニット、11…上端検出ユニット、13…勾配推定ユニット、15…表示位置決定ユニット、17…表示ユニット、31…上端使用ユニット、33…車線境界線使用ユニット、47…HUD、53…前方画像、55…道路の領域、61…上端、71…表示物
DESCRIPTION OF
Claims (3)
前記車両の前方の風景を表す画像(53)を取得するように構成された画像取得ユニット(9)と、
前記画像において、道路の領域(55)の上端(61)を検出するように構成された上端検出ユニット(11)と、
前記道路の勾配を推定するように構成された勾配推定ユニット(13)と、
前記勾配推定ユニットが推定した前記勾配に基づき、前記表示物の上下方向における表示位置を決定するように構成された表示位置決定ユニット(15)と、
前記表示装置を用いて、前記表示位置決定ユニットが決定した前記表示位置に前記表示物を表示するように構成された表示ユニット(17)と、
前記画像において、輝度が急変する画素であるエッジを抽出し、抽出した前記エッジに基づき車線境界線を検出するように構成された車線境界線検出ユニット(19)と、
前記勾配推定ユニットが推定した前記勾配の信頼度を算出するように構成された信頼度算出ユニット(27)と、
前記信頼度に応じて、前記表示物とその周囲との境界の明瞭度を決定するように構成された明瞭度決定ユニット(29)と、
を備え、
前記勾配推定ユニットは、前記画像における前記上端の位置に基づき、前記道路の勾配を推定するように構成された上端使用ユニット(31)、及び、前記画像において前記車線境界線が延びる方向に基づき、前記道路の勾配を推定するように構成された車線境界線使用ユニット(33)を備え、
前記信頼度算出ユニットは、前記車線境界線検出ユニットにより抽出された前記エッジの数が多いほど、前記信頼度を高く算出する、
表示制御装置。 A display control device (1) that uses a display device (47) to display a display object (71) superimposed on a scenery (73) in front of a vehicle (3),
an image acquisition unit (9) configured to acquire an image (53) representing a scene in front of the vehicle;
a top edge detection unit (11) configured to detect a top edge (61) of a road area (55) in the image;
a slope estimation unit (13) configured to estimate the slope of the road;
a display position determining unit (15) configured to determine a vertical display position of the display object based on the slope estimated by the slope estimation unit;
a display unit (17) configured to use the display device to display the display object at the display position determined by the display position determining unit;
a lane boundary line detection unit (19) configured to extract edges, which are pixels whose brightness suddenly changes, in the image, and detect lane boundary lines based on the extracted edges;
a reliability calculation unit (27) configured to calculate reliability of the slope estimated by the slope estimation unit;
a clarity determining unit (29) configured to determine the clarity of a boundary between the displayed object and its surroundings according to the reliability;
Equipped with
The slope estimating unit is configured to estimate the slope of the road based on the position of the top edge in the image , and based on the direction in which the lane boundary line extends in the image, comprising a lane boundary usage unit (33) configured to estimate the slope of the road ;
The reliability calculation unit calculates the reliability higher as the number of edges extracted by the lane boundary detection unit increases.
Display control device.
前記車両の位置情報を取得するように構成された位置情報取得ユニット(21)と、
道路の勾配情報を含む地図情報(49)を記憶した記憶部(43)から前記地図情報を読み出すように構成された読み出しユニット(23)と、
をさらに備え、
前記勾配推定ユニットは、前記位置情報取得ユニットで取得した前記位置情報と、前記読み出しユニットが読み出した前記地図情報とを照合することで、前記道路の勾配を推定するように構成された地図使用ユニット(35)をさらに備える、
表示制御装置。 The display control device according to claim 1,
a position information acquisition unit (21) configured to acquire position information of the vehicle;
a reading unit (23) configured to read map information (49) including road slope information from a storage section (43);
Furthermore,
The slope estimating unit is a map using unit configured to estimate the slope of the road by comparing the position information acquired by the position information acquisition unit with the map information read by the reading unit. (35) further comprising:
Display control device.
レーダ(45)を用いて前記車両の前方に存在する物標を検出するように構成された物標検出ユニット(25)をさらに備え、
前記勾配推定ユニットは、前記物標検出ユニットが検出した前記物標の方位に基づき、前記道路の勾配を推定するように構成された物標使用ユニット(37)をさらに備える、
表示制御装置。 The display control device according to claim 1 or 2 ,
The vehicle further includes a target detection unit (25) configured to detect a target existing in front of the vehicle using a radar (45),
The slope estimation unit further includes a target object use unit (37) configured to estimate the slope of the road based on the direction of the target detected by the target detection unit.
Display control device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019219671A JP7351734B2 (en) | 2019-12-04 | 2019-12-04 | display control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019219671A JP7351734B2 (en) | 2019-12-04 | 2019-12-04 | display control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021089578A JP2021089578A (en) | 2021-06-10 |
JP7351734B2 true JP7351734B2 (en) | 2023-09-27 |
Family
ID=76220437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019219671A Active JP7351734B2 (en) | 2019-12-04 | 2019-12-04 | display control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7351734B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003200751A (en) | 2002-01-07 | 2003-07-15 | Hitachi Ltd | Automatic follow-up control device |
JP2012255703A (en) | 2011-06-08 | 2012-12-27 | Isuzu Motors Ltd | Road gradient estimation apparatus |
JP2019059248A (en) | 2016-03-28 | 2019-04-18 | マクセル株式会社 | Head-up display device |
-
2019
- 2019-12-04 JP JP2019219671A patent/JP7351734B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003200751A (en) | 2002-01-07 | 2003-07-15 | Hitachi Ltd | Automatic follow-up control device |
JP2012255703A (en) | 2011-06-08 | 2012-12-27 | Isuzu Motors Ltd | Road gradient estimation apparatus |
JP2019059248A (en) | 2016-03-28 | 2019-04-18 | マクセル株式会社 | Head-up display device |
Also Published As
Publication number | Publication date |
---|---|
JP2021089578A (en) | 2021-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9536155B2 (en) | Marking line detection system and marking line detection method of a distant road surface area | |
KR102585219B1 (en) | Device and method to control speed of vehicle | |
US9460352B2 (en) | Lane boundary line recognition device | |
US11200432B2 (en) | Method and apparatus for determining driving information | |
US7423752B2 (en) | Method for detecting nocturnal fog and system for implementing the method | |
US9501720B2 (en) | Object detection apparatus | |
JP5747549B2 (en) | Signal detector and program | |
JP5904925B2 (en) | Vehicle periphery monitoring device | |
US8126210B2 (en) | Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
US8994823B2 (en) | Object detection apparatus and storage medium storing object detection program | |
JP4263737B2 (en) | Pedestrian detection device | |
CN107305632B (en) | Monocular computer vision technology-based target object distance measuring method and system | |
KR20200036335A (en) | Method and apparatus of determining lane | |
US20150367781A1 (en) | Lane boundary estimation device and lane boundary estimation method | |
Liu et al. | Development of a vision-based driver assistance system with lane departure warning and forward collision warning functions | |
US9489585B2 (en) | Lane mark recognition device | |
KR20210061069A (en) | Method and apparatus of displaying 3d object | |
JP2018169888A (en) | Road parameter estimation system | |
JP6483360B2 (en) | Object recognition device | |
JP2007334511A (en) | Object detection device, vehicle, object detection method and program for object detection | |
US10789727B2 (en) | Information processing apparatus and non-transitory recording medium storing thereon a computer program | |
US20190188497A1 (en) | Apparatus for identifying line marking on road surface | |
JP7290104B2 (en) | SELF-LOCATION ESTIMATING DEVICE, METHOD AND PROGRAM | |
JP7351734B2 (en) | display control device | |
JP6132807B2 (en) | Lane mark recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220413 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7351734 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |