JP6337864B2 - Display control apparatus and display control program - Google Patents
Display control apparatus and display control program Download PDFInfo
- Publication number
- JP6337864B2 JP6337864B2 JP2015203808A JP2015203808A JP6337864B2 JP 6337864 B2 JP6337864 B2 JP 6337864B2 JP 2015203808 A JP2015203808 A JP 2015203808A JP 2015203808 A JP2015203808 A JP 2015203808A JP 6337864 B2 JP6337864 B2 JP 6337864B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- unit
- display control
- image
- accuracy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 claims description 65
- 238000012545 processing Methods 0.000 claims description 11
- 238000000034 method Methods 0.000 description 78
- 238000004364 calculation method Methods 0.000 description 40
- 230000004048 modification Effects 0.000 description 18
- 238000012986 modification Methods 0.000 description 18
- 238000012937 correction Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 230000008859 change Effects 0.000 description 12
- 230000011218 segmentation Effects 0.000 description 12
- 230000002093 peripheral effect Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000007423 decrease Effects 0.000 description 8
- 230000007704 transition Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000003247 decreasing effect Effects 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Description
本発明は、車両等の乗員に対して提供される情報の表示を制御する表示制御装置および表示制御プログラムに関する。 The present invention relates to a display control device and a display control program for controlling display of information provided to a passenger such as a vehicle.
近年、車両に搭載されたセンサを用いて車両周辺に存在する対象物(例えば、車両、歩行者、白線、道路標識等)を検出し、その対象物と衝突の可能性が高いと判断した場合、車両の乗員に対して情報提示を行う運転支援システムの開発が盛んである。 In recent years, when an object (for example, a vehicle, a pedestrian, a white line, a road sign, etc.) existing around the vehicle is detected using a sensor mounted on the vehicle, it is determined that there is a high possibility of a collision with the object. The development of driving support systems that present information to vehicle occupants is thriving.
しかし、車両の走行する環境によって、センサが車両周辺の対象物を検出する精度(以下、センシング精度という)が変化する場合がある。センシング精度に応じて乗員への情報提示を変更する方法として、例えば、特許文献1に開示された技術がある(以下、従来技術という)。 However, the accuracy with which the sensor detects an object around the vehicle (hereinafter referred to as sensing accuracy) may vary depending on the environment in which the vehicle travels. As a method for changing the presentation of information to an occupant according to sensing accuracy, for example, there is a technique disclosed in Patent Document 1 (hereinafter referred to as a conventional technique).
従来技術は、車両に搭載されたカメラにより撮影された画像を表示する際に、画像に含まれる対象物の信頼度に応じて対象物の強調表示を行う。これにより、センシング精度が低下したときに表示中の情報が突然表示されなくなる、といった違和感を乗員に与えることを回避できる。 In the related art, when an image taken by a camera mounted on a vehicle is displayed, the object is highlighted according to the reliability of the object included in the image. As a result, it is possible to avoid giving the passenger an uncomfortable feeling that information being displayed is suddenly not displayed when the sensing accuracy is lowered.
しかしながら、従来技術は、対象物をセンシング精度に応じて強調表示するが、センシング精度は考慮されていなかった。 However, the conventional technology highlights the object according to the sensing accuracy, but the sensing accuracy is not taken into consideration.
本発明の目的は、移動体の乗員がセンシング精度を把握できる表示制御装置および表示制御プログラムを提供することである。 The objective of this invention is providing the display control apparatus and display control program which the passenger | crew of a mobile body can grasp | ascertain sensing accuracy.
本発明の一態様に係る表示制御装置は、移動体の周辺に存在する対象物の検知精度を受け取る入力部と、前記検知精度に基づいて、表示媒体に表示されたとき所定形状の図形を分割した提示画像を表す所定画像を生成するように画像生成部を制御する制御部と、を備え、前記検知精度が、前記移動体の周辺のうち第1方向の検知精度が前記第1方向以外の方向の検知精度よりも低いものである場合、前記提示画像において、前記所定形状の図形が分割されてなる複数の領域の大きさは均等ではない。 A display control device according to an aspect of the present invention divides a figure having a predetermined shape when displayed on a display medium based on an input unit that receives detection accuracy of an object existing around a moving body and the detection accuracy A control unit that controls the image generation unit so as to generate a predetermined image representing the presented image, and the detection accuracy of the first direction out of the periphery of the moving body is other than the first direction When the accuracy is lower than the direction detection accuracy, the sizes of the plurality of regions obtained by dividing the figure of the predetermined shape are not uniform in the presented image.
本発明によれば、移動体の乗員はセンシング精度を把握できる。 According to the present invention, an occupant of a moving body can grasp sensing accuracy.
従来の運転支援システムでは、例えば、センサとしてカメラを用いた場合、夜間、逆光、雨天などの走行環境において、センシング精度が低下するおそれがある。また、従来の運転支援システムでは、例えば、センサとしてミリ波レーダを用いた場合、レーダを反射する障害物が存在する走行環境において、センシング精度が低下するおそれがある。このようにセンシング精度が低下した状況であるにもかかわらず、乗員に対して通常と同様の情報提示を行った場合、誤報または欠報を引き起こすおそれがある。そのため、乗員は、センシング精度の低下を把握することが重要である。そこで、本発明の実施の形態は、乗員がセンシング精度を把握できるようにすることを目的とする。 In a conventional driving support system, for example, when a camera is used as a sensor, there is a risk that the sensing accuracy may deteriorate in a driving environment such as nighttime, backlight, or rainy weather. Further, in the conventional driving support system, for example, when a millimeter wave radar is used as a sensor, there is a risk that the sensing accuracy may decrease in a traveling environment where an obstacle that reflects the radar exists. In spite of the situation in which the sensing accuracy is reduced in this way, if the same information is presented to the occupant as usual, there is a risk of causing false or missing information. Therefore, it is important for the occupant to grasp the decrease in sensing accuracy. Accordingly, an object of the embodiment of the present invention is to enable an occupant to grasp sensing accuracy.
(実施の形態1)
本発明の実施の形態1について、図面を参照して説明する。
(Embodiment 1)
Embodiment 1 of the present invention will be described with reference to the drawings.
まず、本実施の形態に係る表示システム10の構成例について説明する。図1は、本実施の形態に係る表示システム10の構成例を示すブロック図である。
First, a configuration example of the
表示システム10は、例えば、車両等の移動体において用いられる。すなわち、表示システム10は、車載機器であってもよいし、車両に持ち込まれる機器であってもよい。なお、本実施の形態では、表示システム10が車両に適用されたものとして説明するが、移動体は、車両に限定されず、船舶、航空機等であってもよい。また、本実施の形態では、ユーザが車両の乗員、特に車両の運転者である例について説明するが、その限りではない。さらには、表示システム10は、ユーザが身体に装着に可能なウェラブルコンピュータ(例えば、後述するHMD)において用いられてもよい。
The
図1において、表示システム10は、センサ100、認識部200、算出部300、表示制御装置400、画像生成部500、表示部600を有する。また、表示制御装置400は、判定部401および表示制御部402を有する。
1, the
ここで、センサ100は、検知装置(図17参照)に含まれてもよい。また、認識部200は、センサ100とともに検知装置(図17参照)に含まれてもよい。また、表示制御装置400は、例えば、コネクタ、信号入力部などの入力端子である取得部(図17参照)を有してもよい。また、判定部401および表示制御部402を合わせて制御部(図17参照)として構成してもよい。
Here, the
図17は、表示システム10の別の構成例を示す。表示システム10は、検知装置700、算出部300、表示制御装置400、画像生成部500、表示部600を有する。表示制御装置400は、取得部404および制御部405を有する。表示装置20は、表示制御装置400、画像生成部500、表示部600を有する。図17に示す表示システム10の詳細については後述する。
FIG. 17 shows another configuration example of the
以下、図1を用いて、表示システム10の各構成要素について説明する。
Hereinafter, each component of the
センサ100は、所定時間ごとに、車両の運転者の前景をセンシングする。センサ100は、例えばセンシングカメラである。センシングカメラは、車両の内部または外部に搭載され、車両の前景を撮影する。さらに、センシングカメラは、前景だけでなく、側面の光景を撮影してもよい。または、センサ100は、例えばレーダであってもよい。レーダは、車両の内部または外部に搭載され、車両の前景等をセンシングする。以下、車両の前景等を、車両の周辺と呼ぶこともある。
The
そして、センサ100は、周辺のセンシング結果を示す周辺情報を認識部200へ出力する。この出力は、例えば、所定の時間間隔で行われる。
Then, the
認識部200は、センサ100からの周辺情報に基づいて、車両周辺に存在する所定の対象物を認識する。対象物は、例えば、移動体(例えば、車両、人物、自転車、二輪車等)、道路上の白線、標識、路面標示、縁石、ガードレール、信号機、電柱、建物である。例えば、センサ100がセンシングカメラである場合、認識部200は、周辺情報(周辺画像)に対してパタンマッチングなどを行い、対象物を認識する。また、例えば、センサ100がレーダである場合、認識部200は、周辺情報からクラスタリングまたは機械学習等により対象物を抽出し、認識する。なお、認識部200における対象物認識技術は公知技術であるため、その詳細な説明は省略する。
The
そして、認識部200は、対象物の認識結果を示す認識結果情報を算出部300および表示制御装置400の表示制御部402へ出力する。認識結果情報は、例えば、対象物の存在位置(X,Y)、車両の進行方向に対する対象物の相対角度(以下、単に相対角度という)、対象物と車両との相対速度、対象物の種別、パタンマッチングで得られた情報、対象物の追跡処理で得られた情報などを含む。なお、上記対象物の存在位置(X,Y)は、車両のセンシングカメラが設置された点を基準として横方向をX、前方方向をYとするカメラ座標系における座標である。また、上記対象物の存在位置(X,Y)におけるYは、車両の進行方向における車両と対象物との距離(以下、単に距離という)を示す。
Then, the
算出部300は、センサの認識精度(センシング精度ともいう。以下、単に認識精度という)を算出する。算出部300は、認識部200からの認識結果に基づいてセンシング精度を算出してもよいし、認識部200による認識結果を用いずにセンシング精度を算出してもよい。以下、詳細に説明する。
The
算出部300は、例えば、認識部200からの認識結果に基づいてセンシング精度を算出する。具体的には、算出部300は、パタンマッチングの際に得られる周辺画像とテンプレートとの差分に基づいて、認識精度を算出する。この場合、例えば、算出部300は、カメラにより撮影された対象物の画像と予め記憶されたテンプレートとの差分が小さいときに、認識精度が高い値となるように算出する。または、例えば、算出部300は、異なる画像フレーム間における対象物(例えば移動体)の追跡処理の際に得られるフレーム数に基づいて、認識精度を算出する。この場合、例えば、算出部300は、フレーム数が多い程、認識精度が高い値となるように算出する。また、追跡処理が成功していた場合でも、フレーム間で対象物の検出結果が大きく変化する場合には、認識精度が低い可能性がある。そのため、例えば、フレーム間の検出結果(距離、相対速度など)の変化量が大きい程、認識精度が低くなるように算出してもよい。また、センサとしてカメラ以外を用いる場合は、上記で説明した周辺画像とテンプレートの差分に該当するセンサの種別に応じた特徴量を、認識精度算出に用いればよい。
For example, the
また、算出部300は、例えば、車両の走行環境の認識結果に基づいて認識精度が算出されてもよい。例えば、センサ100がセンシングカメラである場合、認識部200は、センシングカメラにより撮影された車両の周辺画像に対して所定の画像処理を行い、認識精度が低下しやすい走行環境であるか(例えば、雨、霧、みぞれ、雹、雪などの悪天候の中を車両が走行しているか、逆光または対向車のヘッドライトなどにより車両周辺の照度が増加したか、夜間またはトンネル内の走行により車両周辺の照度が減少したか)を認識する。算出部300は、認識部200により認識精度が低下しやすい走行環境であると認識された場合、認識精度を低い値に算出する。
Further, the
また、算出部300は、例えば、認識部200による認識結果を用いずに行うようにしてもよい。この場合の例について図2を用いて説明する。図2において、図1と同じ構成要素には同一符号を付し、ここでの説明は省略する。図2では、表示システム10が認識部200を備えない点が図1と異なる。図2において、例えば、センサ100がセンシングカメラである場合、算出部300は、センサ100から車両の周辺画像を受け取る。そして、算出部300は、車両の周辺画像に、認識精度が低下しやすい走行環境であるか(例えば、雨、霧、みぞれ、雹、雪などの悪天候の中を車両が走行しているか、逆光または対向車のヘッドライトなどにより車両周辺の照度が増加したか、夜間またはトンネル内の走行により車両周辺の照度が減少したか)を示す情報が含まれる場合、認識精度を低い値に算出する。
Moreover, you may make it the
また、図2において、センサ100の代わりに別のセンサ(例えば、実施の形態2で後述するセンサ101と同じセンサ)を備えるように構成してもよい。このセンサは、認識精度が低下しやすい走行環境(例えば、雨、霧、みぞれ、雹、雪などの悪天候の中を車両が走行しているか、逆光または対向車のヘッドライトなどにより車両周辺の照度が増加したか、夜間またはトンネル内の走行により車両周辺の照度が減少したか)を検出可能なセンサであり、例えば、雨滴センサまたは照度センサである。算出部300は、上記センサから検出結果を示す情報を受け取る。そして、算出部300は、検出結果が認識精度の低下しやすい走行環境である場合、認識精度を低い値に算出する。
In FIG. 2, another sensor (for example, the same sensor as the
そして、算出部300は、認識精度値を示す認識精度情報を表示制御装置400の判定部401へ出力する。
Then, the
判定部401は、算出部300から入力される認識精度を判定する。具体的には、算出部300からの認識精度情報と、予め定められた閾値とに基づいて、認識精度の高低を判定する。例えば、判定部401は、認識精度情報が示す認識精度値が閾値以上である(または、閾値より大きい)場合、高精度であると判定する。一方、例えば、判定部401は、認識結果情報が示す認識精度値が閾値より小さい(または、閾値以下である)場合、低精度であると判定する。なお、判定部401における上述の認識精度の判定方法は一例であり、その他の方法は後述する。
The
そして、判定部401は、判定結果を示す判定結果情報を表示制御部402へ出力する。
Then, the
表示制御部402は、判定部401において第1の認識精度であると判定された場合、表示媒体に表示されたときに、n(2以上の整数)個に分割された所定形状の図形を表す所定画像を生成するように画像生成部500を制御する。また、表示制御部402は、判定部401において第1の認識精度よりも低い第2の認識精度であると判定された場合、表示媒体に表示されたときに、分割されていない、または、m(nより小さい2以上の整数)個に分割された所定形状の図形を表す所定画像を生成するように画像生成部500を制御する。以下、具体的に説明する。
When the
表示制御部402は、判定部401からの判定結果情報に基づいて、予め定められた図形の分割数(分割後の図形の数)を決定する。図形とは、表示制御部402(または図示しない記憶部)が予め記憶している所定形状の画像情報であり、その詳細は図4を用いて後述する。例えば、表示制御部402は、判定結果情報が高精度を示す場合、分割数をn個(nは2以上の整数)に決定する。一方、例えば、表示制御部402は、判定結果情報が低精度を示す場合、図形を分割しないか、または、分割数をm個(mはnより小さい2以上の整数)に決定する。
The
また、表示制御部402は、決定した分割数に基づいてどのように図形を分割するか(以下、分割方法という)を決定する。この分割方法の決定は、後述する強調表示領域の決定において相対角度または距離のどちらが用いられるかに応じて異なるものとする。
Further, the
以上の分割数および分割方法の決定処理の具体例については、図4〜図6を用いて後述する。 A specific example of the process of determining the number of divisions and the division method will be described later with reference to FIGS.
また、表示制御部402は、認識部200からの認識結果情報に基づいて、強調表示領域を決定する。強調表示領域とは、分割後の図形において強調して表示される領域であり、例えば、対象物が存在する方向(相対角度)または対象物と車両との距離(距離)を示す領域である。強調表示領域は、常時表示されてもよいし、随時表示されてもよい。例えば、表示制御部402は、認識結果情報が示す相対角度と、予め記憶しているテーブル(図7A、図7C参照)とに基づいて、分割される領域の中から強調表示領域を決定する。または、例えば、表示制御部402は、認識結果情報が示す距離と、予め記憶しているテーブル(図8A、図8C参照)とに基づいて、分割される領域の中から強調表示領域を決定する。なお、強調表示領域の決定処理の具体例については、図7、図8を用いて後述する。
Further, the
そして、表示制御部402は、制御情報を画像生成部500へ出力する。制御情報は、画像生成部500を制御するための情報であり、例えば、図形の形状、分割数、分割方法、および強調表示領域の情報などを含む。
Then, the
画像生成部500は、表示制御部402からの制御情報に基づいて、所定画像を生成する。所定画像は、後述する表示部600によって表示媒体に表示され、所定形状の図形を表す。
The
所定形状の図形は、図4〜図6に示す扇型の図形であってもよく、また、図18に示す直線状の図形であってもよい。図18については後述する。所定形状の図形は、少なくとも、表示媒体上において分割して表示されたときに、移動体の運転者の位置に対して前方、右前方および左前方、または、右方向および左方向を区別できる程度の大きさを有する図形であればよく、その形状によって本発明の開示範囲は限定されない。しかしながら、所定形状の図形は、図4〜図6、図18、図19に示すように水平軸に対して実質的に水平な成分が、垂直な成分よりも大きい図形であることが望ましい。所定形状の図形の表示例については、図4〜図6を用いて後述する。 The predetermined figure may be a fan-like figure shown in FIGS. 4 to 6 or a linear figure shown in FIG. FIG. 18 will be described later. When the figure of the predetermined shape is divided and displayed on the display medium, the front, the right front and the left front, or the right direction and the left direction can be distinguished from the position of the driver of the moving body. The shape of the present invention is not limited by the shape of the figure. However, as shown in FIGS. 4 to 6, 18, and 19, it is desirable that the figure having a predetermined shape is a figure in which the component substantially horizontal with respect to the horizontal axis is larger than the vertical component. A display example of a figure having a predetermined shape will be described later with reference to FIGS.
なお、所定画像は、画像であってもよいし、または、画像データであってもよい。後述する表示部600がプロジェクタ機能を有する場合、画像生成部500は画像を生成し、画像が表示部600によって投射される。一方、後述する表示部600がプロジェクタ機能を有するものではない場合、画像生成部500は画像データを生成し、画像データが表示部600によって出力される。
The predetermined image may be an image or image data. When the
表示部600は、画像生成部500において生成された所定画像を、図示しないディスプレイ(表示媒体の一例)に出力することで所定形状の図形を表示媒体に表示させる。表示部600は、例えば、プロジェクタ機能を有し、ディスプレイへ直接投影する。ディスプレイは、例えば、移動体のフロント・ウインドシールド、または、ウインドシールドとは別に設けられた透明なコンバイナである。すなわち、表示部600は、ウインドシールドに所定画像を投射することで、所定形状の図形をウインドシールドに表示させる。表示された所定形状の図形は、移動体の乗員に虚像として視認される。なお、透明なコンバイナは、例えば後述する図20に示すコンバイナ801である。
The
なお、表示部600は、プロジェクタ機能を用いる代わりに、例えば、ディスプレイに表示させてもよい。この場合、ディスプレイは透過型ディスプレイであり、画像生成部500において生成される所定画像は画像データである。すなわち、表示部600は、透過型ディスプレイに画像データを出力することで、所定形状の図形を透過型ディスプレイに表示させる。透過型ディスプレイに入力された画像データが所定形状の図形として表示される原理については、公知技術のため、説明を省略する。
Note that the
また、表示媒体は、ホログラムであってもよい。ホログラムを用いる場合、導光板の内部全反射条件を満たす平行光束群を内部全反射して導光する導光板を用いて、導光板を内部全反射して導光される平行光束群の一部を射出することで乗員に虚像を視認させる方式でもよい。なお、導光板を用いた方式においては、プロジェクタのように画像データを直接的に投影するものではないが、説明の便宜上、プロジェクタ方式と同様に投射という定義で説明する。 The display medium may be a hologram. When a hologram is used, a part of the parallel light flux group that is guided by total internal reflection of the light guide plate by using the light guide plate that totally reflects and guides the parallel light flux group that satisfies the total internal reflection condition of the light guide plate. It is also possible to make the occupant visually recognize the virtual image by injecting. In the method using the light guide plate, the image data is not directly projected as in the projector, but for the sake of convenience of explanation, it will be described by the definition of projection as in the projector method.
ディスプレイとしては、例えば、LCD(Liquid Crystal Display)、HUD(Head‐Up Display)、HMD(Head‐Mounted DisplayまたはHelmet‐Mounted Display)、眼鏡型ディスプレイ(Smart Glasses)、ナビゲーション用ディスプレイ、メータディスプレイ、その他の専用のディスプレイなどが適用される。HUDは、例えば、車両のウインドシールドであってもよいし、別途設けられるガラス面、プラスチック面などであってもよい。また、ウインドシールドは、例えば、フロントガラスであってもよいし、車両のサイドガラスまたはバックガラスであってもよい。さらに上述したとおり、表示媒体は透過型ディスプレイであってもよい。透過型ディスプレイとは例えば、透過型の有機ELディスプレイ、または、特定の波長の光を照射した際に発光するガラスを用いた透明なディスプレイであり、ドライバは、背景を視認すると同時に、透過型ディスプレイ上の表示を視認する事ができる。また、透過型ディスプレイは、光を透過する表示媒体である。 Examples of displays include LCD (Liquid Crystal Display), HUD (Head-Up Display), HMD (Head-Mounted Display or Helmet-Mounted Display), glasses-type display (Smart Glasses), navigation display, meter display, etc. Applicable display etc. are applied. For example, the HUD may be a windshield of a vehicle, or may be a separately provided glass surface, plastic surface, or the like. The windshield may be, for example, a windshield, a vehicle side glass or a back glass. Further, as described above, the display medium may be a transmissive display. The transmissive display is, for example, a transmissive organic EL display or a transparent display using glass that emits light when irradiated with light of a specific wavelength. You can see the display above. The transmissive display is a display medium that transmits light.
表示媒体が移動体のウインドシールドである場合、表示部600は、ウインドシールドに所定画像を投射することで、所定形状の図形をウインドシールドに表示させる。一方、表示媒体が透過型ディスプレイである場合、所定画像は画像データであって、表示部600は、透過型ディスプレイに画像データを出力することで、所定形状の図形を透過型ディスプレイに表示させる。ここで、説明の便宜のため、本実施の形態の説明においては、出力は投射の上位概念であると定義する。
When the display medium is a moving body windshield, the
なお、表示システム10は、上述したディスプレイを含む構成であってもよい。
Note that the
また、上述した図形は、画像生成部500ではなく、表示制御装置400または図示しない他の構成要素によって生成されてもよい。
Further, the graphic described above may be generated not by the
表示システム10において生成される図形は、例えば、所定画像が表示媒体に投射された場合には、移動体の乗員に虚像として視認される。このとき、図形は、乗員の視界に重畳されるようにディスプレイに投影されてもよい。なお、ディスプレイに投影された図形が虚像として運転者に視認される原理は、公知技術であるため、説明を省略する。
For example, when a predetermined image is projected onto a display medium, the graphic generated in the
次に、本実施の形態に係る表示システム10の動作例について説明する。図3は、本実施の形態に係る表示システム10の動作例を示すフローチャートである。図3のフローは、例えば、30ミリ秒、100ミリ秒といった所定の作動間隔で行われる。例えば、センサ100がセンシングカメラであり、15fps、30fps等のフレームレートで認識部200への周辺情報の出力が行われる場合、その出力間隔に合わせて図3のフローが行われてもよい。
Next, an operation example of the
ステップS001において、認識部200は、センサ100からの周辺情報に基づいて、車両周辺に存在する対象物を認識する。
In step S001, the
ステップS002において、算出部300は、認識部200からの認識結果情報に基づいて、認識精度を算出する。
In step S002, the
ステップS003において、判定部401は、算出部300からの認識結果情報と、予め定められた閾値とに基づいて、認識精度の高低を判定する。すなわち、認識結果情報が示す認識精度値が閾値以上である場合、判定部401は、高精度であると判定する(ステップS003:YES)。この場合、フローはステップS004へ進む。一方、認識結果情報が示す認識精度値が閾値より小さい場合、判定部401は、低精度であると判定する(ステップS003:NO)。この場合、フローはステップS005へ進む。
In step S003, the
ステップS004において、表示制御部402は、判定部401からの判定結果情報が高精度を示す場合、分割数をn個(nは2以上の整数)に決定する。
In step S004, when the determination result information from the
ステップS005において、表示制御部402は、判定部401からの判定結果情報が低精度を示す場合、図形を分割しないか、または、分割数をm個(mはnより小さい2以上の整数)に決定する。
In step S005, when the determination result information from the
ここで、ステップS004、S005における分割数および分割方法の決定処理の具体例を、図4〜図6を用いて説明する。 Here, a specific example of the process of determining the number of divisions and the division method in steps S004 and S005 will be described with reference to FIGS.
まず、図4を用いて、表示システム10で生成される図形の一例について説明する。図4において、図形301は車両を示し、図形302は車両の周辺(車両と対象物との位置関係)を示す。図形301(第1の図形の一例)は、分割の対象ではなく、分割方法の決定の際に基準位置として用いられる。図形302(第2の図形の一例)は、分割の対象であり、図4では分割前の状態を示している。図4に示す図形301および図形302は、デフォルトの形状であり、この形状にて表示制御部402(または図示しない記憶部)に予め記憶されている。また、図形302は、図4に示す分割前の形状、または、後述の図5、図6に示す分割後の形状で常時ディスプレイに表示される。
First, an example of a graphic generated by the
次に、分割数の決定について説明する。例えば、「低精度の場合の分割数は3」、「高精度の場合の分割数は5」というように分割数と精度の高低とは予め対応付けられており、それを表示制御部402が記憶している。よって、表示制御部402は、判定結果情報が低精度を示す場合、分割数を3に決定し、判定結果情報が高精度を示す場合、分割数を5に決定する。
Next, determination of the number of divisions will be described. For example, the number of divisions and the level of accuracy are associated in advance, such as “the number of divisions in the case of low accuracy is 3” and “the number of divisions in the case of high accuracy is 5”. I remember it. Therefore, the
以上のように分割数を決定した後、表示制御部402は、図4に示す図形301、302を読み出し、分割方法を決定する。
After determining the number of divisions as described above, the
次に、図5、図6を用いて、分割方法の決定について説明する。 Next, determination of the division method will be described with reference to FIGS.
まず、第1の分割方法を決定する例について説明する。第1の分割方法とは、強調表示領域の決定の際に相対角度が用いられる場合の分割方法である。例えば、低精度の場合において分割数を3(m=3)に決定した場合、表示制御部402は、図5Aに示すように、図形301を中心として放射状に伸びる分割直線303を用いて図形302を3分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図5Bまたは図5Cに示すようにディスプレイに表示される。また、例えば、高精度の場合において分割数を5(n=5)に決定した場合、表示制御部402は、図5Dに示すように、図形301を中心として放射状に広がる分割直線303を用いて図形302を5分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図5Eまたは図5Fに示すようにディスプレイに表示される。
First, an example of determining the first division method will be described. The first division method is a division method in the case where a relative angle is used in determining the highlight area. For example, when the number of divisions is determined to be 3 (m = 3) in the case of low accuracy, the
次に、第2の分割方法を決定する例について説明する。第2の分割方法とは、強調表示領域の決定の際に距離が用いられる場合の分割方法である。例えば、低精度の場合において分割数を2(m=2)に決定した場合、表示制御部402は、図6Aに示すように、図形301を中心とした半円の円周方向に伸びる分割曲線304を用いて図形302を2分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図6Bまたは図6Cに示すようにディスプレイに表示される。また、例えば、高精度の場合において分割数を3(n=3)に決定した場合、表示制御部402は、図6Dに示すように、図形301を中心とした半円状の分割曲線304(この場合、半径の異なる複数の分割曲線)を用いて図形302を3分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図6Eまたは図6Fに示すようにディスプレイに表示される。
Next, an example of determining the second division method will be described. The second division method is a division method in the case where a distance is used in determining the highlight area. For example, when the number of divisions is determined to be 2 (m = 2) in the case of low accuracy, the
上記説明では、いずれも図形を等分割するものとして説明したが、これに限定されない。分割数ごとに、予め分割方法を規定しておけば、任意の分割方法で分割が可能である。 In the above description, it has been described that the figure is equally divided, but the present invention is not limited to this. If a division method is defined in advance for each division number, division can be performed by an arbitrary division method.
以上、分割数および分割方法の決定処理の具体例について説明した。以下、図3のフローに戻る。 The specific example of the determination process of the number of divisions and the division method has been described above. Hereinafter, the flow returns to the flow of FIG.
ステップS006において、表示制御部402は、認識部200からの認識結果情報に基づいて、強調表示領域を決定する。
In step S006, the
ここで、ステップS006における強調表示領域の決定処理の具体例を、図7、図8を用いて説明する。上述したとおり、強調表示領域の決定は、認識部200からの認識結果情報に含まれる相対角度または距離のいずれかを用いて行われる。
Here, a specific example of the highlight area determination process in step S006 will be described with reference to FIGS. As described above, the highlighted area is determined using either the relative angle or the distance included in the recognition result information from the
まず、相対角度を用いた場合(第1の分割方法が決定された場合)の強調表示領域の決定処理について図7を用いて説明する。 First, the process of determining the highlight area when the relative angle is used (when the first division method is determined) will be described with reference to FIG.
図7Aは、認識精度が低精度であり、かつ、相対角度を用いて強調表示領域を決定する際に用いられる第1のテーブルの例を示す。第1のテーブルは、表示制御部402(または図示しない記憶部)に予め記憶されている。第1のテーブルは、条件としての相対角度と強調表示領域とが対応付けられている。第1のテーブルにおいて、角度Aは、車両正面(または、センサの位置、運転者の位置)を基準とした水平方向の角度であり、右を正とする。例えば、認識結果情報に含まれる相対角度が右側40度(A=40)を示す場合、表示制御部402は、強調表示領域を領域603に決定する。この強調表示領域の表示処理が画像生成部500にて実行されると、例えば図7Bに示すように、領域603は、領域601、602の色とは別の色にてディスプレイに強調して表示される。
FIG. 7A shows an example of a first table used when the recognition accuracy is low and the highlight area is determined using the relative angle. The first table is stored in advance in the display control unit 402 (or a storage unit (not shown)). In the first table, a relative angle as a condition and a highlight display area are associated with each other. In the first table, the angle A is a horizontal angle with respect to the front of the vehicle (or the position of the sensor, the position of the driver), and the right is positive. For example, when the relative angle included in the recognition result information indicates 40 degrees on the right side (A = 40), the
図7Cは、認識精度が高精度であり、かつ、相対角度を用いて強調表示領域を決定する際に用いられる第2のテーブルの例を示す。第2のテーブルは、第1のテーブルと同様に、表示制御部402(または図示しない記憶部)に予め記憶されており、条件としての相対角度と強調表示領域とが対応付けられている。例えば、認識結果情報に含まれる相対角度が右側40度(A=40)を示す場合、表示制御部402は、強調表示領域を領域607に決定する。この強調表示領域の表示処理が画像生成部500にて実行されると、例えば図7Dに示すように、領域607は、領域604〜606および608の色とは別の色にてディスプレイに強調して表示される。
FIG. 7C shows an example of a second table that is used when the recognition accuracy is high and the highlight region is determined using the relative angle. Similar to the first table, the second table is stored in advance in the display control unit 402 (or a storage unit (not shown)), and the relative angle as a condition and the highlighted display area are associated with each other. For example, when the relative angle included in the recognition result information indicates 40 degrees on the right side (A = 40), the
次に、距離を用いた場合(第2の分割方法が決定された場合)の強調表示領域の決定処理について図8を用いて説明する。 Next, the highlight display area determination process when distance is used (when the second division method is determined) will be described with reference to FIG.
図8Aは、認識精度が低精度であり、かつ、距離を用いて強調表示領域を決定する際に用いられる第3のテーブルの例を示す。第3のテーブルは、表示制御部402(または図示しない記憶部)に予め記憶されている。第3のテーブルは、条件としての距離(例えば、単位はm)と強調表示領域とが対応付けられている。例えば、認識結果情報に含まれる距離が55m(D=55)を示す場合、表示制御部402は、強調表示領域を領域702に決定する。この強調表示領域の表示処理が画像生成部500にて実行されると、例えば図8Bに示すように、領域702は、領域701の色とは別の色にてディスプレイに強調して表示される。
FIG. 8A shows an example of a third table used when the recognition accuracy is low and the highlight region is determined using the distance. The third table is stored in advance in the display control unit 402 (or a storage unit (not shown)). In the third table, the distance (for example, the unit is m) as a condition and the highlighted display area are associated with each other. For example, when the distance included in the recognition result information indicates 55 m (D = 55), the
図8Cは、認識精度が高精度であり、かつ、距離を用いて強調表示領域を決定する際に用いられる第4のテーブルの例を示す。第4のテーブルは、第3のテーブルと同様に、表示制御部402(または図示しない記憶部)に予め記憶されており、条件としての距離と強調表示領域とが対応付けられている。例えば、認識結果情報に含まれる距離が55m(D=55)を示す場合、表示制御部402は、強調表示領域を領域704に決定する。この強調表示領域の表示処理が画像生成部500にて実行されると、例えば図8Dに示すように、領域704は、領域703、705の色とは別の色にてディスプレイに強調して表示される。
FIG. 8C shows an example of a fourth table used when the recognition accuracy is high and the highlight region is determined using the distance. Similar to the third table, the fourth table is stored in advance in the display control unit 402 (or a storage unit (not shown)), and the distance as the condition and the highlighted display area are associated with each other. For example, when the distance included in the recognition result information indicates 55 m (D = 55), the
以上、強調表示領域の決定処理の具体例について説明した。 The specific example of the highlight area determination process has been described above.
そして、表示制御部402は、決定した分割数、分割方法、および強調表示領域に基づいて図形を生成してディスプレイに表示するように制御する制御情報を画像生成部500へ出力する。以下、図3のフローに戻る。
Then, the
ステップS007において、画像生成部500は、表示制御部402からの制御情報に基づいて、図形を生成し、表示部600は、その図形をディスプレイに表示する。その結果、例えば、図7B、図7D、図8B、または図8Dに示す表示が行われる。
In step S007, the
次に、図17に示す表示システム10の別の構成例を説明する。前述のように、表示システム10は、検知装置700、算出部300、表示制御装置400、画像生成部500、表示部600を有する。表示制御装置400は、取得部404および制御部405を有する。なお、制御部405の機能は、判定部401および表示制御部402の機能と同様である。以下、図17を用いて、表示システム10の各構成要素について説明する。
Next, another configuration example of the
検知装置700は、移動体の周辺に存在する所定の対象物を検知する。検知装置700は、センサを少なくとも有する。また、検知装置700は認識部200を有してもよい。したがって、検知装置700の検知結果は、少なくともセンシング結果を含む。検知装置700は、所定時間ごとに車両の周辺をセンシングする。センシング結果である移動体の周辺情報に基づいて、所定の対象物を認識するか否かは、装置の仕様に基づいて決定される。検知装置700が所定の対象物の認識をする場合は、検知装置700は、周辺情報に基づいて所定の対象物を認識する。対象物を認識する方法は、前述のとおりである。
The
算出部300は検知装置700の検知装置の検知精度を算出する。ここで、検知精度は、認識精度と同様である。算出部300は、検知精度値を示す検知精度情報を表示制御装置400へ出力する。検知精度の算出方法は前述のとおりであるため、説明を省略する。
The
表示制御装置400は、算出部300から検知精度を受け取る取得部404と、制御部405とを有する。取得部404は、表示制御装置400がハードウェアで構成されるときには、コネクタ、入力端子等であり、実体的な機能はない入力部である。
The
制御部405は、判定部401および表示制御部402を有する。すなわち、制御部405は、検知精度に基づいて、表示媒体に表示されたときに所定形状の図形を表す所定画像を生成するように画像生成部500を制御する。
The
画像生成部500は、表示制御部402からの制御情報に基づいて、所定画像を生成する。所定画像は後述する表示部600によって表示媒体に表示され、所定形状の図形を表す。所定形状の図形の表示例については、図7、図8を用いて後述する。なお、所定画像は、画像であってもよいし、または、画像データであってもよい。後述する表示部600がプロジェクタ機能を有する場合、画像生成部500は画像を生成し、画像が表示部600によって投射される。一方、後述する表示部600がプロジェクタ機能を有するものではない場合、画像生成部500は画像データを生成し、画像データが表示部600によって出力される。
The
表示部600は、画像生成部500において生成された所定画像を、図示しないディスプレイ(表示媒体の一例)に出力することで所定形状の図形を表示媒体に表示させる。表示部600は、例えば、プロジェクタ機能を有し、ディスプレイへ直接投影する。ディスプレイは例えば移動体のフロント・ウインドシールド、または、ウインドシールドとは別に設けられた透明なコンバイナ(例えば、図20に示したコンバイナ801)である。すなわち、表示部600は、ウインドシールドに所定画像を投射することで、所定形状の図形をウインドシールドに表示させる。表示された所定形状の図形は、移動体の乗員に虚像として視認される。
The
図21は、図17に示す表示システム10が有する表示制御装置400の動作例を示すフローチャートである。以下、図17および図21を用いて、制御部405の動作例を説明する。
FIG. 21 is a flowchart illustrating an operation example of the
ステップ101において、取得部404が検知精度を受け取った場合(ステップS101:YES)、ステップS102において、制御部405は、検知精度と、予め定められた閾値とに基づいて、認識精度の高低を判定する。なお、ステップ101において、取得部404が検知精度を受け取っていない場合(ステップS101:NO)、フローは終了する。
In
ステップS10において、検知精度が閾値以上である場合、制御部405は、高精度であると判定する(ステップS102:YES)。この場合、フローはステップS103へ進む。一方、ステップS102において、検知情報が閾値より小さい場合、制御部405は、低精度であると判定する(ステップS102:NO)。この場合、フローはステップS104へ進む。
In step S10, when the detection accuracy is equal to or higher than the threshold value, the
ステップS103において、制御部405は、分割数をn個(nは2以上の整数)に決定する。
In step S103, the
ステップS104において、制御部405は、図形を分割しないか、または、分割数をm個(mはnより小さい2以上の整数)に決定する。
In step S104, the
ここで、ステップS103、S104における分割数および分割方法の決定処理の具体例は、図4〜図6を用いて上述したとおりである。 Here, the specific example of the process of determining the number of divisions and the division method in steps S103 and S104 is as described above with reference to FIGS.
次に、ステップS105において、制御部405は、所定画像を生成するように、画像生成部500を制御する。ここで、所定画像とは、表示媒体に表示されたときに所定形状の図形を表す画像である。所定形状の図形とは、図4〜図6を用いて説明した図形である。
Next, in step S105, the
例えば、ステップS103において分割数をn個に決定した場合、制御部405は、決定した分割方法を用いてn個に分割した所定画像を生成するように、画像生成部500を制御する。その一方、ステップS103において分割を行わないかまたは分割数をm個に決定した場合、制御部405は、分割しない所定画像を生成するように、または、決定した分割方法を用いてm個に分割した所定画像を生成するように、画像生成部500を制御する。
For example, when the number of divisions is determined to be n in step S <b> 103, the
次に、ステップS106において、画像生成部500は、制御部405の制御によって、所定画像を生成する。
Next, in step S106, the
次に、ステップS107において、表示部600は、画像生成部500によって生成された所定画像を表示媒体に出力することで所定形状の図形を表示媒体に表示させる。そして、フローはステップS101へ戻る。
Next, in step S <b> 107, the
以上のように、検知装置700は、移動体の周辺に存在する所定の対象物を検知し、算出部300は、検知装置700の検知精度を算出する。画像生成部500は、所定画像を生成し、表示部600は、所定画像を表示媒体に出力することで所定形状の図形を表示媒体に表示させる。表示制御装置400は、検知精度を受け取る取得部404と、検知精度に基づいて、表示媒体に表示されたときに所定形状の図形を表す所定画像を生成するように画像生成部500を制御する制御部405と、を備える。制御部405は、取得部404が第1の検知精度(高精度)を受け取った場合、表示媒体に表示されたときに、n個に分割された第1の所定形状の図形を表す第1の所定画像を生成するように画像生成部500を制御する。その後、取得部404が第1の検知精度(高精度)よりも低い第2の検知精度(低精度)を受け取った場合、表示媒体に表示されたときに、m個に分割された、または、分割されていない第2の所定形状の図形を表す第2の所定画像を生成するように画像生成部500を制御する。ここで、nは2以上の整数であって、mはnより小さい2以上の整数である。
As described above, the
なお、所定画像と、所定形状の図形とは理想的には同じものである。表示媒体の湾曲の程度等の条件によって多少異なるが、実質的には同じものである。所定画像は画像生成部500が生成し、所定形状の図形は表示媒体に表示される。また、図7を用いて説明した強調表示領域の決定は、車両周辺に注意対象物が存在する場合にのみされるものであってもよい。すなわち、本実施の形態における表示システム10において、強調表示領域を決定し、表示媒体に表示することは必須要素ではない。検知精度に基づいて、表示媒体に所定形状の図形を表示するのみによって、目的は達成される。
Note that the predetermined image and the figure with the predetermined shape are ideally the same. Although it differs somewhat depending on conditions such as the degree of curvature of the display medium, it is substantially the same. The predetermined image is generated by the
図22は、図17に示す表示システム10が、移動体の周辺に存在する所定の対象物を認識したことに応じて、所定形状の図形を表示媒体に表示する場合における、表示システム10の処理フローである。この処理フローについて以下に説明する。
FIG. 22 shows the processing of the
ステップS111において、検知装置700が移動体の周辺に存在する所定の対象物を認識した場合(ステップS111:YES)、ステップS112へ進む。検知装置700が所定の対象物を認識しない場合(ステップS111:NO)、フローは終了する。
In step S111, when the
ステップS112において、算出部300が検知精度を算出した後、フローはステップS102に進む。以降の処理は図21と同様であるため、説明を省略する。
In step S112, after the
なお、分割された所定形状の図形は、均等に分割されている必要はない。例えば、図23に示すように、左右で均等でなくてもよい。例えば、検知装置700がカメラである場合、日陰などの日照条件によっては、自車前方左側、自車前方右側等、部分的に認識精度が低下することが考えられる。検知装置700が、場所ごとに異なる認識精度に応じて、所定形状の図形の分割数を、一律でなく部分的に変更しても良い。図23Aは、自車から見て右前方の認識精度が低下している場合、右前方の表示分解能のみが低下している表示例を示す。一方、図23Bは、自車からみて左前方の認識精度が低下している場合、左前方の表示分解能のみが低下している表示例を示す。
The divided figure with a predetermined shape does not need to be divided equally. For example, as shown in FIG. For example, when the
また、所定形状の図形の分割は、図24A〜図24Dおよび図25A〜図25Dに示すように、破線で区切られているだけでも良い。さらに、破線のみならず、実線、一点鎖線、点線であってもよい。 Moreover, the division | segmentation of the figure of a predetermined shape may just be divided with the broken line, as shown to FIG. 24A-FIG. 24D and FIG. 25A-FIG. 25D. Furthermore, not only a broken line but a solid line, a dashed-dotted line, and a dotted line may be sufficient.
さらに、図18に示すように、所定形状の図形は扇型に限定せず、水平軸に実質的に平行な直線形状であってもよい。当該直線形状であっても、移動体の周辺に存在する所定の対象物の方向を把握できるからである。図18Aは、分割されていない状態を示し、図18Bおよび図18Cは分割されている状態を示す。 Further, as shown in FIG. 18, the figure having a predetermined shape is not limited to a fan shape, and may be a linear shape substantially parallel to the horizontal axis. This is because the direction of a predetermined object existing around the moving body can be grasped even with the linear shape. FIG. 18A shows a state where it is not divided, and FIGS. 18B and 18C show a state where it is not divided.
なお、上記説明において、表示装置20は、表示制御装置400、画像生成部500、表示部600を有すると説明したが、表示媒体がコンバイナである場合には、表示装置20は表示媒体を備えてもよい。図20は、表示媒体がコンバイナである場合の表示装置20の構成例を示す。表示装置20は、表示媒体としてコンバイナ801を備える。
In the above description, the
以上説明したように、本実施の形態では、認識精度を表す図形を常時ディスプレイに表示し、認識精度に応じて図形の分割数を変更することを特徴とする。これにより、車両の運転者は、認識精度を常時かつ直感的に把握することが可能となる。その結果、運転者は、表示システムに対して過度に依存することなく、運転操作を行うことができる。 As described above, the present embodiment is characterized in that a graphic representing recognition accuracy is always displayed on the display, and the number of divisions of the graphic is changed according to the recognition accuracy. Thereby, the driver | operator of a vehicle can grasp | ascertain recognition accuracy always and intuitively. As a result, the driver can perform the driving operation without depending on the display system excessively.
また、本実施の形態では、認識部による対象物の認識結果(例えば、相対角度または距離)が同じであったとしても、認識精度に応じて図形の分割数および強調表示領域の位置を変更することを特徴とする。これにより、認識精度が低い場合は低い分解能で、または、認識精度が高い場合は高い分解能で、対象物の存在方向または対象物と車両との距離を表示することができる。 In the present embodiment, even if the recognition result (for example, relative angle or distance) of the object by the recognition unit is the same, the number of divisions of the figure and the position of the highlight area are changed according to the recognition accuracy. It is characterized by that. Thereby, the presence direction of the object or the distance between the object and the vehicle can be displayed with a low resolution when the recognition accuracy is low, or with a high resolution when the recognition accuracy is high.
以上、本発明の実施の形態1について説明したが、本発明は上記実施の形態1に限定されず、種々の変形が可能である。以下、変形例について説明する。 As mentioned above, although Embodiment 1 of this invention was demonstrated, this invention is not limited to the said Embodiment 1, and various deformation | transformation are possible. Hereinafter, modified examples will be described.
(変形例1)
上記実施の形態では、分割対象となる第2の図形を半円としたが(例えば、図4の図形302参照)、第1の図形の形状はこれに限定されない。例えば、センサ100として、車両の前方に加えて、車両の側方および後方をセンシング可能なセンサを用いることで、車両周辺の全方位の対象物を検出することが可能となる。この場合、例えば、図9Aおよび図9Bに示すように、車両とその全方位の周辺を示す環状の図形802(第2の図形の一例)を用いてもよい。例えば、強調表示領域の決定の際に相対角度が用いられ、かつ、認識精度が低精度である場合、表示制御部402は、分割数を4(m=4)に決定した上で、図9Aに示すように、図形301を通る分割直線803を用いて図形802を4分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図9Bまたは図9Cに示すようにディスプレイに表示される。また、例えば、強調表示領域の決定の際に相対角度が用いられ、かつ、認識精度が高精度である場合、表示制御部402は、分割数を6(n=6)に決定した上で、図9Dに示すように、図形301を通る分割直線803を用いて図形802を6分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図9Eまたは図9Fに示すようにディスプレイに表示される。
(Modification 1)
In the above embodiment, the second figure to be divided is a semicircle (see, for example, the figure 302 in FIG. 4), but the shape of the first figure is not limited to this. For example, by using a sensor capable of sensing the side and rear of the vehicle in addition to the front of the vehicle as the
(変形例2)
強調表示領域の決定の際に距離が用いられる場合、例えば、図10Aおよび図10Bに示すように、分割対象となる第2の図形として多角形の図形902を用いてもよい。例えば、認識精度が低精度である場合、表示制御部402は、分割数を2(m=2)に決定した上で、図10Aに示すように、車両の進行方向(図形301の先端が示す方向)に対して垂直な方向に伸びる分割直線903を用いて図形902を2分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図10Bまたは図10Cに示すようにディスプレイに表示される。また、例えば、認識精度が高精度である場合、表示制御部402は、分割数を3(n=3)に決定した上で、図10Dに示すように、車両の進行方向に垂直な分割直線903を用いて図形902を3分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図10Eまたは図10Fに示すようにディスプレイに表示される。
(Modification 2)
When the distance is used in determining the highlight display area, for example, as shown in FIGS. 10A and 10B, a polygonal figure 902 may be used as the second figure to be divided. For example, when the recognition accuracy is low accuracy, the
(変形例3)
上記実施の形態では、強調表示領域の決定の際に相対角度が用いられる場合に第1の分割方法を行う一方で、強調表示領域の決定の際に距離が用いられる場合に第2の分割方法を行う例について説明したが、これに限定されない。例えば、強調表示領域の決定の際に相対角度および距離の両方が用いられるとしてもよい。この場合、第1の分割方法と第2の分割方法を組み合わせてもよい。例えば、認識精度が低精度である場合、表示制御部402は、図11Aに示すように、分割直線303により図形302を3分割し、かつ、分割曲線304により図形302を2分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図11Bまたは図11Cに示すようにディスプレイに表示される。また、例えば、認識精度が高精度である場合、表示制御部402は、図11Dに示すように、分割直線303により図形302を5分割し、かつ、分割曲線304により図形302を3分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図11Eまたは図11Fに示すようにディスプレイに表示される。なお、図11において、強調表示領域の図示は省略しているが、これについては以下のように行われてもよい。例えば、相対角度と距離の両方が高精度である場合、図11Dに示す分割直線303と分割曲線304により分割された領域1つを強調表示領域として表示すればよい。また、例えば、距離は低精度で相対角度が高精度である場合、距離については図11Aに示すように円周方向に3分割とし、相対角度については図11Dに示すように図形301を通る直線により5分割した上で、分割された領域の1つを強調領域としてもよい。
(Modification 3)
In the above-described embodiment, the first division method is performed when the relative angle is used when determining the highlight region, while the second division method is used when the distance is used when determining the highlight region. Although the example which performs is demonstrated, it is not limited to this. For example, both the relative angle and the distance may be used when determining the highlight area. In this case, the first division method and the second division method may be combined. For example, when the recognition accuracy is low accuracy, the
(変形例4)
認識精度をより向上させるために、センサ100として、例えば、ミリ波センサ、カメラ、レーザレーダ等の複数の種別のセンサを有するように構成してもよい。この場合、動作するセンサの種別が多い程、算出部300は、認識精度を高く算出するようにしてもよい。また、算出部300は、複数のセンサのうち正常に動作しているセンサの数または故障しているセンサの数に基づいて、認識精度を算出するようにしてもよい。
(Modification 4)
In order to further improve the recognition accuracy, the
(変形例5)
認識精度に応じて第2の図形の分割数が変更される場合、強調表示領域の表示面積が変わることになる。強調表示領域の面積は危険度(車両が対象物と衝突する可能性。緊急度ともいう)を示すものではないが、例えば、強調表示領域の面積が大きくなった場合、危険度が増したという誤った印象を乗員に与えるおそれがある。そこで、強調表示領域の面積が小から大へ遷移する場合、表示制御部402は、遷移後の強調表示領域の輝度を遷移前の強調表示領域の輝度よりも下げるようにしてもよい。例えば、図7Dに示す図形の表示中に認識精度が下がり、図7Bに示す図形の表示に切り替わる場合、表示制御部402は、領域603の輝度を領域607の輝度よりも下げるように制御する。一方、強調表示領域の面積が大から小へ遷移する場合、表示制御部402は、遷移後の強調表示領域の輝度を遷移前の強調表示領域の輝度を上げるようにしてもよい。例えば、図7Bに示す図形の表示中に認識精度が上がり、図7Dに示す図形の表示に切り替わる場合、表示制御部402は、領域607の輝度を領域603の輝度よりも上げるように制御する。このような制御により、上述した誤った印象を乗員に与えることを回避できる。
(Modification 5)
When the number of divisions of the second graphic is changed according to the recognition accuracy, the display area of the highlight area changes. The area of the highlighted area does not indicate the degree of danger (the possibility that the vehicle will collide with the object, also called the degree of urgency). For example, if the area of the highlighted area increases, the degree of danger increases. There is a risk of giving the passenger a false impression. Therefore, when the area of the highlighted display area transitions from small to large, the
(変形例6)
上記実施の形態では、強調表示領域を決定する際、相対角度に応じて強調表示領域の位置を決定したが、これとは異なる方法で強調表示領域を決定してもよい。この例について図7Bに示す図形を用いて説明する。例えば、並行する3つのレーンの中央のレーンを車両が走行している場合において、認識すべき対象物として同じレーンを走行している先行車両が存在する場合、表示制御部402は、領域602を強調表示領域に決定する。また、右側のレーンを走行している先行車両が存在する場合、表示制御部402は、領域603を強調表示領域に決定する。また、左側のレーンを走行している先行車両が存在する場合、表示制御部402は、領域601を強調表示領域に決定する。
(Modification 6)
In the above-described embodiment, when the highlighted area is determined, the position of the highlighted area is determined according to the relative angle. However, the highlighted area may be determined by a different method. This example will be described using the figure shown in FIG. 7B. For example, when the vehicle is traveling in the center lane of three parallel lanes, and there is a preceding vehicle traveling in the same lane as the object to be recognized, the
(変形例7)
上記実施の形態では、判定部401が認識精度と閾値との比較を行うことで、認識精度が高精度であるかまたは低精度であるかという2値の判定を行ったが、これに限定されない。例えば、閾値を複数設けることで、3値以上で認識精度を判定してもよい。これにより、図形の分割数のパタンを増やすことができ、より詳細な認識精度を運転者に伝えることができる。また、対象物の存在位置および/または対象物との距離をより詳細に運転者に伝えることができる。
(Modification 7)
In the above embodiment, the
(変形例8)
上記実施の形態では、判定部401が精度の高低を判定し、その判定に基づいて表示制御部402が分割数を決定する例としたが、これに限定されない。例えば、判定部401が分割数の決定を行ってもよい。例えば、判定部401は、認識精度値と分割数とが対応付けられたテーブルと、算出部300からの認識精度値とに基づいて分割数を決定し、それを判定結果情報として表示制御部402へ出力してもよい。または、例えば、判定部401は、算出部300で算出された認識精度値から分割数を算出する所定の数式を用いて分割数を算出し、それを判定結果情報として表示制御部402へ出力してもよい。なお、上記本変形例の処理は、表示制御部402が算出部300から認識精度値を直接受け取るように構成することで、表示制御部402が行ってもよい(この場合、判定部401を構成から省くことができる)。
(Modification 8)
In the above embodiment, the
(変形例9)
第1の図形または第2の図形は、図形全体を所定の色で塗りつぶしたものであってもよいし、図形の輪郭のみを所定の色で色付けしたものであってもよい。
(Modification 9)
The first graphic or the second graphic may be one in which the entire graphic is filled with a predetermined color, or only the outline of the graphic is colored with a predetermined color.
(変形例10)
センサ100により対象物が検出されているか否かに応じて、第1の図形および/または第2の図形の色を変更してもよい。例えば、対象物が検出されていない場合、表示制御部402は、運転者に対して危険度が低い印象を与える色(例えば、青色または緑色)を用いて図形の表示を行う。一方、対象物が検出された場合、表示制御部402は、運転者に対して危険度が高い印象を与える色(例えば、黄色または赤色)を用いて図形の表示を行う。
(Modification 10)
Depending on whether the object is detected by the
(変形例11)
強調表示領域の色は、距離に応じて変更してもよい。例えば、表示制御部402は、距離が所定値以上の場合は黄色を用い、距離が所定値未満の場合は赤色を用いるように制御する。
(Modification 11)
The color of the highlight area may be changed according to the distance. For example, the
(変形例12)
センサ100は、同じ種類のものであっても、センシング可能な範囲が異なる。例えば、カメラの場合、使用するレンズの違いにより、検出範囲が狭い(例えば、正面を中心に水平方向にそれぞれ10度)もの、または、検出範囲が広い(例えば正面を中心に水平方向にそれぞれ30度)ものがある。そこで、第2の図形の全体形状を変更することで、センシング範囲を示すようにしてもよい。この例について、図4に示す図形302を用いて説明する。例えば、センシング範囲が狭い場合、図形302の角度を狭めてより鋭角な扇形に変更する。これにより、運転者は、センシング範囲が狭いことを直感的に把握できる。
(Modification 12)
Even if the
(変形例13)
上記実施の形態では、表示制御部402が、決定した分割数に応じて分割直線または分割曲線を用いて分割方法を決定する例としたが、これに限定されない。例えば、表示制御部402(または図示しない記憶部)は、所定の分割数で分割された第2の図形をテンプレートとして保持してもよい。この場合、表示制御部402は、判定部401の判定結果に対応するテンプレートを適宜選択する。
(Modification 13)
In the above embodiment, the
(変形例14)
例えば、認識部200により複数の対象物が認識された場合、算出部300および判定部401は、それぞれ、複数の対象物のそれぞれについて認識精度の算出および判定を行うようにしてもよい。そして、例えば、表示制御部402は、認識精度が低い方の対象物に対する認識精度の算出および認識精度の判定に応じて、第2の図形の分割数および分割方法の決定、強調表示領域の決定を行うようにしてもよい。
(Modification 14)
For example, when a plurality of objects are recognized by the
(変形例15)
第1の図形(例えば、図形301)を表示せずに、第2の図形のみ(例えば、図形302)を表示してもよい。
(Modification 15)
Only the second graphic (for example, graphic 302) may be displayed without displaying the first graphic (for example, graphic 301).
(実施の形態2)
本発明の実施の形態2について、図12を参照して説明する。図12は、本実施の形態に係る表示システム10の構成例を示すブロック図である。図12では、表示システム10において、センサ101が追加され、認識部200および算出部300を備えない点が図1と異なる。なお、図12の各構成要素は図1を用いて説明済みであるので、以下では、それらの詳細な説明は省略する。
(Embodiment 2)
A second embodiment of the present invention will be described with reference to FIG. FIG. 12 is a block diagram illustrating a configuration example of the
センサ100は、例えばセンシングカメラである。センサ100は、車両の周辺を検出し、その検出結果を判定部401へ出力する。
The
また、センサ101は、認識精度が低下しやすい走行環境(例えば、雨、霧、みぞれ、雹、雪などの悪天候の中を車両が走行しているか、逆光または対向車のヘッドライトなどにより車両周辺の照度が増加したか、夜間またはトンネル内の走行により車両周辺の照度が減少したか)を検出可能なセンサであり、例えば、雨滴センサまたは照度センサである。センサ101は、雨、霧、雪による悪天候、または、逆光、他の車両からの照明光、夜間の走行、トンネル内の走行による照度変化を検出し、その検出結果を判定部401へ出力する。
In addition, the
判定部401は、センサ101において悪天候または照度変化が検出されない場合、センサ100の認識精度を第1の認識精度であると判定する。また、判定部401は、センサ101において悪天候または照度変化が検出された場合、センサ100の認識精度を第1の認識精度よりも低い第2の認識精度であると判定する。
The
表示制御部402は、判定部401によりセンサ100の認識精度が第1の認識精度であると判定された場合、表示媒体に表示されたときに、所定の対象物と車両との位置関係を示し、n(2以上の整数)個に分割された所定形状の図形を表す所定画像を生成するように画像生成部500を制御する。また、表示制御部402は、センサ100の認識精度が第2の認識精度であると判定された場合、表示媒体に表示されたときに、分割されていない、または、m(nより小さい2以上の整数)個に分割された所定形状の図形を表す所定画像を生成するように画像生成部500を制御する。
When the
以上説明したように、本実施の形態は、上記実施の形態1と同じ効果を得ることができる。なお、実施の形態1で説明した各変形例を、本実施の形態に適宜適用してもよい。 As described above, the present embodiment can obtain the same effects as those of the first embodiment. Note that each modification described in Embodiment 1 may be applied to this embodiment as appropriate.
(実施の形態3)
本発明の実施の形態3について、図面を参照して説明する。
(Embodiment 3)
Embodiment 3 of the present invention will be described with reference to the drawings.
認識精度に応じて図形の分割数が変更される場合、表示中の第2の図形の消去と、次に表示される第2の図形の表示を同時に行うと、画像が瞬時に大きく変化するため、運転者に煩わしさを与えてしまう。そこで、本実施の形態では、認識精度に応じて図形の分割数が変更される場合、表示中の第2の図形の消去と次に表示される第2の図形の表示を時系列で変化させる制御を行うようにする。 When the number of graphic divisions is changed according to the recognition accuracy, if the second graphic being displayed and the second graphic displayed next are simultaneously displayed, the image will change greatly instantaneously. , It will be annoying to the driver. Therefore, in the present embodiment, when the number of divisions of the graphic is changed according to the recognition accuracy, the deletion of the second graphic being displayed and the display of the second graphic to be displayed next are changed in time series. Make control.
まず、本実施の形態に係る表示システム10の構成例について説明する。図13は、本実施の形態に係る表示システム10の構成例を示すブロック図である。図13では、表示制御装置400に表示補正部403が追加されている点が図1と異なる。なお、図13において、図1と同じ構成要素には同一符号を付し、その説明は省略する。
First, a configuration example of the
表示補正部403は、表示中の第2の図形(以下、表示中図形という)の消去と次に表示される第2の図形(以下、最新図形という)との間で分割数に変更がある場合に、表示制御部402からの制御情報を補正し、それを画像生成部500へ出力する。補正後の制御情報は、表示中図形の消去と最新図形の表示を時系列で変化させる制御を画像生成部500に実行させる内容となる。表示補正部403の詳細な動作は、図14を用いて後述する。
The
次に、本実施の形態に係る表示システム10の動作例について説明する。図14は、本実施の形態に係る表示システム10の動作例を示すフローチャートである。
Next, an operation example of the
ステップS011において、表示補正部403は、表示制御部402から最新の制御情報を取得する。この制御情報は、例えば、最新図形の形状、分割数、分割方法、強調表示領域を含む。
In step S011, the
ステップS012において、表示補正部403は、表示中図形に係る制御情報(以下、表示中の制御情報という)に含まれる分割数と、最新の制御情報に含まれる分割数とを比較し、それらの間に分割数の変化があるか否かを判定する。上記表示中の制御情報は、最新の制御情報を取得する前に、表示補正部403が記憶しているとする。
In step S012, the
ステップS012の判定処理の結果、分割数の変化がないと判定した場合(ステップS012:NO)、表示補正部403は、最新の制御情報の補正を行わず、その最新の制御情報を画像生成部500へ出力し、かつ、その最新の制御情報を新たに記憶する。その後、フローはステップS016へ進む。
As a result of the determination process in step S012, when it is determined that there is no change in the number of divisions (step S012: NO), the
一方、ステップS012の判定処理の結果、分割数の変化があると判定した場合(ステップS012:YES)、フローは、ステップS013へ進む。 On the other hand, if it is determined that there is a change in the number of divisions as a result of the determination process in step S012 (step S012: YES), the flow proceeds to step S013.
ステップS013において、表示補正部403は、最新の制御情報を取得した時点からの経過時間(以下、単に経過時間という)を算出する。
In step S013, the
ステップS014において、表示補正部403は、経過時間に応じて表示中図形の輝度を設定する。この設定の具体例を図15Aに示す。図15Aに示すように、表示補正部403は、経過時間に応じて表示中図形の輝度(相対値)が徐々に減少するように設定する。
In step S014, the
ステップS015において、表示補正部403は、経過時間に応じて最新図形の輝度を設定する。この設定の具体例を図15Bに示す。図15Bに示すように、表示補正部403は、経過時間に応じて最新図形の輝度(相対値)が徐々に増加するように設定する。
In step S015, the
そして、表示補正部403は、表示中の制御情報、最新の制御情報、ステップS014における輝度設定、ステップS015における輝度設定を含む情報を、補正後の制御情報として画像生成部500へ出力する。また、表示補正部403は、最新の制御情報を新たに記憶する。
Then, the
ステップS016において、画像生成部500は、表示補正部403からの制御情報に基づいて、図形を生成し、表示部600は、その図形をディスプレイに表示する。例えば、ステップS012の判定処理の結果、分割数に変化がないと判定された場合、補正されていない最新の制御情報に基づいて図形の生成、表示が行われる。一方、ステップS012の判定処理の結果、分割数に変化があると判定された場合、補正後の制御情報に基づいて図形の生成、表示が行われる。この具体例を図15Cに示す。例えば、図7Dに示す図形(表示中図形の一例)の表示中に認識精度が低下し、図7Bに示す図形(最新図形の一例)の表示に切り替わる場合、図15Cに示すように、経過時間に応じて、図7Dの図形の輝度が徐々に低下するとともに図7Bの図形の輝度が徐々に増加するように表示される。
In step S016, the
以上説明したように、本実施の形態では、認識精度に応じて図形の分割数が変更される場合、表示中図形の消去と最新図形の表示を時系列で変化させる制御を行うことを特徴とする。これにより、表示中図形が徐々に消えていき、最新図形が徐々に現われるように見えるため、運転者に与える煩わしさを低減することができる。 As described above, the present embodiment is characterized in that when the number of divisions of a graphic is changed according to the recognition accuracy, control is performed to change the erasure of the displayed graphic and the display of the latest graphic in time series. To do. As a result, the graphic being displayed gradually disappears and the latest graphic appears to appear gradually, so that the troublesomeness given to the driver can be reduced.
以上、本発明の実施の形態3について説明したが、本発明は上記実施の形態3に限定されず、種々の変形が可能である。例えば、実施の形態1において説明した各変形例および/または実施の形態2を、上記実施の形態3に適宜適用してもよい。 As mentioned above, although Embodiment 3 of this invention was demonstrated, this invention is not limited to the said Embodiment 3, and a various deformation | transformation is possible. For example, each modification and / or second embodiment described in the first embodiment may be applied to the third embodiment as appropriate.
なお、上述した各実施の形態における表示システム10、表示制御装置400の各部の機能は、コンピュータプログラムにより実現され得る。
In addition, the function of each part of the
図16は、各部の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。このコンピュータ1000は、入力ボタン、タッチパッドなどの入力装置1001、ディスプレイやスピーカなどの出力装置1002、CPU(Central Processing Unit)1003、ROM(Read Only Memory)1004、RAM(Random Access Memory)1005、ハードディスク装置やSSD(Solid State Drive)などの記憶装置1006、DVD−ROM(Digital Versatile Disk Read Only Memory)やUSB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置1007、ネットワークを介して通信を行う送受信装置1008を備え、各部はバス1009により接続される。
FIG. 16 is a diagram illustrating a hardware configuration of a computer that realizes the functions of the respective units by a program. The
そして、読取装置1007は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置1006に記憶させる。あるいは、送受信装置1008が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置1006に記憶させる。
Then, the
そして、CPU1003が、記憶装置1006に記憶されたプログラムをRAM1005にコピーし、そのプログラムに含まれる命令をRAM1005から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM1005または記憶装置1006には、各実施の形態で述べた各種処理で得られた情報が記憶され、適宜利用される。
Then, the
本発明は、ユーザ(例えば、車両等の乗員、または、表示デバイスを装着したユーザ等)に対して提供される情報の表示を制御する表示制御装置および表示制御プログラムに有用である。 The present invention is useful for a display control apparatus and a display control program that control display of information provided to a user (for example, an occupant such as a vehicle or a user wearing a display device).
なお、上記実施の形態の説明に用いた各機能ブロックは、集積回路であるLSI(Large Scale Integration)として実現されてもよい。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。 Each functional block used in the description of the above embodiment may be realized as an LSI (Large Scale Integration) that is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them. The name used here is LSI, but it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Further, the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI, or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。 Furthermore, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied.
10 表示システム
20 表示装置
100、101 センサ
200 認識部
300 算出部
301、302、802、902 図形
303、803、903 分割直線
304 分割曲線
400 表示制御装置
401 判定部
402 表示制御部
403 表示補正部
404 取得部
405 制御部
500 画像生成部
600 表示部
601〜608、701〜705 領域
700 検知装置
801 コンバイナ
1000 コンピュータ
1001 入力装置
1002 出力装置
1003 CPU
1004 ROM
1005 RAM
1006 記憶装置
1007 読取装置
1008 送受信装置
1009 バス
DESCRIPTION OF
1004 ROM
1005 RAM
1006
Claims (3)
前記検知精度に基づいて、表示媒体に表示されたとき所定形状の図形を分割した提示画像を表す所定画像を生成するように画像生成部を制御する制御部と、を備え、
前記検知精度が、前記移動体の周辺のうち第1方向の検知精度が前記第1方向以外の方向の検知精度よりも低いものである場合、
前記提示画像において、前記所定形状の図形が分割されてなる複数の領域の大きさは均等ではない、
表示制御装置。 An input unit for receiving detection accuracy of an object existing around the moving body;
A control unit that controls the image generation unit to generate a predetermined image representing a presentation image obtained by dividing a figure of a predetermined shape when displayed on a display medium based on the detection accuracy;
When the detection accuracy is lower than the detection accuracy in the direction other than the first direction in the vicinity of the moving body,
In the presented image, the size of the plurality of regions formed by dividing the figure of the predetermined shape is not uniform.
Display control device.
請求項1に記載の表示制御装置。 Of the plurality of regions, the size of the first region corresponding to the first direction is larger than the size of one or more second regions corresponding to directions other than the first direction.
The display control apparatus according to claim 1.
前記表示制御装置のコンピュータに対して、
前記移動体の周辺の検知精度が均等である第1検知精度であるとき、前記所定形状の図形が分割されてなる複数の領域の大きさが均等である第1提示画像を表す第1所定画像を前記画像生成部に生成させる処理と、
前記第1検知精度から、前記移動体の周辺のうち第1方向の検知精度が前記第1方向以外の方向の検知精度よりも低い第2検知精度に変化したとき、前記複数の領域の大きさが均等ではない第2提示画像を表す第2所定画像を前記画像生成部に生成させる処理と、を実行させる、
表示制御プログラム。 A display that includes an input unit that receives detection accuracy of an object existing around a moving body, and an image generation unit that generates a predetermined image representing a presentation image obtained by dividing a figure of a predetermined shape when displayed on a display medium A display control program executed in a display control device in a system,
For the computer of the display control device,
A first predetermined image representing a first presentation image in which the sizes of a plurality of regions obtained by dividing the figure of the predetermined shape are equal when the detection accuracy around the moving body is equal to the first detection accuracy. Processing to generate the image generation unit,
The size of the plurality of regions when the detection accuracy in the first direction of the periphery of the moving body changes from the first detection accuracy to a second detection accuracy lower than the detection accuracy in a direction other than the first direction. Causing the image generation unit to generate a second predetermined image representing a second presentation image that is not equal,
Display control program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015203808A JP6337864B2 (en) | 2014-03-06 | 2015-10-15 | Display control apparatus and display control program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014043769 | 2014-03-06 | ||
JP2014043769 | 2014-03-06 | ||
JP2015203808A JP6337864B2 (en) | 2014-03-06 | 2015-10-15 | Display control apparatus and display control program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015153368A Division JP5866545B1 (en) | 2014-03-06 | 2015-08-03 | Display control apparatus and display control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016048562A JP2016048562A (en) | 2016-04-07 |
JP6337864B2 true JP6337864B2 (en) | 2018-06-06 |
Family
ID=55347038
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015153368A Expired - Fee Related JP5866545B1 (en) | 2014-03-06 | 2015-08-03 | Display control apparatus and display control program |
JP2015203808A Expired - Fee Related JP6337864B2 (en) | 2014-03-06 | 2015-10-15 | Display control apparatus and display control program |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015153368A Expired - Fee Related JP5866545B1 (en) | 2014-03-06 | 2015-08-03 | Display control apparatus and display control program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP5866545B1 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6693189B2 (en) | 2016-03-11 | 2020-05-13 | ヤマハ株式会社 | Sound signal processing method |
CA3027414A1 (en) * | 2016-07-06 | 2018-01-11 | Facebook, Inc. | Combining faces from source images with target images based on search queries |
CN110582803B (en) * | 2017-04-26 | 2022-02-08 | 三菱电机株式会社 | Processing apparatus |
JP6844575B2 (en) * | 2018-04-04 | 2021-03-17 | 株式会社デンソー | In-vehicle system and display device |
JP7041845B2 (en) * | 2018-05-21 | 2022-03-25 | 日本精機株式会社 | Vehicle display device, vehicle display device control method, vehicle display device control program |
JP2020148501A (en) * | 2019-03-11 | 2020-09-17 | 日本電産モビリティ株式会社 | In-vehicle monitoring device, in-vehicle monitoring system, and in-vehicle monitoring program |
KR102290415B1 (en) * | 2019-12-26 | 2021-08-18 | 주식회사 유테크 | Obstacle Detection Notification Device Installed in Personal Mobility |
JP2021149162A (en) * | 2020-03-16 | 2021-09-27 | 株式会社Soken | Transportation system |
JP2022078482A (en) * | 2020-11-13 | 2022-05-25 | 株式会社デンソー | Vehicle control device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4557819B2 (en) * | 2005-06-21 | 2010-10-06 | アルパイン株式会社 | Vehicle periphery information providing device |
JP5505702B2 (en) * | 2010-02-24 | 2014-05-28 | アイシン精機株式会社 | Vehicle periphery monitoring device |
-
2015
- 2015-08-03 JP JP2015153368A patent/JP5866545B1/en not_active Expired - Fee Related
- 2015-10-15 JP JP2015203808A patent/JP6337864B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016048562A (en) | 2016-04-07 |
JP2016027474A (en) | 2016-02-18 |
JP5866545B1 (en) | 2016-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5861072B2 (en) | Display control device, display device, and display control program | |
JP6337864B2 (en) | Display control apparatus and display control program | |
JP6440115B2 (en) | Display control apparatus, display control method, and display control program | |
US11183067B2 (en) | Image generating apparatus, image generating method, and recording medium | |
JP6562239B2 (en) | Display control apparatus, display control method, display control program, and projection apparatus | |
CN109219551B (en) | Road condition head-up display | |
US20150103174A1 (en) | Display control apparatus, method, recording medium, and vehicle | |
JP6550609B2 (en) | Display control device, projection device, and display control program | |
JP6443716B2 (en) | Image display device, image display method, and image display control program | |
US20160274658A1 (en) | Graphic meter device | |
JP6620977B2 (en) | Display control device, projection device, and display control program | |
WO2020105685A1 (en) | Display control device, method, and computer program | |
WO2015004784A1 (en) | Vehicular information display device, and vehicular information display method | |
JP6600342B2 (en) | Gesture operation method based on depth value and gesture operation system based on depth value | |
KR102384426B1 (en) | Apparatus and method for preventing glare when driving | |
US20230022485A1 (en) | Vehicle display control device, vehicle display device, vehicle display control method, and non-transitory storage medium | |
KR102633253B1 (en) | Display control device, display system, display method, and non-transitory storage medium | |
JP2020019369A (en) | Display device for vehicle, method and computer program | |
US20230162390A1 (en) | Image display system and image controller | |
JP2023076044A (en) | image display device | |
JP2019177718A (en) | Display control unit and head-up display device | |
JP2017204167A (en) | Notification control device, notification control method, and notification control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180417 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180423 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6337864 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |