JP6337864B2 - Display control apparatus and display control program - Google Patents

Display control apparatus and display control program Download PDF

Info

Publication number
JP6337864B2
JP6337864B2 JP2015203808A JP2015203808A JP6337864B2 JP 6337864 B2 JP6337864 B2 JP 6337864B2 JP 2015203808 A JP2015203808 A JP 2015203808A JP 2015203808 A JP2015203808 A JP 2015203808A JP 6337864 B2 JP6337864 B2 JP 6337864B2
Authority
JP
Japan
Prior art keywords
display
unit
display control
image
accuracy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015203808A
Other languages
Japanese (ja)
Other versions
JP2016048562A (en
Inventor
望月 誠
誠 望月
江村 恒一
恒一 江村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2015203808A priority Critical patent/JP6337864B2/en
Publication of JP2016048562A publication Critical patent/JP2016048562A/en
Application granted granted Critical
Publication of JP6337864B2 publication Critical patent/JP6337864B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両等の乗員に対して提供される情報の表示を制御する表示制御装置および表示制御プログラムに関する。   The present invention relates to a display control device and a display control program for controlling display of information provided to a passenger such as a vehicle.

近年、車両に搭載されたセンサを用いて車両周辺に存在する対象物(例えば、車両、歩行者、白線、道路標識等)を検出し、その対象物と衝突の可能性が高いと判断した場合、車両の乗員に対して情報提示を行う運転支援システムの開発が盛んである。   In recent years, when an object (for example, a vehicle, a pedestrian, a white line, a road sign, etc.) existing around the vehicle is detected using a sensor mounted on the vehicle, it is determined that there is a high possibility of a collision with the object. The development of driving support systems that present information to vehicle occupants is thriving.

しかし、車両の走行する環境によって、センサが車両周辺の対象物を検出する精度(以下、センシング精度という)が変化する場合がある。センシング精度に応じて乗員への情報提示を変更する方法として、例えば、特許文献1に開示された技術がある(以下、従来技術という)。   However, the accuracy with which the sensor detects an object around the vehicle (hereinafter referred to as sensing accuracy) may vary depending on the environment in which the vehicle travels. As a method for changing the presentation of information to an occupant according to sensing accuracy, for example, there is a technique disclosed in Patent Document 1 (hereinafter referred to as a conventional technique).

従来技術は、車両に搭載されたカメラにより撮影された画像を表示する際に、画像に含まれる対象物の信頼度に応じて対象物の強調表示を行う。これにより、センシング精度が低下したときに表示中の情報が突然表示されなくなる、といった違和感を乗員に与えることを回避できる。   In the related art, when an image taken by a camera mounted on a vehicle is displayed, the object is highlighted according to the reliability of the object included in the image. As a result, it is possible to avoid giving the passenger an uncomfortable feeling that information being displayed is suddenly not displayed when the sensing accuracy is lowered.

特開2009−117978号公報JP 2009-117978 A

しかしながら、従来技術は、対象物をセンシング精度に応じて強調表示するが、センシング精度は考慮されていなかった。   However, the conventional technology highlights the object according to the sensing accuracy, but the sensing accuracy is not taken into consideration.

本発明の目的は、移動体の乗員がセンシング精度を把握できる表示制御装置および表示制御プログラムを提供することである。   The objective of this invention is providing the display control apparatus and display control program which the passenger | crew of a mobile body can grasp | ascertain sensing accuracy.

本発明の一態様に係る表示制御装置は、移動体の周辺に存在する対象物の検知精度を受け取る入力部と、前記検知精度に基づいて、表示媒体に表示されたとき所定形状の図形を分割した提示画像を表す所定画像を生成するように画像生成部を制御する制御部と、を備え、前記検知精度が、前記移動体の周辺のうち第1方向の検知精度が前記第1方向以外の方向の検知精度よりも低いものである場合、前記提示画像において、前記所定形状の図形が分割されてなる複数の領域の大きさは均等ではない。   A display control device according to an aspect of the present invention divides a figure having a predetermined shape when displayed on a display medium based on an input unit that receives detection accuracy of an object existing around a moving body and the detection accuracy A control unit that controls the image generation unit so as to generate a predetermined image representing the presented image, and the detection accuracy of the first direction out of the periphery of the moving body is other than the first direction When the accuracy is lower than the direction detection accuracy, the sizes of the plurality of regions obtained by dividing the figure of the predetermined shape are not uniform in the presented image.

本発明によれば、移動体の乗員はセンシング精度を把握できる。   According to the present invention, an occupant of a moving body can grasp sensing accuracy.

本発明の実施の形態1に係る表示システムの構成例を示すブロック図The block diagram which shows the structural example of the display system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る表示システムの構成例を示すブロック図The block diagram which shows the structural example of the display system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る表示システムの動作例を示すフローチャートThe flowchart which shows the operation example of the display system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像の表示例を示す図The figure which shows the example of a display of the image which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像の分割例を示す図The figure which shows the example of a division | segmentation of the image which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像の分割例を示す図The figure which shows the example of a division | segmentation of the image which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係るテーブルおよび強調表示の例を示す図The figure which shows the example which concerns on Embodiment 1 of this invention, and an emphasis display 本発明の実施の形態1に係るテーブルおよび強調表示の例を示す図The figure which shows the example which concerns on Embodiment 1 of this invention, and an emphasis display 本発明の実施の形態1に係る画像の分割例を示す図The figure which shows the example of a division | segmentation of the image which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像の分割例を示す図The figure which shows the example of a division | segmentation of the image which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像の分割例を示す図The figure which shows the example of a division | segmentation of the image which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係る表示システムの構成例を示すブロック図The block diagram which shows the structural example of the display system which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係る表示システムの構成例を示すブロック図The block diagram which shows the structural example of the display system which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る表示システムの動作例を示すフローチャートThe flowchart which shows the operation example of the display system which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る輝度の設定パタンおよび画像の遷移の例を示す図The figure which shows the example of the setting pattern of the brightness | luminance which concerns on Embodiment 3 of this invention, and an image transition 本発明の実施の形態1〜3に係る表示制御システム、表示制御装置のハードウェア構成例を示すブロック図The block diagram which shows the hardware structural example of the display control system which concerns on Embodiment 1-3 of this invention, and a display control apparatus. 本発明の実施の形態1に係る表示システムの別の構成例を示すブロック図The block diagram which shows another structural example of the display system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像の分割例を示す図The figure which shows the example of a division | segmentation of the image which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像の分割例を示す図The figure which shows the example of a division | segmentation of the image which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係るコンバイナの一例を示す図The figure which shows an example of the combiner which concerns on Embodiment 1 of this invention 図17の表示システムの表示制御装置の動作例を示すフローチャートThe flowchart which shows the operation example of the display control apparatus of the display system of FIG. 図17の表示システムの表示制御装置の別の動作例を示すフローチャートThe flowchart which shows another operation example of the display control apparatus of the display system of FIG. 本発明の実施の形態1に係る画像の分割例を示す図The figure which shows the example of a division | segmentation of the image which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像の分割例を示す図The figure which shows the example of a division | segmentation of the image which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像の分割例を示す図The figure which shows the example of a division | segmentation of the image which concerns on Embodiment 1 of this invention.

従来の運転支援システムでは、例えば、センサとしてカメラを用いた場合、夜間、逆光、雨天などの走行環境において、センシング精度が低下するおそれがある。また、従来の運転支援システムでは、例えば、センサとしてミリ波レーダを用いた場合、レーダを反射する障害物が存在する走行環境において、センシング精度が低下するおそれがある。このようにセンシング精度が低下した状況であるにもかかわらず、乗員に対して通常と同様の情報提示を行った場合、誤報または欠報を引き起こすおそれがある。そのため、乗員は、センシング精度の低下を把握することが重要である。そこで、本発明の実施の形態は、乗員がセンシング精度を把握できるようにすることを目的とする。   In a conventional driving support system, for example, when a camera is used as a sensor, there is a risk that the sensing accuracy may deteriorate in a driving environment such as nighttime, backlight, or rainy weather. Further, in the conventional driving support system, for example, when a millimeter wave radar is used as a sensor, there is a risk that the sensing accuracy may decrease in a traveling environment where an obstacle that reflects the radar exists. In spite of the situation in which the sensing accuracy is reduced in this way, if the same information is presented to the occupant as usual, there is a risk of causing false or missing information. Therefore, it is important for the occupant to grasp the decrease in sensing accuracy. Accordingly, an object of the embodiment of the present invention is to enable an occupant to grasp sensing accuracy.

(実施の形態1)
本発明の実施の形態1について、図面を参照して説明する。
(Embodiment 1)
Embodiment 1 of the present invention will be described with reference to the drawings.

まず、本実施の形態に係る表示システム10の構成例について説明する。図1は、本実施の形態に係る表示システム10の構成例を示すブロック図である。   First, a configuration example of the display system 10 according to the present embodiment will be described. FIG. 1 is a block diagram illustrating a configuration example of a display system 10 according to the present embodiment.

表示システム10は、例えば、車両等の移動体において用いられる。すなわち、表示システム10は、車載機器であってもよいし、車両に持ち込まれる機器であってもよい。なお、本実施の形態では、表示システム10が車両に適用されたものとして説明するが、移動体は、車両に限定されず、船舶、航空機等であってもよい。また、本実施の形態では、ユーザが車両の乗員、特に車両の運転者である例について説明するが、その限りではない。さらには、表示システム10は、ユーザが身体に装着に可能なウェラブルコンピュータ(例えば、後述するHMD)において用いられてもよい。   The display system 10 is used in a moving body such as a vehicle, for example. That is, the display system 10 may be an in-vehicle device or a device brought into a vehicle. In the present embodiment, the display system 10 is described as being applied to a vehicle. However, the moving body is not limited to a vehicle, and may be a ship, an aircraft, or the like. In this embodiment, an example in which the user is a vehicle occupant, particularly a vehicle driver, is described, but the present invention is not limited thereto. Furthermore, the display system 10 may be used in a wearable computer (for example, an HMD described later) that can be worn by the user.

図1において、表示システム10は、センサ100、認識部200、算出部300、表示制御装置400、画像生成部500、表示部600を有する。また、表示制御装置400は、判定部401および表示制御部402を有する。   1, the display system 10 includes a sensor 100, a recognition unit 200, a calculation unit 300, a display control device 400, an image generation unit 500, and a display unit 600. In addition, the display control device 400 includes a determination unit 401 and a display control unit 402.

ここで、センサ100は、検知装置(図17参照)に含まれてもよい。また、認識部200は、センサ100とともに検知装置(図17参照)に含まれてもよい。また、表示制御装置400は、例えば、コネクタ、信号入力部などの入力端子である取得部(図17参照)を有してもよい。また、判定部401および表示制御部402を合わせて制御部(図17参照)として構成してもよい。   Here, the sensor 100 may be included in a detection device (see FIG. 17). The recognition unit 200 may be included in the detection device (see FIG. 17) together with the sensor 100. In addition, the display control device 400 may include an acquisition unit (see FIG. 17) that is an input terminal such as a connector or a signal input unit. Further, the determination unit 401 and the display control unit 402 may be combined to form a control unit (see FIG. 17).

図17は、表示システム10の別の構成例を示す。表示システム10は、検知装置700、算出部300、表示制御装置400、画像生成部500、表示部600を有する。表示制御装置400は、取得部404および制御部405を有する。表示装置20は、表示制御装置400、画像生成部500、表示部600を有する。図17に示す表示システム10の詳細については後述する。   FIG. 17 shows another configuration example of the display system 10. The display system 10 includes a detection device 700, a calculation unit 300, a display control device 400, an image generation unit 500, and a display unit 600. The display control apparatus 400 includes an acquisition unit 404 and a control unit 405. The display device 20 includes a display control device 400, an image generation unit 500, and a display unit 600. Details of the display system 10 shown in FIG. 17 will be described later.

以下、図1を用いて、表示システム10の各構成要素について説明する。   Hereinafter, each component of the display system 10 will be described with reference to FIG.

センサ100は、所定時間ごとに、車両の運転者の前景をセンシングする。センサ100は、例えばセンシングカメラである。センシングカメラは、車両の内部または外部に搭載され、車両の前景を撮影する。さらに、センシングカメラは、前景だけでなく、側面の光景を撮影してもよい。または、センサ100は、例えばレーダであってもよい。レーダは、車両の内部または外部に搭載され、車両の前景等をセンシングする。以下、車両の前景等を、車両の周辺と呼ぶこともある。   The sensor 100 senses the foreground of the driver of the vehicle every predetermined time. The sensor 100 is a sensing camera, for example. The sensing camera is mounted inside or outside the vehicle and captures the foreground of the vehicle. Furthermore, the sensing camera may capture not only the foreground but also the side view. Alternatively, the sensor 100 may be a radar, for example. The radar is mounted inside or outside the vehicle and senses the foreground of the vehicle. Hereinafter, the foreground and the like of the vehicle may be referred to as the vicinity of the vehicle.

そして、センサ100は、周辺のセンシング結果を示す周辺情報を認識部200へ出力する。この出力は、例えば、所定の時間間隔で行われる。   Then, the sensor 100 outputs peripheral information indicating the peripheral sensing result to the recognition unit 200. This output is performed at predetermined time intervals, for example.

認識部200は、センサ100からの周辺情報に基づいて、車両周辺に存在する所定の対象物を認識する。対象物は、例えば、移動体(例えば、車両、人物、自転車、二輪車等)、道路上の白線、標識、路面標示、縁石、ガードレール、信号機、電柱、建物である。例えば、センサ100がセンシングカメラである場合、認識部200は、周辺情報(周辺画像)に対してパタンマッチングなどを行い、対象物を認識する。また、例えば、センサ100がレーダである場合、認識部200は、周辺情報からクラスタリングまたは機械学習等により対象物を抽出し、認識する。なお、認識部200における対象物認識技術は公知技術であるため、その詳細な説明は省略する。   The recognition unit 200 recognizes a predetermined object existing around the vehicle based on the peripheral information from the sensor 100. The target object is, for example, a moving body (for example, a vehicle, a person, a bicycle, a two-wheeled vehicle, etc.), a white line on a road, a sign, a road marking, a curb, a guardrail, a traffic light, a power pole, and a building. For example, when the sensor 100 is a sensing camera, the recognition unit 200 recognizes an object by performing pattern matching on the peripheral information (peripheral image). For example, when the sensor 100 is a radar, the recognition unit 200 extracts and recognizes an object from surrounding information by clustering or machine learning. In addition, since the target object recognition technique in the recognition part 200 is a well-known technique, the detailed description is abbreviate | omitted.

そして、認識部200は、対象物の認識結果を示す認識結果情報を算出部300および表示制御装置400の表示制御部402へ出力する。認識結果情報は、例えば、対象物の存在位置(X,Y)、車両の進行方向に対する対象物の相対角度(以下、単に相対角度という)、対象物と車両との相対速度、対象物の種別、パタンマッチングで得られた情報、対象物の追跡処理で得られた情報などを含む。なお、上記対象物の存在位置(X,Y)は、車両のセンシングカメラが設置された点を基準として横方向をX、前方方向をYとするカメラ座標系における座標である。また、上記対象物の存在位置(X,Y)におけるYは、車両の進行方向における車両と対象物との距離(以下、単に距離という)を示す。   Then, the recognition unit 200 outputs recognition result information indicating the recognition result of the object to the calculation unit 300 and the display control unit 402 of the display control device 400. The recognition result information includes, for example, the presence position (X, Y) of the object, the relative angle of the object with respect to the traveling direction of the vehicle (hereinafter simply referred to as the relative angle), the relative speed between the object and the vehicle, and the type of the object. , Information obtained by pattern matching, information obtained by tracking processing of an object, and the like. The position (X, Y) of the object is a coordinate in the camera coordinate system in which the horizontal direction is X and the forward direction is Y with respect to the point where the sensing camera of the vehicle is installed. Y at the position (X, Y) of the object indicates the distance between the vehicle and the object in the traveling direction of the vehicle (hereinafter simply referred to as distance).

算出部300は、センサの認識精度(センシング精度ともいう。以下、単に認識精度という)を算出する。算出部300は、認識部200からの認識結果に基づいてセンシング精度を算出してもよいし、認識部200による認識結果を用いずにセンシング精度を算出してもよい。以下、詳細に説明する。   The calculation unit 300 calculates sensor recognition accuracy (also referred to as sensing accuracy, hereinafter simply referred to as recognition accuracy). The calculation unit 300 may calculate the sensing accuracy based on the recognition result from the recognition unit 200, or may calculate the sensing accuracy without using the recognition result by the recognition unit 200. Details will be described below.

算出部300は、例えば、認識部200からの認識結果に基づいてセンシング精度を算出する。具体的には、算出部300は、パタンマッチングの際に得られる周辺画像とテンプレートとの差分に基づいて、認識精度を算出する。この場合、例えば、算出部300は、カメラにより撮影された対象物の画像と予め記憶されたテンプレートとの差分が小さいときに、認識精度が高い値となるように算出する。または、例えば、算出部300は、異なる画像フレーム間における対象物(例えば移動体)の追跡処理の際に得られるフレーム数に基づいて、認識精度を算出する。この場合、例えば、算出部300は、フレーム数が多い程、認識精度が高い値となるように算出する。また、追跡処理が成功していた場合でも、フレーム間で対象物の検出結果が大きく変化する場合には、認識精度が低い可能性がある。そのため、例えば、フレーム間の検出結果(距離、相対速度など)の変化量が大きい程、認識精度が低くなるように算出してもよい。また、センサとしてカメラ以外を用いる場合は、上記で説明した周辺画像とテンプレートの差分に該当するセンサの種別に応じた特徴量を、認識精度算出に用いればよい。   For example, the calculation unit 300 calculates the sensing accuracy based on the recognition result from the recognition unit 200. Specifically, the calculation unit 300 calculates the recognition accuracy based on the difference between the peripheral image and the template obtained at the time of pattern matching. In this case, for example, the calculation unit 300 calculates the recognition accuracy to be a high value when the difference between the image of the object photographed by the camera and the template stored in advance is small. Alternatively, for example, the calculation unit 300 calculates the recognition accuracy based on the number of frames obtained when tracking an object (for example, a moving object) between different image frames. In this case, for example, the calculation unit 300 calculates such that the greater the number of frames, the higher the recognition accuracy. Even if the tracking process is successful, the recognition accuracy may be low if the detection result of the object changes greatly between frames. For this reason, for example, the larger the amount of change in the detection result (distance, relative speed, etc.) between frames, the lower the recognition accuracy. When a sensor other than the camera is used, a feature amount corresponding to the sensor type corresponding to the difference between the peripheral image and the template described above may be used for recognition accuracy calculation.

また、算出部300は、例えば、車両の走行環境の認識結果に基づいて認識精度が算出されてもよい。例えば、センサ100がセンシングカメラである場合、認識部200は、センシングカメラにより撮影された車両の周辺画像に対して所定の画像処理を行い、認識精度が低下しやすい走行環境であるか(例えば、雨、霧、みぞれ、雹、雪などの悪天候の中を車両が走行しているか、逆光または対向車のヘッドライトなどにより車両周辺の照度が増加したか、夜間またはトンネル内の走行により車両周辺の照度が減少したか)を認識する。算出部300は、認識部200により認識精度が低下しやすい走行環境であると認識された場合、認識精度を低い値に算出する。   Further, the calculation unit 300 may calculate the recognition accuracy based on, for example, a recognition result of the traveling environment of the vehicle. For example, when the sensor 100 is a sensing camera, the recognition unit 200 performs predetermined image processing on a surrounding image of the vehicle photographed by the sensing camera, and is the traveling environment in which the recognition accuracy is likely to decrease (for example, The vehicle is running in bad weather such as rain, fog, sleet, hail, snow, etc., the illumination around the vehicle has increased due to backlight or headlights of oncoming vehicles, etc. Recognize whether the illuminance has decreased. The calculation unit 300 calculates the recognition accuracy to a low value when the recognition unit 200 recognizes that the driving environment is likely to have a low recognition accuracy.

また、算出部300は、例えば、認識部200による認識結果を用いずに行うようにしてもよい。この場合の例について図2を用いて説明する。図2において、図1と同じ構成要素には同一符号を付し、ここでの説明は省略する。図2では、表示システム10が認識部200を備えない点が図1と異なる。図2において、例えば、センサ100がセンシングカメラである場合、算出部300は、センサ100から車両の周辺画像を受け取る。そして、算出部300は、車両の周辺画像に、認識精度が低下しやすい走行環境であるか(例えば、雨、霧、みぞれ、雹、雪などの悪天候の中を車両が走行しているか、逆光または対向車のヘッドライトなどにより車両周辺の照度が増加したか、夜間またはトンネル内の走行により車両周辺の照度が減少したか)を示す情報が含まれる場合、認識精度を低い値に算出する。   Moreover, you may make it the calculation part 300 perform, for example, without using the recognition result by the recognition part 200. FIG. An example of this case will be described with reference to FIG. 2, the same components as those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted here. 2 is different from FIG. 1 in that the display system 10 does not include the recognition unit 200. In FIG. 2, for example, when the sensor 100 is a sensing camera, the calculation unit 300 receives a surrounding image of the vehicle from the sensor 100. Then, the calculation unit 300 determines whether or not the surrounding image of the vehicle has a driving environment in which the recognition accuracy is likely to decrease (for example, whether the vehicle is traveling in bad weather such as rain, fog, sleet, hail, snow) If the information indicating whether the illuminance around the vehicle has increased due to the headlight of an oncoming vehicle, or whether the illuminance around the vehicle has decreased due to traveling in the night or in the tunnel) is included, the recognition accuracy is calculated to a low value.

また、図2において、センサ100の代わりに別のセンサ(例えば、実施の形態2で後述するセンサ101と同じセンサ)を備えるように構成してもよい。このセンサは、認識精度が低下しやすい走行環境(例えば、雨、霧、みぞれ、雹、雪などの悪天候の中を車両が走行しているか、逆光または対向車のヘッドライトなどにより車両周辺の照度が増加したか、夜間またはトンネル内の走行により車両周辺の照度が減少したか)を検出可能なセンサであり、例えば、雨滴センサまたは照度センサである。算出部300は、上記センサから検出結果を示す情報を受け取る。そして、算出部300は、検出結果が認識精度の低下しやすい走行環境である場合、認識精度を低い値に算出する。   In FIG. 2, another sensor (for example, the same sensor as the sensor 101 described later in Embodiment 2) may be provided instead of the sensor 100. This sensor is used in a driving environment where the recognition accuracy is likely to deteriorate (for example, whether the vehicle is traveling in bad weather such as rain, fog, sleet, hail, snow, etc.) For example, a raindrop sensor or illuminance sensor. The calculation unit 300 receives information indicating a detection result from the sensor. Then, the calculation unit 300 calculates the recognition accuracy to a low value when the detection result is a traveling environment in which the recognition accuracy is likely to decrease.

そして、算出部300は、認識精度値を示す認識精度情報を表示制御装置400の判定部401へ出力する。   Then, the calculation unit 300 outputs recognition accuracy information indicating the recognition accuracy value to the determination unit 401 of the display control device 400.

判定部401は、算出部300から入力される認識精度を判定する。具体的には、算出部300からの認識精度情報と、予め定められた閾値とに基づいて、認識精度の高低を判定する。例えば、判定部401は、認識精度情報が示す認識精度値が閾値以上である(または、閾値より大きい)場合、高精度であると判定する。一方、例えば、判定部401は、認識結果情報が示す認識精度値が閾値より小さい(または、閾値以下である)場合、低精度であると判定する。なお、判定部401における上述の認識精度の判定方法は一例であり、その他の方法は後述する。   The determination unit 401 determines the recognition accuracy input from the calculation unit 300. Specifically, the level of recognition accuracy is determined based on the recognition accuracy information from the calculation unit 300 and a predetermined threshold value. For example, when the recognition accuracy value indicated by the recognition accuracy information is greater than or equal to a threshold (or greater than the threshold), the determination unit 401 determines that the accuracy is high. On the other hand, for example, when the recognition accuracy value indicated by the recognition result information is smaller than the threshold (or less than or equal to the threshold), the determination unit 401 determines that the accuracy is low. The above-described recognition accuracy determination method in the determination unit 401 is an example, and other methods will be described later.

そして、判定部401は、判定結果を示す判定結果情報を表示制御部402へ出力する。   Then, the determination unit 401 outputs determination result information indicating the determination result to the display control unit 402.

表示制御部402は、判定部401において第1の認識精度であると判定された場合、表示媒体に表示されたときに、n(2以上の整数)個に分割された所定形状の図形を表す所定画像を生成するように画像生成部500を制御する。また、表示制御部402は、判定部401において第1の認識精度よりも低い第2の認識精度であると判定された場合、表示媒体に表示されたときに、分割されていない、または、m(nより小さい2以上の整数)個に分割された所定形状の図形を表す所定画像を生成するように画像生成部500を制御する。以下、具体的に説明する。   When the determination unit 401 determines that the first recognition accuracy is obtained, the display control unit 402 represents a figure with a predetermined shape divided into n (an integer of 2 or more) when displayed on the display medium. The image generation unit 500 is controlled to generate a predetermined image. Further, when the determination unit 401 determines that the second recognition accuracy is lower than the first recognition accuracy, the display control unit 402 is not divided when displayed on the display medium, or m The image generation unit 500 is controlled so as to generate a predetermined image representing a figure having a predetermined shape divided into (an integer of 2 or more smaller than n). This will be specifically described below.

表示制御部402は、判定部401からの判定結果情報に基づいて、予め定められた図形の分割数(分割後の図形の数)を決定する。図形とは、表示制御部402(または図示しない記憶部)が予め記憶している所定形状の画像情報であり、その詳細は図4を用いて後述する。例えば、表示制御部402は、判定結果情報が高精度を示す場合、分割数をn個(nは2以上の整数)に決定する。一方、例えば、表示制御部402は、判定結果情報が低精度を示す場合、図形を分割しないか、または、分割数をm個(mはnより小さい2以上の整数)に決定する。   The display control unit 402 determines a predetermined figure division number (number of figures after division) based on the determination result information from the determination unit 401. The figure is image information of a predetermined shape stored in advance by the display control unit 402 (or a storage unit (not shown)), and details thereof will be described later with reference to FIG. For example, when the determination result information indicates high accuracy, the display control unit 402 determines the division number to be n (n is an integer of 2 or more). On the other hand, for example, when the determination result information indicates low accuracy, the display control unit 402 determines not to divide the figure, or determines the division number to be m (m is an integer of 2 or more smaller than n).

また、表示制御部402は、決定した分割数に基づいてどのように図形を分割するか(以下、分割方法という)を決定する。この分割方法の決定は、後述する強調表示領域の決定において相対角度または距離のどちらが用いられるかに応じて異なるものとする。   Further, the display control unit 402 determines how to divide the figure (hereinafter referred to as a division method) based on the determined number of divisions. The determination of the division method is different depending on which of the relative angle and the distance is used in the determination of the highlight area to be described later.

以上の分割数および分割方法の決定処理の具体例については、図4〜図6を用いて後述する。   A specific example of the process of determining the number of divisions and the division method will be described later with reference to FIGS.

また、表示制御部402は、認識部200からの認識結果情報に基づいて、強調表示領域を決定する。強調表示領域とは、分割後の図形において強調して表示される領域であり、例えば、対象物が存在する方向(相対角度)または対象物と車両との距離(距離)を示す領域である。強調表示領域は、常時表示されてもよいし、随時表示されてもよい。例えば、表示制御部402は、認識結果情報が示す相対角度と、予め記憶しているテーブル(図7A、図7C参照)とに基づいて、分割される領域の中から強調表示領域を決定する。または、例えば、表示制御部402は、認識結果情報が示す距離と、予め記憶しているテーブル(図8A、図8C参照)とに基づいて、分割される領域の中から強調表示領域を決定する。なお、強調表示領域の決定処理の具体例については、図7、図8を用いて後述する。   Further, the display control unit 402 determines the highlighted display area based on the recognition result information from the recognition unit 200. The highlight display area is an area that is displayed with emphasis in the divided figure, and is, for example, an area indicating a direction (relative angle) in which the object exists or a distance (distance) between the object and the vehicle. The highlighted display area may be displayed constantly or may be displayed at any time. For example, the display control unit 402 determines the highlighted display area from among the divided areas based on the relative angle indicated by the recognition result information and a table stored in advance (see FIGS. 7A and 7C). Alternatively, for example, the display control unit 402 determines the highlighted display region from the regions to be divided based on the distance indicated by the recognition result information and a prestored table (see FIGS. 8A and 8C). . A specific example of the highlight area determination process will be described later with reference to FIGS.

そして、表示制御部402は、制御情報を画像生成部500へ出力する。制御情報は、画像生成部500を制御するための情報であり、例えば、図形の形状、分割数、分割方法、および強調表示領域の情報などを含む。   Then, the display control unit 402 outputs control information to the image generation unit 500. The control information is information for controlling the image generation unit 500, and includes, for example, information on the shape of the figure, the number of divisions, the division method, and the highlighted display area.

画像生成部500は、表示制御部402からの制御情報に基づいて、所定画像を生成する。所定画像は、後述する表示部600によって表示媒体に表示され、所定形状の図形を表す。   The image generation unit 500 generates a predetermined image based on the control information from the display control unit 402. The predetermined image is displayed on the display medium by the display unit 600 described later, and represents a figure having a predetermined shape.

所定形状の図形は、図4〜図6に示す扇型の図形であってもよく、また、図18に示す直線状の図形であってもよい。図18については後述する。所定形状の図形は、少なくとも、表示媒体上において分割して表示されたときに、移動体の運転者の位置に対して前方、右前方および左前方、または、右方向および左方向を区別できる程度の大きさを有する図形であればよく、その形状によって本発明の開示範囲は限定されない。しかしながら、所定形状の図形は、図4〜図6、図18、図19に示すように水平軸に対して実質的に水平な成分が、垂直な成分よりも大きい図形であることが望ましい。所定形状の図形の表示例については、図4〜図6を用いて後述する。   The predetermined figure may be a fan-like figure shown in FIGS. 4 to 6 or a linear figure shown in FIG. FIG. 18 will be described later. When the figure of the predetermined shape is divided and displayed on the display medium, the front, the right front and the left front, or the right direction and the left direction can be distinguished from the position of the driver of the moving body. The shape of the present invention is not limited by the shape of the figure. However, as shown in FIGS. 4 to 6, 18, and 19, it is desirable that the figure having a predetermined shape is a figure in which the component substantially horizontal with respect to the horizontal axis is larger than the vertical component. A display example of a figure having a predetermined shape will be described later with reference to FIGS.

なお、所定画像は、画像であってもよいし、または、画像データであってもよい。後述する表示部600がプロジェクタ機能を有する場合、画像生成部500は画像を生成し、画像が表示部600によって投射される。一方、後述する表示部600がプロジェクタ機能を有するものではない場合、画像生成部500は画像データを生成し、画像データが表示部600によって出力される。   The predetermined image may be an image or image data. When the display unit 600 described later has a projector function, the image generation unit 500 generates an image, and the image is projected by the display unit 600. On the other hand, when the display unit 600 described later does not have a projector function, the image generation unit 500 generates image data, and the image data is output by the display unit 600.

表示部600は、画像生成部500において生成された所定画像を、図示しないディスプレイ(表示媒体の一例)に出力することで所定形状の図形を表示媒体に表示させる。表示部600は、例えば、プロジェクタ機能を有し、ディスプレイへ直接投影する。ディスプレイは、例えば、移動体のフロント・ウインドシールド、または、ウインドシールドとは別に設けられた透明なコンバイナである。すなわち、表示部600は、ウインドシールドに所定画像を投射することで、所定形状の図形をウインドシールドに表示させる。表示された所定形状の図形は、移動体の乗員に虚像として視認される。なお、透明なコンバイナは、例えば後述する図20に示すコンバイナ801である。   The display unit 600 outputs a predetermined image generated by the image generation unit 500 to a display (an example of a display medium) (not shown) to display a graphic with a predetermined shape on the display medium. The display unit 600 has, for example, a projector function and projects directly onto the display. The display is, for example, a front windshield of a moving body or a transparent combiner provided separately from the windshield. That is, the display unit 600 projects a predetermined image on the windshield, thereby displaying a figure with a predetermined shape on the windshield. The displayed figure of a predetermined shape is visually recognized as a virtual image by a passenger of the moving body. The transparent combiner is, for example, a combiner 801 shown in FIG.

なお、表示部600は、プロジェクタ機能を用いる代わりに、例えば、ディスプレイに表示させてもよい。この場合、ディスプレイは透過型ディスプレイであり、画像生成部500において生成される所定画像は画像データである。すなわち、表示部600は、透過型ディスプレイに画像データを出力することで、所定形状の図形を透過型ディスプレイに表示させる。透過型ディスプレイに入力された画像データが所定形状の図形として表示される原理については、公知技術のため、説明を省略する。   Note that the display unit 600 may display on a display, for example, instead of using the projector function. In this case, the display is a transmissive display, and the predetermined image generated by the image generation unit 500 is image data. In other words, the display unit 600 outputs image data to the transmissive display to display a figure with a predetermined shape on the transmissive display. Since the principle that the image data input to the transmissive display is displayed as a figure with a predetermined shape is a known technique, description thereof is omitted.

また、表示媒体は、ホログラムであってもよい。ホログラムを用いる場合、導光板の内部全反射条件を満たす平行光束群を内部全反射して導光する導光板を用いて、導光板を内部全反射して導光される平行光束群の一部を射出することで乗員に虚像を視認させる方式でもよい。なお、導光板を用いた方式においては、プロジェクタのように画像データを直接的に投影するものではないが、説明の便宜上、プロジェクタ方式と同様に投射という定義で説明する。   The display medium may be a hologram. When a hologram is used, a part of the parallel light flux group that is guided by total internal reflection of the light guide plate by using the light guide plate that totally reflects and guides the parallel light flux group that satisfies the total internal reflection condition of the light guide plate. It is also possible to make the occupant visually recognize the virtual image by injecting. In the method using the light guide plate, the image data is not directly projected as in the projector, but for the sake of convenience of explanation, it will be described by the definition of projection as in the projector method.

ディスプレイとしては、例えば、LCD(Liquid Crystal Display)、HUD(Head‐Up Display)、HMD(Head‐Mounted DisplayまたはHelmet‐Mounted Display)、眼鏡型ディスプレイ(Smart Glasses)、ナビゲーション用ディスプレイ、メータディスプレイ、その他の専用のディスプレイなどが適用される。HUDは、例えば、車両のウインドシールドであってもよいし、別途設けられるガラス面、プラスチック面などであってもよい。また、ウインドシールドは、例えば、フロントガラスであってもよいし、車両のサイドガラスまたはバックガラスであってもよい。さらに上述したとおり、表示媒体は透過型ディスプレイであってもよい。透過型ディスプレイとは例えば、透過型の有機ELディスプレイ、または、特定の波長の光を照射した際に発光するガラスを用いた透明なディスプレイであり、ドライバは、背景を視認すると同時に、透過型ディスプレイ上の表示を視認する事ができる。また、透過型ディスプレイは、光を透過する表示媒体である。   Examples of displays include LCD (Liquid Crystal Display), HUD (Head-Up Display), HMD (Head-Mounted Display or Helmet-Mounted Display), glasses-type display (Smart Glasses), navigation display, meter display, etc. Applicable display etc. are applied. For example, the HUD may be a windshield of a vehicle, or may be a separately provided glass surface, plastic surface, or the like. The windshield may be, for example, a windshield, a vehicle side glass or a back glass. Further, as described above, the display medium may be a transmissive display. The transmissive display is, for example, a transmissive organic EL display or a transparent display using glass that emits light when irradiated with light of a specific wavelength. You can see the display above. The transmissive display is a display medium that transmits light.

表示媒体が移動体のウインドシールドである場合、表示部600は、ウインドシールドに所定画像を投射することで、所定形状の図形をウインドシールドに表示させる。一方、表示媒体が透過型ディスプレイである場合、所定画像は画像データであって、表示部600は、透過型ディスプレイに画像データを出力することで、所定形状の図形を透過型ディスプレイに表示させる。ここで、説明の便宜のため、本実施の形態の説明においては、出力は投射の上位概念であると定義する。   When the display medium is a moving body windshield, the display unit 600 projects a predetermined image on the windshield to display a figure with a predetermined shape on the windshield. On the other hand, when the display medium is a transmissive display, the predetermined image is image data, and the display unit 600 outputs the image data to the transmissive display so that a figure with a predetermined shape is displayed on the transmissive display. Here, for convenience of explanation, the output is defined as a superordinate concept of projection in the explanation of the present embodiment.

なお、表示システム10は、上述したディスプレイを含む構成であってもよい。   Note that the display system 10 may include the above-described display.

また、上述した図形は、画像生成部500ではなく、表示制御装置400または図示しない他の構成要素によって生成されてもよい。   Further, the graphic described above may be generated not by the image generation unit 500 but by the display control device 400 or other components not shown.

表示システム10において生成される図形は、例えば、所定画像が表示媒体に投射された場合には、移動体の乗員に虚像として視認される。このとき、図形は、乗員の視界に重畳されるようにディスプレイに投影されてもよい。なお、ディスプレイに投影された図形が虚像として運転者に視認される原理は、公知技術であるため、説明を省略する。   For example, when a predetermined image is projected onto a display medium, the graphic generated in the display system 10 is visually recognized as a virtual image by a passenger of a moving body. At this time, the figure may be projected on the display so as to be superimposed on the field of view of the passenger. In addition, since the principle by which the driver | operator visually recognizes the figure projected on the display as a virtual image is a well-known technique, description is abbreviate | omitted.

次に、本実施の形態に係る表示システム10の動作例について説明する。図3は、本実施の形態に係る表示システム10の動作例を示すフローチャートである。図3のフローは、例えば、30ミリ秒、100ミリ秒といった所定の作動間隔で行われる。例えば、センサ100がセンシングカメラであり、15fps、30fps等のフレームレートで認識部200への周辺情報の出力が行われる場合、その出力間隔に合わせて図3のフローが行われてもよい。   Next, an operation example of the display system 10 according to the present embodiment will be described. FIG. 3 is a flowchart showing an operation example of the display system 10 according to the present embodiment. The flow in FIG. 3 is performed at predetermined operation intervals such as 30 milliseconds and 100 milliseconds, for example. For example, when the sensor 100 is a sensing camera and peripheral information is output to the recognition unit 200 at a frame rate such as 15 fps or 30 fps, the flow of FIG. 3 may be performed in accordance with the output interval.

ステップS001において、認識部200は、センサ100からの周辺情報に基づいて、車両周辺に存在する対象物を認識する。   In step S001, the recognition unit 200 recognizes an object present around the vehicle based on the peripheral information from the sensor 100.

ステップS002において、算出部300は、認識部200からの認識結果情報に基づいて、認識精度を算出する。   In step S002, the calculation unit 300 calculates recognition accuracy based on the recognition result information from the recognition unit 200.

ステップS003において、判定部401は、算出部300からの認識結果情報と、予め定められた閾値とに基づいて、認識精度の高低を判定する。すなわち、認識結果情報が示す認識精度値が閾値以上である場合、判定部401は、高精度であると判定する(ステップS003:YES)。この場合、フローはステップS004へ進む。一方、認識結果情報が示す認識精度値が閾値より小さい場合、判定部401は、低精度であると判定する(ステップS003:NO)。この場合、フローはステップS005へ進む。   In step S003, the determination unit 401 determines the level of recognition accuracy based on the recognition result information from the calculation unit 300 and a predetermined threshold value. That is, when the recognition accuracy value indicated by the recognition result information is greater than or equal to the threshold, the determination unit 401 determines that the accuracy is high (step S003: YES). In this case, the flow proceeds to step S004. On the other hand, when the recognition accuracy value indicated by the recognition result information is smaller than the threshold, the determination unit 401 determines that the accuracy is low (step S003: NO). In this case, the flow proceeds to step S005.

ステップS004において、表示制御部402は、判定部401からの判定結果情報が高精度を示す場合、分割数をn個(nは2以上の整数)に決定する。   In step S004, when the determination result information from the determination unit 401 indicates high accuracy, the display control unit 402 determines the number of divisions to be n (n is an integer of 2 or more).

ステップS005において、表示制御部402は、判定部401からの判定結果情報が低精度を示す場合、図形を分割しないか、または、分割数をm個(mはnより小さい2以上の整数)に決定する。   In step S005, when the determination result information from the determination unit 401 indicates low accuracy, the display control unit 402 does not divide the figure or sets the number of divisions to m (m is an integer of 2 or more smaller than n). decide.

ここで、ステップS004、S005における分割数および分割方法の決定処理の具体例を、図4〜図6を用いて説明する。   Here, a specific example of the process of determining the number of divisions and the division method in steps S004 and S005 will be described with reference to FIGS.

まず、図4を用いて、表示システム10で生成される図形の一例について説明する。図4において、図形301は車両を示し、図形302は車両の周辺(車両と対象物との位置関係)を示す。図形301(第1の図形の一例)は、分割の対象ではなく、分割方法の決定の際に基準位置として用いられる。図形302(第2の図形の一例)は、分割の対象であり、図4では分割前の状態を示している。図4に示す図形301および図形302は、デフォルトの形状であり、この形状にて表示制御部402(または図示しない記憶部)に予め記憶されている。また、図形302は、図4に示す分割前の形状、または、後述の図5、図6に示す分割後の形状で常時ディスプレイに表示される。   First, an example of a graphic generated by the display system 10 will be described with reference to FIG. In FIG. 4, a graphic 301 indicates a vehicle, and a graphic 302 indicates the vicinity of the vehicle (positional relationship between the vehicle and the object). The graphic 301 (an example of the first graphic) is not an object of division, but is used as a reference position when determining the division method. A figure 302 (an example of a second figure) is an object of division, and FIG. 4 shows a state before division. The figure 301 and the figure 302 shown in FIG. 4 are default shapes, and are stored in advance in the display control unit 402 (or a storage unit (not shown)) in this shape. The graphic 302 is always displayed on the display in the shape before division shown in FIG. 4 or the shape after division shown in FIGS.

次に、分割数の決定について説明する。例えば、「低精度の場合の分割数は3」、「高精度の場合の分割数は5」というように分割数と精度の高低とは予め対応付けられており、それを表示制御部402が記憶している。よって、表示制御部402は、判定結果情報が低精度を示す場合、分割数を3に決定し、判定結果情報が高精度を示す場合、分割数を5に決定する。   Next, determination of the number of divisions will be described. For example, the number of divisions and the level of accuracy are associated in advance, such as “the number of divisions in the case of low accuracy is 3” and “the number of divisions in the case of high accuracy is 5”. I remember it. Therefore, the display control unit 402 determines the number of divisions to 3 when the determination result information indicates low accuracy, and determines the number of divisions to 5 when the determination result information indicates high accuracy.

以上のように分割数を決定した後、表示制御部402は、図4に示す図形301、302を読み出し、分割方法を決定する。   After determining the number of divisions as described above, the display control unit 402 reads the figures 301 and 302 shown in FIG. 4 and determines the division method.

次に、図5、図6を用いて、分割方法の決定について説明する。   Next, determination of the division method will be described with reference to FIGS.

まず、第1の分割方法を決定する例について説明する。第1の分割方法とは、強調表示領域の決定の際に相対角度が用いられる場合の分割方法である。例えば、低精度の場合において分割数を3(m=3)に決定した場合、表示制御部402は、図5Aに示すように、図形301を中心として放射状に伸びる分割直線303を用いて図形302を3分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図5Bまたは図5Cに示すようにディスプレイに表示される。また、例えば、高精度の場合において分割数を5(n=5)に決定した場合、表示制御部402は、図5Dに示すように、図形301を中心として放射状に広がる分割直線303を用いて図形302を5分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図5Eまたは図5Fに示すようにディスプレイに表示される。   First, an example of determining the first division method will be described. The first division method is a division method in the case where a relative angle is used in determining the highlight area. For example, when the number of divisions is determined to be 3 (m = 3) in the case of low accuracy, the display control unit 402 uses a dividing line 303 that extends radially around the figure 301 as shown in FIG. 5A. Is divided into three. When this division method is executed by the image generation unit 500, it is displayed on the display as shown in FIG. 5B or FIG. 5C. Further, for example, when the number of divisions is determined to be 5 (n = 5) in the case of high accuracy, the display control unit 402 uses a dividing line 303 that spreads radially around the figure 301 as shown in FIG. 5D. A division method for dividing the figure 302 into five is determined. When this division method is executed by the image generation unit 500, it is displayed on the display as shown in FIG. 5E or FIG. 5F.

次に、第2の分割方法を決定する例について説明する。第2の分割方法とは、強調表示領域の決定の際に距離が用いられる場合の分割方法である。例えば、低精度の場合において分割数を2(m=2)に決定した場合、表示制御部402は、図6Aに示すように、図形301を中心とした半円の円周方向に伸びる分割曲線304を用いて図形302を2分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図6Bまたは図6Cに示すようにディスプレイに表示される。また、例えば、高精度の場合において分割数を3(n=3)に決定した場合、表示制御部402は、図6Dに示すように、図形301を中心とした半円状の分割曲線304(この場合、半径の異なる複数の分割曲線)を用いて図形302を3分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図6Eまたは図6Fに示すようにディスプレイに表示される。   Next, an example of determining the second division method will be described. The second division method is a division method in the case where a distance is used in determining the highlight area. For example, when the number of divisions is determined to be 2 (m = 2) in the case of low accuracy, the display control unit 402, as shown in FIG. 6A, the division curve extending in the circumferential direction of a semicircle centered on the graphic 301. A division method for dividing the figure 302 into two is determined using 304. When this division method is executed by the image generation unit 500, it is displayed on the display as shown in FIG. 6B or 6C. For example, when the number of divisions is determined to be 3 (n = 3) in the case of high accuracy, the display control unit 402 has a semicircular division curve 304 (centered on a graphic 301 as shown in FIG. 6D. In this case, a division method for dividing the figure 302 into three parts using a plurality of division curves having different radii is determined. When this division method is executed by the image generation unit 500, it is displayed on the display as shown in FIG. 6E or FIG. 6F.

上記説明では、いずれも図形を等分割するものとして説明したが、これに限定されない。分割数ごとに、予め分割方法を規定しておけば、任意の分割方法で分割が可能である。   In the above description, it has been described that the figure is equally divided, but the present invention is not limited to this. If a division method is defined in advance for each division number, division can be performed by an arbitrary division method.

以上、分割数および分割方法の決定処理の具体例について説明した。以下、図3のフローに戻る。   The specific example of the determination process of the number of divisions and the division method has been described above. Hereinafter, the flow returns to the flow of FIG.

ステップS006において、表示制御部402は、認識部200からの認識結果情報に基づいて、強調表示領域を決定する。   In step S006, the display control unit 402 determines the highlighted display area based on the recognition result information from the recognition unit 200.

ここで、ステップS006における強調表示領域の決定処理の具体例を、図7、図8を用いて説明する。上述したとおり、強調表示領域の決定は、認識部200からの認識結果情報に含まれる相対角度または距離のいずれかを用いて行われる。   Here, a specific example of the highlight area determination process in step S006 will be described with reference to FIGS. As described above, the highlighted area is determined using either the relative angle or the distance included in the recognition result information from the recognition unit 200.

まず、相対角度を用いた場合(第1の分割方法が決定された場合)の強調表示領域の決定処理について図7を用いて説明する。   First, the process of determining the highlight area when the relative angle is used (when the first division method is determined) will be described with reference to FIG.

図7Aは、認識精度が低精度であり、かつ、相対角度を用いて強調表示領域を決定する際に用いられる第1のテーブルの例を示す。第1のテーブルは、表示制御部402(または図示しない記憶部)に予め記憶されている。第1のテーブルは、条件としての相対角度と強調表示領域とが対応付けられている。第1のテーブルにおいて、角度Aは、車両正面(または、センサの位置、運転者の位置)を基準とした水平方向の角度であり、右を正とする。例えば、認識結果情報に含まれる相対角度が右側40度(A=40)を示す場合、表示制御部402は、強調表示領域を領域603に決定する。この強調表示領域の表示処理が画像生成部500にて実行されると、例えば図7Bに示すように、領域603は、領域601、602の色とは別の色にてディスプレイに強調して表示される。   FIG. 7A shows an example of a first table used when the recognition accuracy is low and the highlight area is determined using the relative angle. The first table is stored in advance in the display control unit 402 (or a storage unit (not shown)). In the first table, a relative angle as a condition and a highlight display area are associated with each other. In the first table, the angle A is a horizontal angle with respect to the front of the vehicle (or the position of the sensor, the position of the driver), and the right is positive. For example, when the relative angle included in the recognition result information indicates 40 degrees on the right side (A = 40), the display control unit 402 determines the highlighted display area as the area 603. When the display processing of the highlighted display area is executed by the image generation unit 500, the area 603 is highlighted on the display in a color different from the colors of the areas 601 and 602, for example, as shown in FIG. 7B. Is done.

図7Cは、認識精度が高精度であり、かつ、相対角度を用いて強調表示領域を決定する際に用いられる第2のテーブルの例を示す。第2のテーブルは、第1のテーブルと同様に、表示制御部402(または図示しない記憶部)に予め記憶されており、条件としての相対角度と強調表示領域とが対応付けられている。例えば、認識結果情報に含まれる相対角度が右側40度(A=40)を示す場合、表示制御部402は、強調表示領域を領域607に決定する。この強調表示領域の表示処理が画像生成部500にて実行されると、例えば図7Dに示すように、領域607は、領域604〜606および608の色とは別の色にてディスプレイに強調して表示される。   FIG. 7C shows an example of a second table that is used when the recognition accuracy is high and the highlight region is determined using the relative angle. Similar to the first table, the second table is stored in advance in the display control unit 402 (or a storage unit (not shown)), and the relative angle as a condition and the highlighted display area are associated with each other. For example, when the relative angle included in the recognition result information indicates 40 degrees on the right side (A = 40), the display control unit 402 determines the highlighted display area as the area 607. When the display processing of the highlighted display area is executed by the image generation unit 500, the area 607 is highlighted on the display in a color different from the colors of the areas 604 to 606 and 608, for example, as shown in FIG. 7D. Displayed.

次に、距離を用いた場合(第2の分割方法が決定された場合)の強調表示領域の決定処理について図8を用いて説明する。   Next, the highlight display area determination process when distance is used (when the second division method is determined) will be described with reference to FIG.

図8Aは、認識精度が低精度であり、かつ、距離を用いて強調表示領域を決定する際に用いられる第3のテーブルの例を示す。第3のテーブルは、表示制御部402(または図示しない記憶部)に予め記憶されている。第3のテーブルは、条件としての距離(例えば、単位はm)と強調表示領域とが対応付けられている。例えば、認識結果情報に含まれる距離が55m(D=55)を示す場合、表示制御部402は、強調表示領域を領域702に決定する。この強調表示領域の表示処理が画像生成部500にて実行されると、例えば図8Bに示すように、領域702は、領域701の色とは別の色にてディスプレイに強調して表示される。   FIG. 8A shows an example of a third table used when the recognition accuracy is low and the highlight region is determined using the distance. The third table is stored in advance in the display control unit 402 (or a storage unit (not shown)). In the third table, the distance (for example, the unit is m) as a condition and the highlighted display area are associated with each other. For example, when the distance included in the recognition result information indicates 55 m (D = 55), the display control unit 402 determines the highlighted display area as the area 702. When the display processing of the highlight display area is executed by the image generation unit 500, the area 702 is displayed on the display with a color different from the color of the area 701, for example, as shown in FIG. 8B. .

図8Cは、認識精度が高精度であり、かつ、距離を用いて強調表示領域を決定する際に用いられる第4のテーブルの例を示す。第4のテーブルは、第3のテーブルと同様に、表示制御部402(または図示しない記憶部)に予め記憶されており、条件としての距離と強調表示領域とが対応付けられている。例えば、認識結果情報に含まれる距離が55m(D=55)を示す場合、表示制御部402は、強調表示領域を領域704に決定する。この強調表示領域の表示処理が画像生成部500にて実行されると、例えば図8Dに示すように、領域704は、領域703、705の色とは別の色にてディスプレイに強調して表示される。   FIG. 8C shows an example of a fourth table used when the recognition accuracy is high and the highlight region is determined using the distance. Similar to the third table, the fourth table is stored in advance in the display control unit 402 (or a storage unit (not shown)), and the distance as the condition and the highlighted display area are associated with each other. For example, when the distance included in the recognition result information indicates 55 m (D = 55), the display control unit 402 determines the highlighted display area as the area 704. When the display process of the highlight area is executed by the image generation unit 500, the area 704 is highlighted on the display in a color different from the colors of the areas 703 and 705, for example, as shown in FIG. 8D. Is done.

以上、強調表示領域の決定処理の具体例について説明した。   The specific example of the highlight area determination process has been described above.

そして、表示制御部402は、決定した分割数、分割方法、および強調表示領域に基づいて図形を生成してディスプレイに表示するように制御する制御情報を画像生成部500へ出力する。以下、図3のフローに戻る。   Then, the display control unit 402 outputs to the image generation unit 500 control information that controls to generate a graphic based on the determined number of divisions, division method, and highlighted display area and display the figure on the display. Hereinafter, the flow returns to the flow of FIG.

ステップS007において、画像生成部500は、表示制御部402からの制御情報に基づいて、図形を生成し、表示部600は、その図形をディスプレイに表示する。その結果、例えば、図7B、図7D、図8B、または図8Dに示す表示が行われる。   In step S007, the image generation unit 500 generates a graphic based on the control information from the display control unit 402, and the display unit 600 displays the graphic on the display. As a result, for example, the display shown in FIG. 7B, FIG. 7D, FIG. 8B, or FIG. 8D is performed.

次に、図17に示す表示システム10の別の構成例を説明する。前述のように、表示システム10は、検知装置700、算出部300、表示制御装置400、画像生成部500、表示部600を有する。表示制御装置400は、取得部404および制御部405を有する。なお、制御部405の機能は、判定部401および表示制御部402の機能と同様である。以下、図17を用いて、表示システム10の各構成要素について説明する。   Next, another configuration example of the display system 10 illustrated in FIG. 17 will be described. As described above, the display system 10 includes the detection device 700, the calculation unit 300, the display control device 400, the image generation unit 500, and the display unit 600. The display control apparatus 400 includes an acquisition unit 404 and a control unit 405. Note that the functions of the control unit 405 are the same as the functions of the determination unit 401 and the display control unit 402. Hereinafter, each component of the display system 10 will be described with reference to FIG.

検知装置700は、移動体の周辺に存在する所定の対象物を検知する。検知装置700は、センサを少なくとも有する。また、検知装置700は認識部200を有してもよい。したがって、検知装置700の検知結果は、少なくともセンシング結果を含む。検知装置700は、所定時間ごとに車両の周辺をセンシングする。センシング結果である移動体の周辺情報に基づいて、所定の対象物を認識するか否かは、装置の仕様に基づいて決定される。検知装置700が所定の対象物の認識をする場合は、検知装置700は、周辺情報に基づいて所定の対象物を認識する。対象物を認識する方法は、前述のとおりである。   The detection device 700 detects a predetermined object existing around the moving body. The detection device 700 has at least a sensor. The detection device 700 may include the recognition unit 200. Therefore, the detection result of the detection apparatus 700 includes at least a sensing result. The detection device 700 senses the surroundings of the vehicle every predetermined time. Whether or not to recognize a predetermined target object is determined based on the specifications of the apparatus based on the peripheral information of the moving body that is the sensing result. When the detection device 700 recognizes a predetermined object, the detection device 700 recognizes the predetermined object based on the peripheral information. The method for recognizing the object is as described above.

算出部300は検知装置700の検知装置の検知精度を算出する。ここで、検知精度は、認識精度と同様である。算出部300は、検知精度値を示す検知精度情報を表示制御装置400へ出力する。検知精度の算出方法は前述のとおりであるため、説明を省略する。   The calculation unit 300 calculates the detection accuracy of the detection device of the detection device 700. Here, the detection accuracy is the same as the recognition accuracy. The calculation unit 300 outputs detection accuracy information indicating the detection accuracy value to the display control device 400. Since the detection accuracy calculation method is as described above, a description thereof will be omitted.

表示制御装置400は、算出部300から検知精度を受け取る取得部404と、制御部405とを有する。取得部404は、表示制御装置400がハードウェアで構成されるときには、コネクタ、入力端子等であり、実体的な機能はない入力部である。   The display control device 400 includes an acquisition unit 404 that receives detection accuracy from the calculation unit 300 and a control unit 405. When the display control apparatus 400 is configured by hardware, the acquisition unit 404 is a connector, an input terminal, or the like, and is an input unit that does not have a substantial function.

制御部405は、判定部401および表示制御部402を有する。すなわち、制御部405は、検知精度に基づいて、表示媒体に表示されたときに所定形状の図形を表す所定画像を生成するように画像生成部500を制御する。   The control unit 405 includes a determination unit 401 and a display control unit 402. In other words, the control unit 405 controls the image generation unit 500 to generate a predetermined image representing a figure with a predetermined shape when displayed on the display medium based on the detection accuracy.

画像生成部500は、表示制御部402からの制御情報に基づいて、所定画像を生成する。所定画像は後述する表示部600によって表示媒体に表示され、所定形状の図形を表す。所定形状の図形の表示例については、図7、図8を用いて後述する。なお、所定画像は、画像であってもよいし、または、画像データであってもよい。後述する表示部600がプロジェクタ機能を有する場合、画像生成部500は画像を生成し、画像が表示部600によって投射される。一方、後述する表示部600がプロジェクタ機能を有するものではない場合、画像生成部500は画像データを生成し、画像データが表示部600によって出力される。   The image generation unit 500 generates a predetermined image based on the control information from the display control unit 402. The predetermined image is displayed on the display medium by the display unit 600 described later, and represents a figure having a predetermined shape. A display example of a figure having a predetermined shape will be described later with reference to FIGS. The predetermined image may be an image or image data. When the display unit 600 described later has a projector function, the image generation unit 500 generates an image, and the image is projected by the display unit 600. On the other hand, when the display unit 600 described later does not have a projector function, the image generation unit 500 generates image data, and the image data is output by the display unit 600.

表示部600は、画像生成部500において生成された所定画像を、図示しないディスプレイ(表示媒体の一例)に出力することで所定形状の図形を表示媒体に表示させる。表示部600は、例えば、プロジェクタ機能を有し、ディスプレイへ直接投影する。ディスプレイは例えば移動体のフロント・ウインドシールド、または、ウインドシールドとは別に設けられた透明なコンバイナ(例えば、図20に示したコンバイナ801)である。すなわち、表示部600は、ウインドシールドに所定画像を投射することで、所定形状の図形をウインドシールドに表示させる。表示された所定形状の図形は、移動体の乗員に虚像として視認される。   The display unit 600 outputs a predetermined image generated by the image generation unit 500 to a display (an example of a display medium) (not shown) to display a graphic with a predetermined shape on the display medium. The display unit 600 has, for example, a projector function and projects directly onto the display. The display is, for example, a front windshield of a moving body or a transparent combiner (for example, a combiner 801 shown in FIG. 20) provided separately from the windshield. That is, the display unit 600 projects a predetermined image on the windshield, thereby displaying a figure with a predetermined shape on the windshield. The displayed figure of a predetermined shape is visually recognized as a virtual image by a passenger of the moving body.

図21は、図17に示す表示システム10が有する表示制御装置400の動作例を示すフローチャートである。以下、図17および図21を用いて、制御部405の動作例を説明する。   FIG. 21 is a flowchart illustrating an operation example of the display control apparatus 400 included in the display system 10 illustrated in FIG. Hereinafter, an operation example of the control unit 405 will be described with reference to FIGS. 17 and 21.

ステップ101において、取得部404が検知精度を受け取った場合(ステップS101:YES)、ステップS102において、制御部405は、検知精度と、予め定められた閾値とに基づいて、認識精度の高低を判定する。なお、ステップ101において、取得部404が検知精度を受け取っていない場合(ステップS101:NO)、フローは終了する。   In step 101, when the acquisition unit 404 receives the detection accuracy (step S101: YES), in step S102, the control unit 405 determines whether the recognition accuracy is high or low based on the detection accuracy and a predetermined threshold value. To do. In step 101, when the acquisition unit 404 has not received the detection accuracy (step S101: NO), the flow ends.

ステップS10において、検知精度が閾値以上である場合、制御部405は、高精度であると判定する(ステップS102:YES)。この場合、フローはステップS103へ進む。一方、ステップS102において、検知情報が閾値より小さい場合、制御部405は、低精度であると判定する(ステップS102:NO)。この場合、フローはステップS104へ進む。   In step S10, when the detection accuracy is equal to or higher than the threshold value, the control unit 405 determines that the detection accuracy is high (step S102: YES). In this case, the flow proceeds to step S103. On the other hand, when the detection information is smaller than the threshold value in step S102, the control unit 405 determines that the accuracy is low (step S102: NO). In this case, the flow proceeds to step S104.

ステップS103において、制御部405は、分割数をn個(nは2以上の整数)に決定する。   In step S103, the control unit 405 determines the division number to be n (n is an integer of 2 or more).

ステップS104において、制御部405は、図形を分割しないか、または、分割数をm個(mはnより小さい2以上の整数)に決定する。   In step S104, the control unit 405 determines not to divide the figure, or determines the number of divisions to be m (m is an integer of 2 or more smaller than n).

ここで、ステップS103、S104における分割数および分割方法の決定処理の具体例は、図4〜図6を用いて上述したとおりである。   Here, the specific example of the process of determining the number of divisions and the division method in steps S103 and S104 is as described above with reference to FIGS.

次に、ステップS105において、制御部405は、所定画像を生成するように、画像生成部500を制御する。ここで、所定画像とは、表示媒体に表示されたときに所定形状の図形を表す画像である。所定形状の図形とは、図4〜図6を用いて説明した図形である。   Next, in step S105, the control unit 405 controls the image generation unit 500 so as to generate a predetermined image. Here, the predetermined image is an image representing a figure having a predetermined shape when displayed on the display medium. The figure having a predetermined shape is the figure described with reference to FIGS.

例えば、ステップS103において分割数をn個に決定した場合、制御部405は、決定した分割方法を用いてn個に分割した所定画像を生成するように、画像生成部500を制御する。その一方、ステップS103において分割を行わないかまたは分割数をm個に決定した場合、制御部405は、分割しない所定画像を生成するように、または、決定した分割方法を用いてm個に分割した所定画像を生成するように、画像生成部500を制御する。   For example, when the number of divisions is determined to be n in step S <b> 103, the control unit 405 controls the image generation unit 500 to generate a predetermined image divided into n using the determined division method. On the other hand, when the division is not performed or the number of divisions is determined to be m in step S103, the control unit 405 generates a predetermined image that is not divided, or is divided into m using the determined division method. The image generation unit 500 is controlled so as to generate the predetermined image.

次に、ステップS106において、画像生成部500は、制御部405の制御によって、所定画像を生成する。   Next, in step S106, the image generation unit 500 generates a predetermined image under the control of the control unit 405.

次に、ステップS107において、表示部600は、画像生成部500によって生成された所定画像を表示媒体に出力することで所定形状の図形を表示媒体に表示させる。そして、フローはステップS101へ戻る。   Next, in step S <b> 107, the display unit 600 outputs a predetermined image generated by the image generation unit 500 to the display medium, thereby displaying a graphic with a predetermined shape on the display medium. Then, the flow returns to step S101.

以上のように、検知装置700は、移動体の周辺に存在する所定の対象物を検知し、算出部300は、検知装置700の検知精度を算出する。画像生成部500は、所定画像を生成し、表示部600は、所定画像を表示媒体に出力することで所定形状の図形を表示媒体に表示させる。表示制御装置400は、検知精度を受け取る取得部404と、検知精度に基づいて、表示媒体に表示されたときに所定形状の図形を表す所定画像を生成するように画像生成部500を制御する制御部405と、を備える。制御部405は、取得部404が第1の検知精度(高精度)を受け取った場合、表示媒体に表示されたときに、n個に分割された第1の所定形状の図形を表す第1の所定画像を生成するように画像生成部500を制御する。その後、取得部404が第1の検知精度(高精度)よりも低い第2の検知精度(低精度)を受け取った場合、表示媒体に表示されたときに、m個に分割された、または、分割されていない第2の所定形状の図形を表す第2の所定画像を生成するように画像生成部500を制御する。ここで、nは2以上の整数であって、mはnより小さい2以上の整数である。   As described above, the detection device 700 detects a predetermined object existing around the moving body, and the calculation unit 300 calculates the detection accuracy of the detection device 700. The image generation unit 500 generates a predetermined image, and the display unit 600 outputs a predetermined image to the display medium, thereby displaying a graphic with a predetermined shape on the display medium. The display control device 400 controls the image generation unit 500 so as to generate a predetermined image representing a figure having a predetermined shape when displayed on the display medium based on the detection accuracy and the acquisition unit 404 that receives the detection accuracy. Unit 405. When the acquisition unit 404 receives the first detection accuracy (high accuracy), the control unit 405 displays the first predetermined shape graphic divided into n pieces when displayed on the display medium. The image generation unit 500 is controlled to generate a predetermined image. After that, when the acquisition unit 404 receives the second detection accuracy (low accuracy) lower than the first detection accuracy (high accuracy), when the acquisition unit 404 is displayed on the display medium, it is divided into m pieces, or The image generation unit 500 is controlled so as to generate a second predetermined image representing a graphic having a second predetermined shape that is not divided. Here, n is an integer of 2 or more, and m is an integer of 2 or more smaller than n.

なお、所定画像と、所定形状の図形とは理想的には同じものである。表示媒体の湾曲の程度等の条件によって多少異なるが、実質的には同じものである。所定画像は画像生成部500が生成し、所定形状の図形は表示媒体に表示される。また、図7を用いて説明した強調表示領域の決定は、車両周辺に注意対象物が存在する場合にのみされるものであってもよい。すなわち、本実施の形態における表示システム10において、強調表示領域を決定し、表示媒体に表示することは必須要素ではない。検知精度に基づいて、表示媒体に所定形状の図形を表示するのみによって、目的は達成される。   Note that the predetermined image and the figure with the predetermined shape are ideally the same. Although it differs somewhat depending on conditions such as the degree of curvature of the display medium, it is substantially the same. The predetermined image is generated by the image generation unit 500, and a graphic having a predetermined shape is displayed on the display medium. Moreover, the determination of the highlight area described with reference to FIG. 7 may be performed only when an attention object exists around the vehicle. That is, in the display system 10 according to the present embodiment, it is not an essential element to determine the highlight area and display it on the display medium. The object is achieved only by displaying a figure of a predetermined shape on the display medium based on the detection accuracy.

図22は、図17に示す表示システム10が、移動体の周辺に存在する所定の対象物を認識したことに応じて、所定形状の図形を表示媒体に表示する場合における、表示システム10の処理フローである。この処理フローについて以下に説明する。   FIG. 22 shows the processing of the display system 10 when the display system 10 shown in FIG. 17 displays a figure of a predetermined shape on the display medium in response to the recognition of a predetermined object existing around the moving body. It is a flow. This processing flow will be described below.

ステップS111において、検知装置700が移動体の周辺に存在する所定の対象物を認識した場合(ステップS111:YES)、ステップS112へ進む。検知装置700が所定の対象物を認識しない場合(ステップS111:NO)、フローは終了する。   In step S111, when the detection apparatus 700 recognizes a predetermined object existing around the moving body (step S111: YES), the process proceeds to step S112. If the detection device 700 does not recognize the predetermined object (step S111: NO), the flow ends.

ステップS112において、算出部300が検知精度を算出した後、フローはステップS102に進む。以降の処理は図21と同様であるため、説明を省略する。   In step S112, after the calculation unit 300 calculates the detection accuracy, the flow proceeds to step S102. Subsequent processing is the same as that shown in FIG.

なお、分割された所定形状の図形は、均等に分割されている必要はない。例えば、図23に示すように、左右で均等でなくてもよい。例えば、検知装置700がカメラである場合、日陰などの日照条件によっては、自車前方左側、自車前方右側等、部分的に認識精度が低下することが考えられる。検知装置700が、場所ごとに異なる認識精度に応じて、所定形状の図形の分割数を、一律でなく部分的に変更しても良い。図23Aは、自車から見て右前方の認識精度が低下している場合、右前方の表示分解能のみが低下している表示例を示す。一方、図23Bは、自車からみて左前方の認識精度が低下している場合、左前方の表示分解能のみが低下している表示例を示す。   The divided figure with a predetermined shape does not need to be divided equally. For example, as shown in FIG. For example, when the detection device 700 is a camera, depending on the sunlight conditions such as shade, it is conceivable that the recognition accuracy partially decreases, such as the left side ahead of the host vehicle and the right side ahead of the host vehicle. The detection device 700 may change the number of divisions of the figure of a predetermined shape partially instead of uniformly according to the recognition accuracy that varies from place to place. FIG. 23A shows a display example in which only the right front display resolution is reduced when the right front recognition accuracy is reduced as viewed from the host vehicle. On the other hand, FIG. 23B shows a display example in which only the left front display resolution is reduced when the left front recognition accuracy is low as viewed from the host vehicle.

また、所定形状の図形の分割は、図24A〜図24Dおよび図25A〜図25Dに示すように、破線で区切られているだけでも良い。さらに、破線のみならず、実線、一点鎖線、点線であってもよい。   Moreover, the division | segmentation of the figure of a predetermined shape may just be divided with the broken line, as shown to FIG. 24A-FIG. 24D and FIG. 25A-FIG. 25D. Furthermore, not only a broken line but a solid line, a dashed-dotted line, and a dotted line may be sufficient.

さらに、図18に示すように、所定形状の図形は扇型に限定せず、水平軸に実質的に平行な直線形状であってもよい。当該直線形状であっても、移動体の周辺に存在する所定の対象物の方向を把握できるからである。図18Aは、分割されていない状態を示し、図18Bおよび図18Cは分割されている状態を示す。   Further, as shown in FIG. 18, the figure having a predetermined shape is not limited to a fan shape, and may be a linear shape substantially parallel to the horizontal axis. This is because the direction of a predetermined object existing around the moving body can be grasped even with the linear shape. FIG. 18A shows a state where it is not divided, and FIGS. 18B and 18C show a state where it is not divided.

なお、上記説明において、表示装置20は、表示制御装置400、画像生成部500、表示部600を有すると説明したが、表示媒体がコンバイナである場合には、表示装置20は表示媒体を備えてもよい。図20は、表示媒体がコンバイナである場合の表示装置20の構成例を示す。表示装置20は、表示媒体としてコンバイナ801を備える。   In the above description, the display device 20 has been described as including the display control device 400, the image generation unit 500, and the display unit 600. However, when the display medium is a combiner, the display device 20 includes the display medium. Also good. FIG. 20 shows a configuration example of the display device 20 when the display medium is a combiner. The display device 20 includes a combiner 801 as a display medium.

以上説明したように、本実施の形態では、認識精度を表す図形を常時ディスプレイに表示し、認識精度に応じて図形の分割数を変更することを特徴とする。これにより、車両の運転者は、認識精度を常時かつ直感的に把握することが可能となる。その結果、運転者は、表示システムに対して過度に依存することなく、運転操作を行うことができる。   As described above, the present embodiment is characterized in that a graphic representing recognition accuracy is always displayed on the display, and the number of divisions of the graphic is changed according to the recognition accuracy. Thereby, the driver | operator of a vehicle can grasp | ascertain recognition accuracy always and intuitively. As a result, the driver can perform the driving operation without depending on the display system excessively.

また、本実施の形態では、認識部による対象物の認識結果(例えば、相対角度または距離)が同じであったとしても、認識精度に応じて図形の分割数および強調表示領域の位置を変更することを特徴とする。これにより、認識精度が低い場合は低い分解能で、または、認識精度が高い場合は高い分解能で、対象物の存在方向または対象物と車両との距離を表示することができる。   In the present embodiment, even if the recognition result (for example, relative angle or distance) of the object by the recognition unit is the same, the number of divisions of the figure and the position of the highlight area are changed according to the recognition accuracy. It is characterized by that. Thereby, the presence direction of the object or the distance between the object and the vehicle can be displayed with a low resolution when the recognition accuracy is low, or with a high resolution when the recognition accuracy is high.

以上、本発明の実施の形態1について説明したが、本発明は上記実施の形態1に限定されず、種々の変形が可能である。以下、変形例について説明する。   As mentioned above, although Embodiment 1 of this invention was demonstrated, this invention is not limited to the said Embodiment 1, and various deformation | transformation are possible. Hereinafter, modified examples will be described.

(変形例1)
上記実施の形態では、分割対象となる第2の図形を半円としたが(例えば、図4の図形302参照)、第1の図形の形状はこれに限定されない。例えば、センサ100として、車両の前方に加えて、車両の側方および後方をセンシング可能なセンサを用いることで、車両周辺の全方位の対象物を検出することが可能となる。この場合、例えば、図9Aおよび図9Bに示すように、車両とその全方位の周辺を示す環状の図形802(第2の図形の一例)を用いてもよい。例えば、強調表示領域の決定の際に相対角度が用いられ、かつ、認識精度が低精度である場合、表示制御部402は、分割数を4(m=4)に決定した上で、図9Aに示すように、図形301を通る分割直線803を用いて図形802を4分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図9Bまたは図9Cに示すようにディスプレイに表示される。また、例えば、強調表示領域の決定の際に相対角度が用いられ、かつ、認識精度が高精度である場合、表示制御部402は、分割数を6(n=6)に決定した上で、図9Dに示すように、図形301を通る分割直線803を用いて図形802を6分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図9Eまたは図9Fに示すようにディスプレイに表示される。
(Modification 1)
In the above embodiment, the second figure to be divided is a semicircle (see, for example, the figure 302 in FIG. 4), but the shape of the first figure is not limited to this. For example, by using a sensor capable of sensing the side and rear of the vehicle in addition to the front of the vehicle as the sensor 100, it is possible to detect objects in all directions around the vehicle. In this case, for example, as shown in FIGS. 9A and 9B, an annular figure 802 (an example of a second figure) indicating the periphery of the vehicle and all its directions may be used. For example, when the relative angle is used in determining the highlight region and the recognition accuracy is low, the display control unit 402 determines the number of divisions to 4 (m = 4), and then selects FIG. 9A. As shown in FIG. 5, a division method for dividing the figure 802 into four parts using a division line 803 passing through the figure 301 is determined. When this division method is executed by the image generation unit 500, it is displayed on the display as shown in FIG. 9B or FIG. 9C. Further, for example, when the relative angle is used in determining the highlight display area and the recognition accuracy is high, the display control unit 402 determines the number of divisions to 6 (n = 6), As shown in FIG. 9D, a division method for dividing the figure 802 into six parts is determined using a dividing line 803 passing through the figure 301. When this division method is executed by the image generation unit 500, it is displayed on the display as shown in FIG. 9E or FIG. 9F.

(変形例2)
強調表示領域の決定の際に距離が用いられる場合、例えば、図10Aおよび図10Bに示すように、分割対象となる第2の図形として多角形の図形902を用いてもよい。例えば、認識精度が低精度である場合、表示制御部402は、分割数を2(m=2)に決定した上で、図10Aに示すように、車両の進行方向(図形301の先端が示す方向)に対して垂直な方向に伸びる分割直線903を用いて図形902を2分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図10Bまたは図10Cに示すようにディスプレイに表示される。また、例えば、認識精度が高精度である場合、表示制御部402は、分割数を3(n=3)に決定した上で、図10Dに示すように、車両の進行方向に垂直な分割直線903を用いて図形902を3分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図10Eまたは図10Fに示すようにディスプレイに表示される。
(Modification 2)
When the distance is used in determining the highlight display area, for example, as shown in FIGS. 10A and 10B, a polygonal figure 902 may be used as the second figure to be divided. For example, when the recognition accuracy is low accuracy, the display control unit 402 determines the number of divisions to 2 (m = 2), and then, as shown in FIG. 10A, the traveling direction of the vehicle (the tip of the graphic 301 indicates A division method for dividing the figure 902 into two parts is determined using a division line 903 extending in a direction perpendicular to (direction). When this division method is executed by the image generation unit 500, it is displayed on the display as shown in FIG. 10B or FIG. 10C. For example, when the recognition accuracy is high, the display control unit 402 determines the division number to be 3 (n = 3), and then, as shown in FIG. 10D, the division straight line perpendicular to the traveling direction of the vehicle. 903 is used to determine a division method for dividing the figure 902 into three. When this division method is executed by the image generation unit 500, it is displayed on the display as shown in FIG. 10E or FIG. 10F.

(変形例3)
上記実施の形態では、強調表示領域の決定の際に相対角度が用いられる場合に第1の分割方法を行う一方で、強調表示領域の決定の際に距離が用いられる場合に第2の分割方法を行う例について説明したが、これに限定されない。例えば、強調表示領域の決定の際に相対角度および距離の両方が用いられるとしてもよい。この場合、第1の分割方法と第2の分割方法を組み合わせてもよい。例えば、認識精度が低精度である場合、表示制御部402は、図11Aに示すように、分割直線303により図形302を3分割し、かつ、分割曲線304により図形302を2分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図11Bまたは図11Cに示すようにディスプレイに表示される。また、例えば、認識精度が高精度である場合、表示制御部402は、図11Dに示すように、分割直線303により図形302を5分割し、かつ、分割曲線304により図形302を3分割する分割方法を決定する。この分割方法が画像生成部500にて実行されると、図11Eまたは図11Fに示すようにディスプレイに表示される。なお、図11において、強調表示領域の図示は省略しているが、これについては以下のように行われてもよい。例えば、相対角度と距離の両方が高精度である場合、図11Dに示す分割直線303と分割曲線304により分割された領域1つを強調表示領域として表示すればよい。また、例えば、距離は低精度で相対角度が高精度である場合、距離については図11Aに示すように円周方向に3分割とし、相対角度については図11Dに示すように図形301を通る直線により5分割した上で、分割された領域の1つを強調領域としてもよい。
(Modification 3)
In the above-described embodiment, the first division method is performed when the relative angle is used when determining the highlight region, while the second division method is used when the distance is used when determining the highlight region. Although the example which performs is demonstrated, it is not limited to this. For example, both the relative angle and the distance may be used when determining the highlight area. In this case, the first division method and the second division method may be combined. For example, when the recognition accuracy is low accuracy, the display control unit 402 performs a dividing method in which the figure 302 is divided into three by the dividing line 303 and the figure 302 is divided into two by the dividing curve 304 as shown in FIG. 11A. decide. When this division method is executed by the image generation unit 500, it is displayed on the display as shown in FIG. 11B or FIG. 11C. For example, when the recognition accuracy is high, the display control unit 402 divides the figure 302 into five by the dividing line 303 and divides the figure 302 into three by the dividing curve 304 as shown in FIG. 11D. Decide how. When this division method is executed by the image generation unit 500, it is displayed on the display as shown in FIG. 11E or FIG. 11F. In FIG. 11, the highlighted display area is not shown, but this may be performed as follows. For example, when both the relative angle and the distance are highly accurate, one area divided by the dividing line 303 and the dividing curve 304 shown in FIG. 11D may be displayed as the highlighted area. For example, when the distance is low accuracy and the relative angle is high accuracy, the distance is divided into three in the circumferential direction as shown in FIG. 11A, and the relative angle is a straight line passing through the graphic 301 as shown in FIG. 11D. Then, one of the divided areas may be set as an emphasis area.

(変形例4)
認識精度をより向上させるために、センサ100として、例えば、ミリ波センサ、カメラ、レーザレーダ等の複数の種別のセンサを有するように構成してもよい。この場合、動作するセンサの種別が多い程、算出部300は、認識精度を高く算出するようにしてもよい。また、算出部300は、複数のセンサのうち正常に動作しているセンサの数または故障しているセンサの数に基づいて、認識精度を算出するようにしてもよい。
(Modification 4)
In order to further improve the recognition accuracy, the sensor 100 may include a plurality of types of sensors such as a millimeter wave sensor, a camera, and a laser radar. In this case, the calculation unit 300 may calculate the recognition accuracy higher as the number of operating sensors increases. Further, the calculation unit 300 may calculate the recognition accuracy based on the number of normally operating sensors or the number of malfunctioning sensors among the plurality of sensors.

(変形例5)
認識精度に応じて第2の図形の分割数が変更される場合、強調表示領域の表示面積が変わることになる。強調表示領域の面積は危険度(車両が対象物と衝突する可能性。緊急度ともいう)を示すものではないが、例えば、強調表示領域の面積が大きくなった場合、危険度が増したという誤った印象を乗員に与えるおそれがある。そこで、強調表示領域の面積が小から大へ遷移する場合、表示制御部402は、遷移後の強調表示領域の輝度を遷移前の強調表示領域の輝度よりも下げるようにしてもよい。例えば、図7Dに示す図形の表示中に認識精度が下がり、図7Bに示す図形の表示に切り替わる場合、表示制御部402は、領域603の輝度を領域607の輝度よりも下げるように制御する。一方、強調表示領域の面積が大から小へ遷移する場合、表示制御部402は、遷移後の強調表示領域の輝度を遷移前の強調表示領域の輝度を上げるようにしてもよい。例えば、図7Bに示す図形の表示中に認識精度が上がり、図7Dに示す図形の表示に切り替わる場合、表示制御部402は、領域607の輝度を領域603の輝度よりも上げるように制御する。このような制御により、上述した誤った印象を乗員に与えることを回避できる。
(Modification 5)
When the number of divisions of the second graphic is changed according to the recognition accuracy, the display area of the highlight area changes. The area of the highlighted area does not indicate the degree of danger (the possibility that the vehicle will collide with the object, also called the degree of urgency). For example, if the area of the highlighted area increases, the degree of danger increases. There is a risk of giving the passenger a false impression. Therefore, when the area of the highlighted display area transitions from small to large, the display control unit 402 may lower the brightness of the highlighted display area after the transition than the brightness of the highlighted display area before the transition. For example, when the recognition accuracy is lowered during display of the graphic shown in FIG. 7D and the display is switched to the graphic display shown in FIG. 7B, the display control unit 402 controls the luminance of the region 603 to be lower than the luminance of the region 607. On the other hand, when the area of the highlight display region transitions from large to small, the display control unit 402 may increase the brightness of the highlight display region before the transition after the transition. For example, when the recognition accuracy increases during the display of the graphic shown in FIG. 7B and the display is switched to the graphic display shown in FIG. 7D, the display control unit 402 controls the luminance of the region 607 to be higher than the luminance of the region 603. By such control, it is possible to avoid giving the above-mentioned erroneous impression to the occupant.

(変形例6)
上記実施の形態では、強調表示領域を決定する際、相対角度に応じて強調表示領域の位置を決定したが、これとは異なる方法で強調表示領域を決定してもよい。この例について図7Bに示す図形を用いて説明する。例えば、並行する3つのレーンの中央のレーンを車両が走行している場合において、認識すべき対象物として同じレーンを走行している先行車両が存在する場合、表示制御部402は、領域602を強調表示領域に決定する。また、右側のレーンを走行している先行車両が存在する場合、表示制御部402は、領域603を強調表示領域に決定する。また、左側のレーンを走行している先行車両が存在する場合、表示制御部402は、領域601を強調表示領域に決定する。
(Modification 6)
In the above-described embodiment, when the highlighted area is determined, the position of the highlighted area is determined according to the relative angle. However, the highlighted area may be determined by a different method. This example will be described using the figure shown in FIG. 7B. For example, when the vehicle is traveling in the center lane of three parallel lanes, and there is a preceding vehicle traveling in the same lane as the object to be recognized, the display control unit 402 displays the region 602. Decide on the highlight area. Further, when there is a preceding vehicle traveling in the right lane, the display control unit 402 determines the region 603 as a highlighted display region. Further, when there is a preceding vehicle traveling in the left lane, the display control unit 402 determines the region 601 as the highlighted display region.

(変形例7)
上記実施の形態では、判定部401が認識精度と閾値との比較を行うことで、認識精度が高精度であるかまたは低精度であるかという2値の判定を行ったが、これに限定されない。例えば、閾値を複数設けることで、3値以上で認識精度を判定してもよい。これにより、図形の分割数のパタンを増やすことができ、より詳細な認識精度を運転者に伝えることができる。また、対象物の存在位置および/または対象物との距離をより詳細に運転者に伝えることができる。
(Modification 7)
In the above embodiment, the determination unit 401 compares the recognition accuracy with a threshold value to perform a binary determination as to whether the recognition accuracy is high or low. However, the present invention is not limited to this. . For example, the recognition accuracy may be determined based on three or more values by providing a plurality of threshold values. Thereby, the pattern of the division | segmentation number of a figure can be increased, and a more detailed recognition accuracy can be conveyed to a driver | operator. In addition, the location of the object and / or the distance to the object can be transmitted to the driver in more detail.

(変形例8)
上記実施の形態では、判定部401が精度の高低を判定し、その判定に基づいて表示制御部402が分割数を決定する例としたが、これに限定されない。例えば、判定部401が分割数の決定を行ってもよい。例えば、判定部401は、認識精度値と分割数とが対応付けられたテーブルと、算出部300からの認識精度値とに基づいて分割数を決定し、それを判定結果情報として表示制御部402へ出力してもよい。または、例えば、判定部401は、算出部300で算出された認識精度値から分割数を算出する所定の数式を用いて分割数を算出し、それを判定結果情報として表示制御部402へ出力してもよい。なお、上記本変形例の処理は、表示制御部402が算出部300から認識精度値を直接受け取るように構成することで、表示制御部402が行ってもよい(この場合、判定部401を構成から省くことができる)。
(Modification 8)
In the above embodiment, the determination unit 401 determines whether the accuracy is high and the display control unit 402 determines the number of divisions based on the determination. However, the present invention is not limited to this. For example, the determination unit 401 may determine the number of divisions. For example, the determination unit 401 determines the number of divisions based on a table in which the recognition accuracy value and the number of divisions are associated with each other and the recognition accuracy value from the calculation unit 300, and uses the determination result information as the determination result information. May be output. Alternatively, for example, the determination unit 401 calculates the number of divisions using a predetermined mathematical formula for calculating the number of divisions from the recognition accuracy value calculated by the calculation unit 300, and outputs the calculated number to the display control unit 402 as determination result information. May be. Note that the processing of this modification may be performed by the display control unit 402 by configuring the display control unit 402 to directly receive the recognition accuracy value from the calculation unit 300 (in this case, the determination unit 401 is configured). Can be omitted).

(変形例9)
第1の図形または第2の図形は、図形全体を所定の色で塗りつぶしたものであってもよいし、図形の輪郭のみを所定の色で色付けしたものであってもよい。
(Modification 9)
The first graphic or the second graphic may be one in which the entire graphic is filled with a predetermined color, or only the outline of the graphic is colored with a predetermined color.

(変形例10)
センサ100により対象物が検出されているか否かに応じて、第1の図形および/または第2の図形の色を変更してもよい。例えば、対象物が検出されていない場合、表示制御部402は、運転者に対して危険度が低い印象を与える色(例えば、青色または緑色)を用いて図形の表示を行う。一方、対象物が検出された場合、表示制御部402は、運転者に対して危険度が高い印象を与える色(例えば、黄色または赤色)を用いて図形の表示を行う。
(Modification 10)
Depending on whether the object is detected by the sensor 100, the color of the first graphic and / or the second graphic may be changed. For example, when an object is not detected, the display control unit 402 displays a figure using a color (for example, blue or green) that gives a low impression to the driver. On the other hand, when an object is detected, the display control unit 402 displays a figure using a color (for example, yellow or red) that gives a high impression to the driver.

(変形例11)
強調表示領域の色は、距離に応じて変更してもよい。例えば、表示制御部402は、距離が所定値以上の場合は黄色を用い、距離が所定値未満の場合は赤色を用いるように制御する。
(Modification 11)
The color of the highlight area may be changed according to the distance. For example, the display control unit 402 performs control so that yellow is used when the distance is greater than or equal to a predetermined value, and red is used when the distance is less than the predetermined value.

(変形例12)
センサ100は、同じ種類のものであっても、センシング可能な範囲が異なる。例えば、カメラの場合、使用するレンズの違いにより、検出範囲が狭い(例えば、正面を中心に水平方向にそれぞれ10度)もの、または、検出範囲が広い(例えば正面を中心に水平方向にそれぞれ30度)ものがある。そこで、第2の図形の全体形状を変更することで、センシング範囲を示すようにしてもよい。この例について、図4に示す図形302を用いて説明する。例えば、センシング範囲が狭い場合、図形302の角度を狭めてより鋭角な扇形に変更する。これにより、運転者は、センシング範囲が狭いことを直感的に把握できる。
(Modification 12)
Even if the sensor 100 is of the same type, the sensing range is different. For example, in the case of a camera, the detection range is narrow (for example, 10 degrees in the horizontal direction around the front) depending on the lens used, or the detection range is wide (for example, 30 in the horizontal direction around the front, respectively). There is a thing). Therefore, the sensing range may be indicated by changing the overall shape of the second graphic. This example will be described using a graphic 302 shown in FIG. For example, when the sensing range is narrow, the angle of the figure 302 is narrowed and changed to a sharper sector. As a result, the driver can intuitively grasp that the sensing range is narrow.

(変形例13)
上記実施の形態では、表示制御部402が、決定した分割数に応じて分割直線または分割曲線を用いて分割方法を決定する例としたが、これに限定されない。例えば、表示制御部402(または図示しない記憶部)は、所定の分割数で分割された第2の図形をテンプレートとして保持してもよい。この場合、表示制御部402は、判定部401の判定結果に対応するテンプレートを適宜選択する。
(Modification 13)
In the above embodiment, the display control unit 402 determines the division method using the division line or the division curve according to the determined number of divisions. However, the present invention is not limited to this. For example, the display control unit 402 (or a storage unit (not shown)) may hold the second graphic divided by a predetermined number of divisions as a template. In this case, the display control unit 402 appropriately selects a template corresponding to the determination result of the determination unit 401.

(変形例14)
例えば、認識部200により複数の対象物が認識された場合、算出部300および判定部401は、それぞれ、複数の対象物のそれぞれについて認識精度の算出および判定を行うようにしてもよい。そして、例えば、表示制御部402は、認識精度が低い方の対象物に対する認識精度の算出および認識精度の判定に応じて、第2の図形の分割数および分割方法の決定、強調表示領域の決定を行うようにしてもよい。
(Modification 14)
For example, when a plurality of objects are recognized by the recognition unit 200, the calculation unit 300 and the determination unit 401 may perform calculation and determination of recognition accuracy for each of the plurality of objects. Then, for example, the display control unit 402 determines the number of divisions and the division method of the second graphic, and determines the highlight region in accordance with the calculation of the recognition accuracy and the determination of the recognition accuracy for the object with the lower recognition accuracy. May be performed.

(変形例15)
第1の図形(例えば、図形301)を表示せずに、第2の図形のみ(例えば、図形302)を表示してもよい。
(Modification 15)
Only the second graphic (for example, graphic 302) may be displayed without displaying the first graphic (for example, graphic 301).

(実施の形態2)
本発明の実施の形態2について、図12を参照して説明する。図12は、本実施の形態に係る表示システム10の構成例を示すブロック図である。図12では、表示システム10において、センサ101が追加され、認識部200および算出部300を備えない点が図1と異なる。なお、図12の各構成要素は図1を用いて説明済みであるので、以下では、それらの詳細な説明は省略する。
(Embodiment 2)
A second embodiment of the present invention will be described with reference to FIG. FIG. 12 is a block diagram illustrating a configuration example of the display system 10 according to the present embodiment. 12 is different from FIG. 1 in that the sensor 101 is added in the display system 10 and the recognition unit 200 and the calculation unit 300 are not provided. 12 has been described with reference to FIG. 1, and detailed description thereof will be omitted below.

センサ100は、例えばセンシングカメラである。センサ100は、車両の周辺を検出し、その検出結果を判定部401へ出力する。   The sensor 100 is a sensing camera, for example. The sensor 100 detects the vicinity of the vehicle and outputs the detection result to the determination unit 401.

また、センサ101は、認識精度が低下しやすい走行環境(例えば、雨、霧、みぞれ、雹、雪などの悪天候の中を車両が走行しているか、逆光または対向車のヘッドライトなどにより車両周辺の照度が増加したか、夜間またはトンネル内の走行により車両周辺の照度が減少したか)を検出可能なセンサであり、例えば、雨滴センサまたは照度センサである。センサ101は、雨、霧、雪による悪天候、または、逆光、他の車両からの照明光、夜間の走行、トンネル内の走行による照度変化を検出し、その検出結果を判定部401へ出力する。   In addition, the sensor 101 detects whether the vehicle is traveling in a bad environment such as rain, fog, sleet, hail, snow, etc., or the surroundings of the vehicle due to backlight or oncoming headlights. The sensor can detect whether the illuminance of the vehicle has increased, or the illuminance around the vehicle has decreased at night or due to traveling in the tunnel, for example, a raindrop sensor or an illuminance sensor. The sensor 101 detects bad weather due to rain, fog, snow, or backlight, illumination light from other vehicles, nighttime travel, illuminance change due to travel in a tunnel, and outputs the detection result to the determination unit 401.

判定部401は、センサ101において悪天候または照度変化が検出されない場合、センサ100の認識精度を第1の認識精度であると判定する。また、判定部401は、センサ101において悪天候または照度変化が検出された場合、センサ100の認識精度を第1の認識精度よりも低い第2の認識精度であると判定する。   The determination unit 401 determines that the recognition accuracy of the sensor 100 is the first recognition accuracy when bad weather or illuminance change is not detected in the sensor 101. Further, when bad weather or illuminance change is detected in the sensor 101, the determination unit 401 determines that the recognition accuracy of the sensor 100 is the second recognition accuracy lower than the first recognition accuracy.

表示制御部402は、判定部401によりセンサ100の認識精度が第1の認識精度であると判定された場合、表示媒体に表示されたときに、所定の対象物と車両との位置関係を示し、n(2以上の整数)個に分割された所定形状の図形を表す所定画像を生成するように画像生成部500を制御する。また、表示制御部402は、センサ100の認識精度が第2の認識精度であると判定された場合、表示媒体に表示されたときに、分割されていない、または、m(nより小さい2以上の整数)個に分割された所定形状の図形を表す所定画像を生成するように画像生成部500を制御する。   When the determination unit 401 determines that the recognition accuracy of the sensor 100 is the first recognition accuracy, the display control unit 402 indicates the positional relationship between the predetermined object and the vehicle when displayed on the display medium. , N (integer greater than or equal to 2), the image generation unit 500 is controlled to generate a predetermined image representing a figure of a predetermined shape. Further, when it is determined that the recognition accuracy of the sensor 100 is the second recognition accuracy, the display control unit 402 is not divided when displayed on the display medium, or m (two or more smaller than n). The image generation unit 500 is controlled so as to generate a predetermined image representing a figure of a predetermined shape divided into an integer).

以上説明したように、本実施の形態は、上記実施の形態1と同じ効果を得ることができる。なお、実施の形態1で説明した各変形例を、本実施の形態に適宜適用してもよい。   As described above, the present embodiment can obtain the same effects as those of the first embodiment. Note that each modification described in Embodiment 1 may be applied to this embodiment as appropriate.

(実施の形態3)
本発明の実施の形態3について、図面を参照して説明する。
(Embodiment 3)
Embodiment 3 of the present invention will be described with reference to the drawings.

認識精度に応じて図形の分割数が変更される場合、表示中の第2の図形の消去と、次に表示される第2の図形の表示を同時に行うと、画像が瞬時に大きく変化するため、運転者に煩わしさを与えてしまう。そこで、本実施の形態では、認識精度に応じて図形の分割数が変更される場合、表示中の第2の図形の消去と次に表示される第2の図形の表示を時系列で変化させる制御を行うようにする。   When the number of graphic divisions is changed according to the recognition accuracy, if the second graphic being displayed and the second graphic displayed next are simultaneously displayed, the image will change greatly instantaneously. , It will be annoying to the driver. Therefore, in the present embodiment, when the number of divisions of the graphic is changed according to the recognition accuracy, the deletion of the second graphic being displayed and the display of the second graphic to be displayed next are changed in time series. Make control.

まず、本実施の形態に係る表示システム10の構成例について説明する。図13は、本実施の形態に係る表示システム10の構成例を示すブロック図である。図13では、表示制御装置400に表示補正部403が追加されている点が図1と異なる。なお、図13において、図1と同じ構成要素には同一符号を付し、その説明は省略する。   First, a configuration example of the display system 10 according to the present embodiment will be described. FIG. 13 is a block diagram illustrating a configuration example of the display system 10 according to the present embodiment. FIG. 13 is different from FIG. 1 in that a display correction unit 403 is added to the display control device 400. In FIG. 13, the same components as those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted.

表示補正部403は、表示中の第2の図形(以下、表示中図形という)の消去と次に表示される第2の図形(以下、最新図形という)との間で分割数に変更がある場合に、表示制御部402からの制御情報を補正し、それを画像生成部500へ出力する。補正後の制御情報は、表示中図形の消去と最新図形の表示を時系列で変化させる制御を画像生成部500に実行させる内容となる。表示補正部403の詳細な動作は、図14を用いて後述する。   The display correction unit 403 changes the number of divisions between the deletion of the second graphic being displayed (hereinafter referred to as the graphic being displayed) and the second graphic (hereinafter referred to as the latest graphic) to be displayed next. In this case, the control information from the display control unit 402 is corrected and output to the image generation unit 500. The control information after correction is content that causes the image generation unit 500 to execute control to change the erasure of the displayed graphic and the display of the latest graphic in time series. The detailed operation of the display correction unit 403 will be described later with reference to FIG.

次に、本実施の形態に係る表示システム10の動作例について説明する。図14は、本実施の形態に係る表示システム10の動作例を示すフローチャートである。   Next, an operation example of the display system 10 according to the present embodiment will be described. FIG. 14 is a flowchart showing an operation example of the display system 10 according to the present embodiment.

ステップS011において、表示補正部403は、表示制御部402から最新の制御情報を取得する。この制御情報は、例えば、最新図形の形状、分割数、分割方法、強調表示領域を含む。   In step S011, the display correction unit 403 acquires the latest control information from the display control unit 402. This control information includes, for example, the shape of the latest graphic, the number of divisions, the division method, and the highlight area.

ステップS012において、表示補正部403は、表示中図形に係る制御情報(以下、表示中の制御情報という)に含まれる分割数と、最新の制御情報に含まれる分割数とを比較し、それらの間に分割数の変化があるか否かを判定する。上記表示中の制御情報は、最新の制御情報を取得する前に、表示補正部403が記憶しているとする。   In step S012, the display correction unit 403 compares the number of divisions included in the control information related to the graphic being displayed (hereinafter referred to as control information being displayed) with the number of divisions included in the latest control information. It is determined whether there is a change in the number of divisions between them. It is assumed that the display correction unit 403 stores the control information being displayed before acquiring the latest control information.

ステップS012の判定処理の結果、分割数の変化がないと判定した場合(ステップS012:NO)、表示補正部403は、最新の制御情報の補正を行わず、その最新の制御情報を画像生成部500へ出力し、かつ、その最新の制御情報を新たに記憶する。その後、フローはステップS016へ進む。   As a result of the determination process in step S012, when it is determined that there is no change in the number of divisions (step S012: NO), the display correction unit 403 does not correct the latest control information, and displays the latest control information as an image generation unit. 500, and the latest control information is newly stored. Thereafter, the flow proceeds to step S016.

一方、ステップS012の判定処理の結果、分割数の変化があると判定した場合(ステップS012:YES)、フローは、ステップS013へ進む。   On the other hand, if it is determined that there is a change in the number of divisions as a result of the determination process in step S012 (step S012: YES), the flow proceeds to step S013.

ステップS013において、表示補正部403は、最新の制御情報を取得した時点からの経過時間(以下、単に経過時間という)を算出する。   In step S013, the display correction unit 403 calculates an elapsed time from the time when the latest control information is acquired (hereinafter simply referred to as elapsed time).

ステップS014において、表示補正部403は、経過時間に応じて表示中図形の輝度を設定する。この設定の具体例を図15Aに示す。図15Aに示すように、表示補正部403は、経過時間に応じて表示中図形の輝度(相対値)が徐々に減少するように設定する。   In step S014, the display correction unit 403 sets the luminance of the graphic being displayed according to the elapsed time. A specific example of this setting is shown in FIG. 15A. As shown in FIG. 15A, the display correction unit 403 sets the luminance (relative value) of the graphic being displayed to gradually decrease according to the elapsed time.

ステップS015において、表示補正部403は、経過時間に応じて最新図形の輝度を設定する。この設定の具体例を図15Bに示す。図15Bに示すように、表示補正部403は、経過時間に応じて最新図形の輝度(相対値)が徐々に増加するように設定する。   In step S015, the display correction unit 403 sets the brightness of the latest graphic in accordance with the elapsed time. A specific example of this setting is shown in FIG. 15B. As shown in FIG. 15B, the display correction unit 403 sets the luminance (relative value) of the latest graphic to gradually increase according to the elapsed time.

そして、表示補正部403は、表示中の制御情報、最新の制御情報、ステップS014における輝度設定、ステップS015における輝度設定を含む情報を、補正後の制御情報として画像生成部500へ出力する。また、表示補正部403は、最新の制御情報を新たに記憶する。   Then, the display correction unit 403 outputs the control information being displayed, the latest control information, the luminance setting in step S014, and the information including the luminance setting in step S015 to the image generation unit 500 as corrected control information. Further, the display correction unit 403 newly stores the latest control information.

ステップS016において、画像生成部500は、表示補正部403からの制御情報に基づいて、図形を生成し、表示部600は、その図形をディスプレイに表示する。例えば、ステップS012の判定処理の結果、分割数に変化がないと判定された場合、補正されていない最新の制御情報に基づいて図形の生成、表示が行われる。一方、ステップS012の判定処理の結果、分割数に変化があると判定された場合、補正後の制御情報に基づいて図形の生成、表示が行われる。この具体例を図15Cに示す。例えば、図7Dに示す図形(表示中図形の一例)の表示中に認識精度が低下し、図7Bに示す図形(最新図形の一例)の表示に切り替わる場合、図15Cに示すように、経過時間に応じて、図7Dの図形の輝度が徐々に低下するとともに図7Bの図形の輝度が徐々に増加するように表示される。   In step S016, the image generation unit 500 generates a figure based on the control information from the display correction unit 403, and the display unit 600 displays the figure on the display. For example, when it is determined that there is no change in the number of divisions as a result of the determination process in step S012, a graphic is generated and displayed based on the latest control information that has not been corrected. On the other hand, if it is determined that the number of divisions has changed as a result of the determination process in step S012, a graphic is generated and displayed based on the corrected control information. A specific example is shown in FIG. 15C. For example, when the recognition accuracy decreases during display of the graphic (example of displayed graphic) shown in FIG. 7D and the display is switched to display of the graphic (example of latest graphic) shown in FIG. 7B, the elapsed time as shown in FIG. 15C Accordingly, the brightness of the graphic in FIG. 7D is gradually decreased and the brightness of the graphic in FIG. 7B is gradually increased.

以上説明したように、本実施の形態では、認識精度に応じて図形の分割数が変更される場合、表示中図形の消去と最新図形の表示を時系列で変化させる制御を行うことを特徴とする。これにより、表示中図形が徐々に消えていき、最新図形が徐々に現われるように見えるため、運転者に与える煩わしさを低減することができる。   As described above, the present embodiment is characterized in that when the number of divisions of a graphic is changed according to the recognition accuracy, control is performed to change the erasure of the displayed graphic and the display of the latest graphic in time series. To do. As a result, the graphic being displayed gradually disappears and the latest graphic appears to appear gradually, so that the troublesomeness given to the driver can be reduced.

以上、本発明の実施の形態3について説明したが、本発明は上記実施の形態3に限定されず、種々の変形が可能である。例えば、実施の形態1において説明した各変形例および/または実施の形態2を、上記実施の形態3に適宜適用してもよい。   As mentioned above, although Embodiment 3 of this invention was demonstrated, this invention is not limited to the said Embodiment 3, and a various deformation | transformation is possible. For example, each modification and / or second embodiment described in the first embodiment may be applied to the third embodiment as appropriate.

なお、上述した各実施の形態における表示システム10、表示制御装置400の各部の機能は、コンピュータプログラムにより実現され得る。   In addition, the function of each part of the display system 10 in each embodiment mentioned above and the display control apparatus 400 may be implement | achieved by the computer program.

図16は、各部の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。このコンピュータ1000は、入力ボタン、タッチパッドなどの入力装置1001、ディスプレイやスピーカなどの出力装置1002、CPU(Central Processing Unit)1003、ROM(Read Only Memory)1004、RAM(Random Access Memory)1005、ハードディスク装置やSSD(Solid State Drive)などの記憶装置1006、DVD−ROM(Digital Versatile Disk Read Only Memory)やUSB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置1007、ネットワークを介して通信を行う送受信装置1008を備え、各部はバス1009により接続される。   FIG. 16 is a diagram illustrating a hardware configuration of a computer that realizes the functions of the respective units by a program. The computer 1000 includes an input device 1001 such as an input button and a touch pad, an output device 1002 such as a display and a speaker, a CPU (Central Processing Unit) 1003, a ROM (Read Only Memory) 1004, a RAM (Random Access Memory) 1005, and a hard disk. A storage device 1006 such as a device or SSD (Solid State Drive), a reading device 1007 that reads information from a recording medium such as a DVD-ROM (Digital Versatile Disk Read Only Memory) or a USB (Universal Serial Bus) memory, and communication via a network A transmission / reception device 1008 is provided, and each unit is connected by a bus 1009.

そして、読取装置1007は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置1006に記憶させる。あるいは、送受信装置1008が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置1006に記憶させる。   Then, the reading device 1007 reads the program from a recording medium on which a program for realizing the functions of the above-described units is recorded, and stores the program in the storage device 1006. Alternatively, the transmission / reception device 1008 communicates with a server device connected to the network, and causes the storage device 1006 to store a program for realizing the function of each unit downloaded from the server device.

そして、CPU1003が、記憶装置1006に記憶されたプログラムをRAM1005にコピーし、そのプログラムに含まれる命令をRAM1005から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM1005または記憶装置1006には、各実施の形態で述べた各種処理で得られた情報が記憶され、適宜利用される。   Then, the CPU 1003 copies the program stored in the storage device 1006 to the RAM 1005, and sequentially reads and executes the instructions included in the program from the RAM 1005, thereby realizing the functions of the above-described units. Further, when executing the program, the RAM 1005 or the storage device 1006 stores information obtained by various processes described in each embodiment, and is used as appropriate.

本発明は、ユーザ(例えば、車両等の乗員、または、表示デバイスを装着したユーザ等)に対して提供される情報の表示を制御する表示制御装置および表示制御プログラムに有用である。   The present invention is useful for a display control apparatus and a display control program that control display of information provided to a user (for example, an occupant such as a vehicle or a user wearing a display device).

なお、上記実施の形態の説明に用いた各機能ブロックは、集積回路であるLSI(Large Scale Integration)として実現されてもよい。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。   Each functional block used in the description of the above embodiment may be realized as an LSI (Large Scale Integration) that is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them. The name used here is LSI, but it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。   Further, the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI, or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.

さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。   Furthermore, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied.

10 表示システム
20 表示装置
100、101 センサ
200 認識部
300 算出部
301、302、802、902 図形
303、803、903 分割直線
304 分割曲線
400 表示制御装置
401 判定部
402 表示制御部
403 表示補正部
404 取得部
405 制御部
500 画像生成部
600 表示部
601〜608、701〜705 領域
700 検知装置
801 コンバイナ
1000 コンピュータ
1001 入力装置
1002 出力装置
1003 CPU
1004 ROM
1005 RAM
1006 記憶装置
1007 読取装置
1008 送受信装置
1009 バス
DESCRIPTION OF SYMBOLS 10 Display system 20 Display apparatus 100, 101 Sensor 200 Recognition part 300 Calculation part 301,302,802,902 Graphic 303,803,903 Divided straight line 304 Divided curve 400 Display control device 401 Judgment part 402 Display control part 403 Display correction part 404 Acquisition unit 405 Control unit 500 Image generation unit 600 Display unit 601 to 608, 701 to 705 Region 700 Detection device 801 Combiner 1000 Computer 1001 Input device 1002 Output device 1003 CPU
1004 ROM
1005 RAM
1006 Storage device 1007 Reading device 1008 Transmission / reception device 1009 Bus

Claims (3)

移動体の周辺に存在する対象物の検知精度を受け取る入力部と、
前記検知精度に基づいて、表示媒体に表示されたとき所定形状の図形を分割した提示画像を表す所定画像を生成するように画像生成部を制御する制御部と、を備え、
前記検知精度が、前記移動体の周辺のうち第1方向の検知精度が前記第1方向以外の方向の検知精度よりも低いものである場合、
前記提示画像において、前記所定形状の図形が分割されてなる複数の領域の大きさは均等ではない、
表示制御装置。
An input unit for receiving detection accuracy of an object existing around the moving body;
A control unit that controls the image generation unit to generate a predetermined image representing a presentation image obtained by dividing a figure of a predetermined shape when displayed on a display medium based on the detection accuracy;
When the detection accuracy is lower than the detection accuracy in the direction other than the first direction in the vicinity of the moving body,
In the presented image, the size of the plurality of regions formed by dividing the figure of the predetermined shape is not uniform.
Display control device.
前記複数の領域のうち、前記第1方向に対応する第1領域の大きさは、前記第1方向以外の方向に対応する一または複数の第2領域の大きさよりも大きい、
請求項1に記載の表示制御装置。
Of the plurality of regions, the size of the first region corresponding to the first direction is larger than the size of one or more second regions corresponding to directions other than the first direction.
The display control apparatus according to claim 1.
移動体の周辺に存在する対象物の検知精度を受け取る入力部と、表示媒体に表示されたときに所定形状の図形を分割した提示画像を表す所定画像を生成する画像生成部と、を含む表示システムにおける表示制御装置において実行される表示制御プログラムであって、
前記表示制御装置のコンピュータに対して、
前記移動体の周辺の検知精度が均等である第1検知精度であるとき、前記所定形状の図形が分割されてなる複数の領域の大きさが均等である第1提示画像を表す第1所定画像を前記画像生成部に生成させる処理と、
前記第1検知精度から、前記移動体の周辺のうち第1方向の検知精度が前記第1方向以外の方向の検知精度よりも低い第2検知精度に変化したとき、前記複数の領域の大きさが均等ではない第2提示画像を表す第2所定画像を前記画像生成部に生成させる処理と、を実行させる、
表示制御プログラム。
A display that includes an input unit that receives detection accuracy of an object existing around a moving body, and an image generation unit that generates a predetermined image representing a presentation image obtained by dividing a figure of a predetermined shape when displayed on a display medium A display control program executed in a display control device in a system,
For the computer of the display control device,
A first predetermined image representing a first presentation image in which the sizes of a plurality of regions obtained by dividing the figure of the predetermined shape are equal when the detection accuracy around the moving body is equal to the first detection accuracy. Processing to generate the image generation unit,
The size of the plurality of regions when the detection accuracy in the first direction of the periphery of the moving body changes from the first detection accuracy to a second detection accuracy lower than the detection accuracy in a direction other than the first direction. Causing the image generation unit to generate a second predetermined image representing a second presentation image that is not equal,
Display control program.
JP2015203808A 2014-03-06 2015-10-15 Display control apparatus and display control program Expired - Fee Related JP6337864B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015203808A JP6337864B2 (en) 2014-03-06 2015-10-15 Display control apparatus and display control program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014043769 2014-03-06
JP2014043769 2014-03-06
JP2015203808A JP6337864B2 (en) 2014-03-06 2015-10-15 Display control apparatus and display control program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015153368A Division JP5866545B1 (en) 2014-03-06 2015-08-03 Display control apparatus and display control program

Publications (2)

Publication Number Publication Date
JP2016048562A JP2016048562A (en) 2016-04-07
JP6337864B2 true JP6337864B2 (en) 2018-06-06

Family

ID=55347038

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015153368A Expired - Fee Related JP5866545B1 (en) 2014-03-06 2015-08-03 Display control apparatus and display control program
JP2015203808A Expired - Fee Related JP6337864B2 (en) 2014-03-06 2015-10-15 Display control apparatus and display control program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015153368A Expired - Fee Related JP5866545B1 (en) 2014-03-06 2015-08-03 Display control apparatus and display control program

Country Status (1)

Country Link
JP (2) JP5866545B1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6693189B2 (en) 2016-03-11 2020-05-13 ヤマハ株式会社 Sound signal processing method
CA3027414A1 (en) * 2016-07-06 2018-01-11 Facebook, Inc. Combining faces from source images with target images based on search queries
CN110582803B (en) * 2017-04-26 2022-02-08 三菱电机株式会社 Processing apparatus
JP6844575B2 (en) * 2018-04-04 2021-03-17 株式会社デンソー In-vehicle system and display device
JP7041845B2 (en) * 2018-05-21 2022-03-25 日本精機株式会社 Vehicle display device, vehicle display device control method, vehicle display device control program
JP2020148501A (en) * 2019-03-11 2020-09-17 日本電産モビリティ株式会社 In-vehicle monitoring device, in-vehicle monitoring system, and in-vehicle monitoring program
KR102290415B1 (en) * 2019-12-26 2021-08-18 주식회사 유테크 Obstacle Detection Notification Device Installed in Personal Mobility
JP2021149162A (en) * 2020-03-16 2021-09-27 株式会社Soken Transportation system
JP2022078482A (en) * 2020-11-13 2022-05-25 株式会社デンソー Vehicle control device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4557819B2 (en) * 2005-06-21 2010-10-06 アルパイン株式会社 Vehicle periphery information providing device
JP5505702B2 (en) * 2010-02-24 2014-05-28 アイシン精機株式会社 Vehicle periphery monitoring device

Also Published As

Publication number Publication date
JP2016048562A (en) 2016-04-07
JP2016027474A (en) 2016-02-18
JP5866545B1 (en) 2016-02-17

Similar Documents

Publication Publication Date Title
JP5861072B2 (en) Display control device, display device, and display control program
JP6337864B2 (en) Display control apparatus and display control program
JP6440115B2 (en) Display control apparatus, display control method, and display control program
US11183067B2 (en) Image generating apparatus, image generating method, and recording medium
JP6562239B2 (en) Display control apparatus, display control method, display control program, and projection apparatus
CN109219551B (en) Road condition head-up display
US20150103174A1 (en) Display control apparatus, method, recording medium, and vehicle
JP6550609B2 (en) Display control device, projection device, and display control program
JP6443716B2 (en) Image display device, image display method, and image display control program
US20160274658A1 (en) Graphic meter device
JP6620977B2 (en) Display control device, projection device, and display control program
WO2020105685A1 (en) Display control device, method, and computer program
WO2015004784A1 (en) Vehicular information display device, and vehicular information display method
JP6600342B2 (en) Gesture operation method based on depth value and gesture operation system based on depth value
KR102384426B1 (en) Apparatus and method for preventing glare when driving
US20230022485A1 (en) Vehicle display control device, vehicle display device, vehicle display control method, and non-transitory storage medium
KR102633253B1 (en) Display control device, display system, display method, and non-transitory storage medium
JP2020019369A (en) Display device for vehicle, method and computer program
US20230162390A1 (en) Image display system and image controller
JP2023076044A (en) image display device
JP2019177718A (en) Display control unit and head-up display device
JP2017204167A (en) Notification control device, notification control method, and notification control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180423

R151 Written notification of patent or utility model registration

Ref document number: 6337864

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees