JP2016131009A - Display control device, projection device, display control method, display control program, and recording medium - Google Patents

Display control device, projection device, display control method, display control program, and recording medium Download PDF

Info

Publication number
JP2016131009A
JP2016131009A JP2015178574A JP2015178574A JP2016131009A JP 2016131009 A JP2016131009 A JP 2016131009A JP 2015178574 A JP2015178574 A JP 2015178574A JP 2015178574 A JP2015178574 A JP 2015178574A JP 2016131009 A JP2016131009 A JP 2016131009A
Authority
JP
Japan
Prior art keywords
image
display
sharpness
vehicle
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015178574A
Other languages
Japanese (ja)
Inventor
望月 誠
Makoto Mochizuki
誠 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to US14/969,357 priority Critical patent/US9922403B2/en
Priority to EP15200299.4A priority patent/EP3042798A1/en
Publication of JP2016131009A publication Critical patent/JP2016131009A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Instrument Panels (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display control device that prevents a troublesome change in display, such as sudden deletion of details of the display and contributes to improvement of safety in driving.SOLUTION: A display control device 100 comprises an input part 121 that receives a result of recognition performed by a recognition device 110 recognizing a change in environment on the periphery of a vehicle, and a control part 122 that controls an image creation device 130 to create a first predetermined image showing a first presentation image when displayed on a display medium 140. The control part 122 uses, on the basis of a result of recognition, the image creation device 130 to switch the first presentation image to a second presentation image having a lower image sharpness than that of the first presentation image on the display medium 140 so that the image sharpness is gradually reduced over a predetermined time.SELECTED DRAWING: Figure 1

Description

本発明は、表示制御装置、投影装置、表示制御方法、表示制御プログラム及び記録媒体に関する。   The present invention relates to a display control device, a projection device, a display control method, a display control program, and a recording medium.

近年、車両に搭載されたディスプレイに様々な情報が表示されるため、車両が走行中している最中に、運転者がディスプレイを長時間注視してしまう場合がある。そのため、運転者による長時間の注視によって、運転者による車両前方の状況確認が遅れたり、不可能となったりする可能性があった。例えば、特許文献1には、このような可能性を低くするための車両用表示装置が開示されている。   In recent years, since various types of information are displayed on a display mounted on a vehicle, a driver may watch the display for a long time while the vehicle is traveling. For this reason, there is a possibility that confirmation of the situation in front of the vehicle by the driver may be delayed or impossible due to a long gaze by the driver. For example, Patent Document 1 discloses a vehicle display device for reducing such a possibility.

特許文献1に開示の車両用表示装置は、自車両と前車または障害物との間の距離が狭くなった場合には、ディスプレイの表示内容を消去し、かつ、ディスプレイをインストルメントパネル内に収納して、ディスプレイの表示面を遮断する。これにより、運転者の車両前方への注意を喚起させることができる。   The vehicle display device disclosed in Patent Document 1 erases the display content of the display when the distance between the host vehicle and the front vehicle or the obstacle becomes narrow, and the display is placed in the instrument panel. Store and block the display surface of the display. Thereby, the driver's attention to the front of the vehicle can be alerted.

特開2002−264692号公報JP 2002-264692 A

しかしながら、上述した特許文献1に記載の車両用表示装置では、ディスプレイの表示内容が突然消去されるため、車両の前方風景を視認している運転者にとってその表示変化が気になり、煩わしいという課題があった。   However, in the vehicle display device described in Patent Document 1 described above, the display content of the display is suddenly erased, so that the driver who is viewing the front scenery of the vehicle is concerned about the display change and is troublesome. was there.

本発明の目的は、表示内容が突然消去されるような煩わしい表示変化をせず、安全運転の向上に寄与する表示制御装置、投影装置、表示制御方法、表示制御プログラム及び記録媒体を提供することである。   An object of the present invention is to provide a display control device, a projection device, a display control method, a display control program, and a recording medium that do not cause troublesome display changes that cause display contents to be suddenly erased and contribute to improvement of safe driving. It is.

本発明の一態様に係る表示制御装置は、車両周辺の環境変化を認識する認識装置から認識結果を受け取る入力部と、表示媒体に表示されたときに第1の提示画像を表す第1の所定画像を生成するように画像生成装置を制御する制御部と、を備え、前記制御部は、前記認識結果に基づき、前記画像生成装置を用いて、前記表示媒体上において前記第1の提示画像から前記第1の提示画像より画像鮮鋭度が低い第2の提示画像へ、所定時間かけて徐々に画像鮮鋭度が低くなるように切り替える構成を採る。   A display control device according to an aspect of the present invention includes an input unit that receives a recognition result from a recognition device that recognizes environmental changes around a vehicle, and a first predetermined image that represents a first presentation image when displayed on a display medium. A control unit that controls the image generation device so as to generate an image, and the control unit uses the image generation device based on the recognition result, from the first presentation image on the display medium. A configuration is adopted in which the second presentation image having a lower image sharpness than the first presentation image is switched so that the image sharpness gradually decreases over a predetermined time.

本発明の一態様に係る投影装置は、所定画像を生成し、該所定画像を表示媒体に出力する画像生成装置と、車両周辺の環境変化を認識する認識装置から認識結果を受け取る入力部と、前記表示媒体に表示されたときに第1の提示画像を表す第1の所定画像を生成するように前記画像生成装置を制御する制御部と、を備え、前記制御部は、前記認識結果に基づき、前記画像生成装置を用いて、前記表示媒体上において前記第1の提示画像から前記第1の提示画像より画像鮮鋭度が低い第2の提示画像へ、所定時間かけて徐々に画像鮮鋭度が低くなるように切り替える構成を採る。   A projection device according to an aspect of the present invention includes an image generation device that generates a predetermined image and outputs the predetermined image to a display medium, an input unit that receives a recognition result from a recognition device that recognizes environmental changes around the vehicle, A control unit that controls the image generation device to generate a first predetermined image representing a first presentation image when displayed on the display medium, the control unit based on the recognition result Using the image generating device, the image sharpness gradually increases over a predetermined time from the first presentation image to the second presentation image having a lower image sharpness than the first presentation image on the display medium. A configuration of switching so as to be lowered is adopted.

本発明の一態様に係る表示制御方法は、表示媒体に表示されたときに第1の提示画像を表す第1の所定画像を生成するように画像生成装置を制御する工程と、車両周辺の環境変化を認識する認識装置から認識結果を受け取る工程と、前記認識結果に基づき、前記画像生成装置を用いて、前記表示媒体上において前記第1の提示画像から前記第1の提示画像より画像鮮鋭度が低い第2の提示画像へ、所定時間かけて徐々に画像鮮鋭度が低くなるように切り替える工程と、を含むようにした。   A display control method according to an aspect of the present invention includes a step of controlling an image generation device to generate a first predetermined image representing a first presentation image when displayed on a display medium, and an environment around the vehicle Receiving a recognition result from a recognition device for recognizing a change, and using the image generation device based on the recognition result, the image sharpness from the first presentation image to the first presentation image on the display medium. And a step of switching to a low second presentation image so that the image sharpness gradually decreases over a predetermined time.

本発明の一態様に係る表示制御プログラムは、表示媒体に表示されたときに第1の提示画像を表す第1の所定画像を生成するように画像生成装置を制御する処理と、車両周辺の環境変化を認識する認識装置から認識結果を受け取る処理と、前記認識結果に基づき、前記画像生成装置を用いて、前記表示媒体上において前記第1の提示画像から前記第1の提示画像より画像鮮鋭度が低い第2の提示画像へ、所定時間かけて徐々に画像鮮鋭度が低くなるように切り替える処理と、をコンピュータに実行させるようにした。   A display control program according to one aspect of the present invention includes a process for controlling an image generation device to generate a first predetermined image representing a first presentation image when displayed on a display medium, and an environment around the vehicle Processing for receiving a recognition result from a recognition device for recognizing change, and based on the recognition result, using the image generation device, the image sharpness from the first presentation image to the first presentation image on the display medium And causing the computer to execute a process of switching to a second presentation image with a low image quality so that the image sharpness gradually decreases over a predetermined time.

本発明の一態様に係る記録媒体は、車両周辺の環境変化を認識する認識装置と、所定画像を生成する画像生成装置とを含む表示システムにおける表示制御装置において実行される表示制御プログラムを記録したコンピュータ読み取り可能で非一時的な記録媒体であって、前記表示制御装置のコンピュータに対して、表示媒体に表示されたときに第1の提示画像を表す第1の所定画像を生成するように画像生成装置を制御する処理と、前記認識装置から認識結果を受け取る処理と、前記認識結果に基づき、前記画像生成装置を用いて、前記表示媒体上において前記第1の提示画像から前記第1の提示画像より画像鮮鋭度が低い第2の提示画像へ、所定時間かけて徐々に画像鮮鋭度が低くなるように切り替える処理と、を実行させる表示制御プログラムを記録した構成を採る。   A recording medium according to an aspect of the present invention records a display control program that is executed in a display control device in a display system that includes a recognition device that recognizes environmental changes around a vehicle and an image generation device that generates a predetermined image. A computer-readable non-transitory recording medium, wherein an image is generated so as to generate a first predetermined image representing a first presentation image when displayed on the display medium to a computer of the display control device. A process for controlling the generation apparatus, a process for receiving a recognition result from the recognition apparatus, and the first presentation image from the first presentation image on the display medium using the image generation apparatus based on the recognition result. A display control program that executes a process of switching to a second presentation image having a lower image sharpness than the image so that the image sharpness gradually decreases over a predetermined time. Take the recorded configuration the ram.

本発明によれば、表示内容が突然消去されるような煩わしい表示変化をせず、安全運転の向上に寄与することができる。   According to the present invention, it is possible to contribute to the improvement of safe driving without causing a troublesome display change that the display content is suddenly erased.

本発明の実施の形態1に係る運転支援システムの構成を示すブロック図The block diagram which shows the structure of the driving assistance system which concerns on Embodiment 1 of this invention. 図1に示す制御部の判定処理の流れを示すフロー図The flowchart which shows the flow of the determination process of the control part shown in FIG. 時間経過に伴うTTCの変化の一例を示す図The figure which shows an example of the change of TTC with time passage パタン画像を平滑化する様子を示す図The figure which shows a mode that a pattern image is smoothed 表示媒体に表示される画像の例を平滑化する様子を示す図The figure which shows a mode that the example of the image displayed on a display medium is smoothed 本発明の実施の形態1に係る表示制御装置の鮮鋭度低下処理の流れを示すフロー図The flowchart which shows the flow of the sharpness fall process of the display control apparatus which concerns on Embodiment 1 of this invention. 遷移画像を生成するαブレンドの原理を示す図The figure which shows the principle of alpha blend which generates the transition picture 本発明の実施の形態1に係る表示制御装置の鮮鋭度回復処理の流れを示すフロー図The flowchart which shows the flow of the sharpness recovery process of the display control apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係る運転システムの構成を示すブロック図The block diagram which shows the structure of the driving | running system which concerns on Embodiment 2 of this invention. 情報表示要素について説明するための図Illustration for explaining information display elements 本発明の実施の形態2に係る表示制御装置の鮮鋭度回復処理の流れを示すフロー図The flowchart which shows the flow of the sharpness restoration process of the display control apparatus which concerns on Embodiment 2 of this invention. 本発明の実施の形態2における鮮鋭度低下処理及び鮮鋭度回復処理の様子を示す図The figure which shows the mode of the sharpness fall process and sharpness recovery process in Embodiment 2 of this invention. 本発明の実施の形態3に係る運転システムの構成を示すブロック図The block diagram which shows the structure of the driving system which concerns on Embodiment 3 of this invention. 運転者の頭部位置を基準とした座標系を示す図Diagram showing the coordinate system based on the driver's head position 注視点の例を示す図Figure showing an example of a gaze point 部分領域ごとの位置座標を示す図Diagram showing position coordinates for each partial area 注視点と、部分領域ごとの位置座標との距離を示す図Diagram showing the distance between the point of interest and the position coordinates for each partial area 本発明の実施の形態3に係る表示制御装置の鮮鋭度低下処理の流れを示すフロー図The flowchart which shows the flow of the sharpness fall process of the display control apparatus which concerns on Embodiment 3 of this invention. 本発明の実施の形態3における鮮鋭度低下処理の様子を示す図The figure which shows the mode of the sharpness fall process in Embodiment 3 of this invention. 本発明の実施の形態4に係る運転支援システムの構成を示すブロック図The block diagram which shows the structure of the driving assistance system which concerns on Embodiment 4 of this invention. 複数の表示媒体の表示位置の一例を示す図The figure which shows an example of the display position of a some display medium 本発明の実施の形態4に係る表示制御装置の鮮鋭度低下処理の流れを示すフロー図The flowchart which shows the flow of the sharpness fall process of the display control apparatus which concerns on Embodiment 4 of this invention. 本発明の実施の形態4における鮮鋭度低下処理の様子を示す図The figure which shows the mode of the sharpness fall process in Embodiment 4 of this invention. 奥行き方向の距離を説明するための図Diagram for explaining the distance in the depth direction 各部の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図The figure which shows the hardware constitutions of the computer which implement | achieves the function of each part by a program

一般に、人間の視野の中で視力が高い領域は中心視野と呼ばれ、注視点を中心として1度程度の範囲と言われている。中心視野の外側の領域は周辺視野と言われ、注視点から離れるに従って視力は低下し、離心角10度で中心視における視力の約20%程度にまで視力が低下する(“周辺視野における気配の認識能力についての研究”佐藤研吾、山本和彦、加藤邦人:ITE Technical Report Col.33,N0.34、2009)。このような視覚特性を踏まえると、人間の中心視野では認識できるが、周辺視野では認識できないように表示等を変化させることにより、人間がその表示等を注視している場合に限り、表示の変化を認識させることができると考えられる。   In general, a region with high visual acuity in the human visual field is called a central visual field, and is said to be a range of about 1 degree around the point of sight. The area outside the central visual field is called the peripheral visual field, and the visual acuity decreases as the distance from the gazing point increases, and the visual acuity decreases to about 20% of the central visual acuity at an eccentric angle of 10 degrees. Study on cognitive ability "Kengo Sato, Kazuhiko Yamamoto, Kunito Kato: ITE Technical Report Col.33, N0.34, 2009). Based on such visual characteristics, the change in display is possible only when the person is gazing at the display by changing the display so that it can be recognized in the human central visual field but not in the peripheral visual field. Can be recognized.

本発明者は、上記の視覚特性に着目して本発明をなすに到った。すなわち、本発明の骨子は、画像を注視していなければ気付かないような方法で、ディスプレイに表示されている画像の視認性を低下させることで、運転者に車両前方を注視させることである。   The present inventor has arrived at the present invention by paying attention to the above-mentioned visual characteristics. That is, the gist of the present invention is to make the driver gaze at the front of the vehicle by reducing the visibility of the image displayed on the display in a manner that is not noticed unless the image is watched.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。ただし、実施の形態において、同一機能を有する構成には、同一符号を付し、重複する説明は省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, in the embodiment, components having the same function are denoted by the same reference numerals, and redundant description is omitted.

(実施の形態1)
図1は、本発明の実施の形態1に係る運転支援システム100の構成を示すブロック図である。本実施の形態では、運転支援システム100が車両に適用されたものとして説明する。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of a driving support system 100 according to Embodiment 1 of the present invention. In the present embodiment, the driving support system 100 will be described as applied to a vehicle.

運転支援システム100は、認識装置110、表示制御装置120、画像生成装置130、及び表示媒体140を備える。また、表示制御装置120は、入力部121及び制御部122を備える。   The driving support system 100 includes a recognition device 110, a display control device 120, an image generation device 130, and a display medium 140. In addition, the display control device 120 includes an input unit 121 and a control unit 122.

また、運転支援システム100は、図示しない検知装置を備える。検知装置は、車室内または車室外に搭載される、例えば、センシングカメラまたはレーダである。検知装置がセンシングカメラである場合、センシングカメラは、車両の前景を撮影する。検知装置がレーダである場合、レーダは、車両の周辺環境をセンシングする。検知装置は、前景画像またはセンシング結果等の情報を認識装置110に出力する。   The driving support system 100 includes a detection device (not shown). The detection device is, for example, a sensing camera or a radar that is mounted inside or outside the vehicle. When the detection device is a sensing camera, the sensing camera captures the foreground of the vehicle. When the detection device is a radar, the radar senses the surrounding environment of the vehicle. The detection device outputs information such as a foreground image or a sensing result to the recognition device 110.

認識装置110は、運転支援システム100が搭載された車両周辺の環境の変化を所定時間ごとに認識する。具体的には、認識装置110は、検知装置から出力された情報に基づいて、車両周辺(例えば、車両の前方)に現われた所定の対象物を認識する。対象物は、例えば、移動体(車両、人物、自転車、二輪車等)、道路構造物(道路上の白線、標識、路面標示、縁石、ガードレール、信号機、電柱、建物等)などである。検知部がセンシングカメラである場合、認識装置110は、周辺情報(例えば、前景画像)に対してパタンマッチングなどを行い、対象物を認識する。また、検知装置がレーダである場合、認識装置110は、クラスタリング等を用いた認識方法等により対象物を抽出し、認識する。認識装置110は、認識結果を入力部121に出力する。認識結果は、前述した移動体及び道路構造物に関する情報であり、自車両と移動体または道路構造物との間の距離、相対速度、相対角度などを含む。なお、認識装置110における対象物認識技術は、公知技術であるため、ここではその詳細な説明は省略する。   The recognizing device 110 recognizes a change in the environment around the vehicle on which the driving support system 100 is mounted every predetermined time. Specifically, the recognition device 110 recognizes a predetermined object that appears around the vehicle (for example, in front of the vehicle) based on information output from the detection device. The target object is, for example, a moving body (a vehicle, a person, a bicycle, a two-wheeled vehicle, etc.), a road structure (a white line on a road, a sign, a road marking, a curb, a guardrail, a traffic light, a power pole, a building, etc.). When the detection unit is a sensing camera, the recognition device 110 performs pattern matching on peripheral information (for example, foreground image) and recognizes an object. When the detection device is a radar, the recognition device 110 extracts and recognizes an object by a recognition method using clustering or the like. The recognition device 110 outputs the recognition result to the input unit 121. The recognition result is information related to the moving body and road structure described above, and includes the distance, relative speed, relative angle, and the like between the host vehicle and the moving body or road structure. In addition, since the object recognition technique in the recognition apparatus 110 is a well-known technique, the detailed description is abbreviate | omitted here.

なお、認識装置110は、上記対象物以外に、車両周辺の環境の変化として、例えば、天候、照度などを認識してもよい。   Note that the recognition device 110 may recognize, for example, weather, illuminance, and the like as changes in the environment around the vehicle, in addition to the object.

入力部121は、認識装置110から出力された認識結果を受け取り、制御部122に出力する。   The input unit 121 receives the recognition result output from the recognition device 110 and outputs it to the control unit 122.

制御部122は、入力部121から出力された認識結果に基づいて、運転者の車両前方への注視の必要性を判定する。運転者の車両前方への注視の必要性は、例えば、車両前方に存在する他の車両を含む対象物と、自車両との衝突危険性に基づいて判定される。なお、制御部122における判定方法の詳細については後述する。   Based on the recognition result output from the input unit 121, the control unit 122 determines whether the driver needs to gaze ahead of the vehicle. The necessity of the driver's attention to the front of the vehicle is determined based on, for example, the risk of collision between an object including another vehicle existing in front of the vehicle and the host vehicle. Details of the determination method in the control unit 122 will be described later.

制御部122は、表示制御装置120が起動されたとき、例えばエンジンONとなったとき以降、運転者が車両前方を注視する必要があると判定するまで、表示媒体140に通常表示されるべき画像(以降、「通常画像」という)が表示媒体140に表示されるよう画像生成装置130を制御する。運転者が車両前方を注視する必要があると判定した場合、制御部122は、表示媒体140に表示される画像の目標鮮鋭度を通常画像の当初の鮮鋭度より低く設定し、設定した目標鮮鋭度に達するように画像生成装置130を制御する。目標鮮鋭度は、鮮鋭度を低下させる方法に応じて設定される。例えば、画像処理により、画像を平滑化させることにより鮮鋭度を低下させる場合は、画像の平滑化に用いる平滑化フィルタ(後述)のフィルタサイズを、目標鮮鋭度として用いればよい。一方、運転者が車両前方を注視する必要がないと判定した場合、制御部122は、表示媒体140に表示される画像の目標鮮鋭度を通常画像の当初の鮮鋭度に設定し、設定した目標鮮鋭度に達するように画像生成装置130を制御する。   When the display control device 120 is activated, for example, after the engine is turned on, the control unit 122 normally displays an image to be displayed on the display medium 140 until it is determined that the driver needs to gaze at the front of the vehicle. The image generation device 130 is controlled so that (hereinafter referred to as “normal image”) is displayed on the display medium 140. When it is determined that the driver needs to watch the front of the vehicle, the control unit 122 sets the target sharpness of the image displayed on the display medium 140 to be lower than the initial sharpness of the normal image, and sets the target sharpness that has been set. The image generation device 130 is controlled to reach the degree. The target sharpness is set according to a method for reducing the sharpness. For example, when the sharpness is lowered by smoothing the image by image processing, the filter size of a smoothing filter (described later) used for smoothing the image may be used as the target sharpness. On the other hand, when it is determined that the driver does not need to gaze at the front of the vehicle, the control unit 122 sets the target sharpness of the image displayed on the display medium 140 to the initial sharpness of the normal image, and sets the target The image generation device 130 is controlled to reach the sharpness.

なお、鮮鋭度は、ぼけ(ぼかし)の度合いと言い換えても良い。すなわち、制御部122は、運転者が車両前方を注視する必要があると判定した場合、表示媒体140に表示される画像の目標のぼけの度合いを通常画像の当初のぼけの度合いより高く設定し、設定した目標のぼけの度合いに達するように画像生成装置130を制御する。一方、制御部122は、運転者が車両前方を注視する必要がないと判定した場合、表示媒体140に表示される画像の目標のぼけの度合いを通常画像の当初のぼけの度合いに設定し、設定した目標のぼけの度合いに達するように画像生成装置130を制御する。   The sharpness may be rephrased as a degree of blur (blurring). That is, when the control unit 122 determines that the driver needs to gaze ahead of the vehicle, the control unit 122 sets the degree of target blur of the image displayed on the display medium 140 to be higher than the initial degree of blur of the normal image. Then, the image generation device 130 is controlled so as to reach the set degree of target blur. On the other hand, when the control unit 122 determines that the driver does not need to gaze at the front of the vehicle, the control unit 122 sets the degree of target blur of the image displayed on the display medium 140 to the initial degree of blur of the normal image, The image generating apparatus 130 is controlled so as to reach the set degree of target blur.

画像生成装置130は、制御部122で設定された目標鮮鋭度に達するよう、鮮鋭度を徐々に変更した遷移画像を逐次生成し、生成した遷移画像を表示媒体140に出力する。   The image generation device 130 sequentially generates transition images in which the sharpness is gradually changed so as to reach the target sharpness set by the control unit 122, and outputs the generated transition image to the display medium 140.

表示媒体140は、車両において用いられ、画像生成装置130で生成された遷移画像を表示する。表示媒体140としては、例えば、ヘッドアップディスプレイ(HUD:Head Up Display)、電子ルームミラーディスプレイ、電子サイドミラーディスプレイ、メータディスプレイ、センターディスプレイ、HMD(Head-Mounted DisplayまたはHelmet-Mounted Display)、眼鏡型ディスプレイ(Smart Glasses)、その他の専用のディスプレイなどが挙げられる。   The display medium 140 is used in a vehicle and displays a transition image generated by the image generation device 130. Examples of the display medium 140 include a head up display (HUD), an electronic room mirror display, an electronic side mirror display, a meter display, a center display, an HMD (Head-Mounted Display or Helmet-Mounted Display), and a glasses type. Display (Smart Glasses) and other dedicated displays.

また、HUDは、例えば、車両のウインドシールドであってもよいし、別途設けられるガラス面、プラスチック面(例えば、コンバイナ)などであってもよい。また、ウインドシールドは、例えば、フロントガラスであってもよいし、車両のサイドガラスまたはリアガラスであってもよい。いずれの場合も、画像は表示媒体140に表示される。   Further, the HUD may be, for example, a windshield of a vehicle, a glass surface provided separately, a plastic surface (for example, a combiner), or the like. The windshield may be, for example, a windshield, a vehicle side glass, or a rear glass. In either case, the image is displayed on the display medium 140.

さらに、HUDは、ウインドシールドの表面または車室内に備えられた透過型ディスプレイであってもよい。なお、透過型ディスプレイとは、例えば、透過型の有機ELディスプレイ、または、特定の波長の光を照射した際に発光するガラスを用いた透明なディスプレイである。運転者は、背景を視認すると同時に、透過型ディスプレイ上の表示を視認することができる。   Further, the HUD may be a transmissive display provided on the surface of the windshield or in the passenger compartment. The transmissive display is, for example, a transmissive organic EL display or a transparent display using glass that emits light when irradiated with light of a specific wavelength. The driver can view the display on the transmissive display at the same time as viewing the background.

なお、本実施の形態において、表示制御装置120に画像生成装置130を含めて投影装置として構成してもよい。さらに、投影装置は、表示媒体140を含んでもよい。   In the present embodiment, the display control device 120 may include the image generation device 130 and be configured as a projection device. Further, the projection apparatus may include a display medium 140.

次に、上述した制御部122における判定処理について説明する。図2は、制御部122の判定処理の流れを示すフロー図である。本フローは、例えば、10msecまたは100msecといった所定の時間間隔で実施され、例えば、車両のエンジンがONの状態の間、繰り返し実施される。   Next, the determination process in the control unit 122 described above will be described. FIG. 2 is a flowchart showing a flow of determination processing of the control unit 122. This flow is performed at a predetermined time interval such as 10 msec or 100 msec, for example, and is repeatedly performed while the vehicle engine is ON, for example.

入力部121は、車両周辺の対象物の認識結果を受け取り(ステップS201)、制御部122は、認識結果に基づいて、自車両の前方に他の車両(以下、「前方車両」という)が存在するかどうかを判定する(ステップS202)。前方車両が存在する場合には(ステップS202:YES)、制御部122は、前方車両に衝突するまでの衝突時間(TTC:Time To Collision)を算出する(ステップS203)。TTCは、自車両に対する前方車両の相対距離D[m]と、自車両に対する前方車両の相対速度ΔV[m/秒]とを用いて、D/ΔV[秒]として算出される。一方、前方車両が存在しない場合には(ステップS202:NO)、制御部122は判定処理を終了する。   The input unit 121 receives a recognition result of objects around the vehicle (step S201), and the control unit 122 has another vehicle (hereinafter referred to as a “front vehicle”) ahead of the host vehicle based on the recognition result. It is determined whether or not to perform (step S202). When the vehicle ahead is present (step S202: YES), the control unit 122 calculates a collision time (TTC: Time To Collision) until the vehicle collides with the vehicle ahead (step S203). TTC is calculated as D / ΔV [seconds] using the relative distance D [m] of the preceding vehicle to the host vehicle and the relative speed ΔV [m / sec] of the preceding vehicle to the host vehicle. On the other hand, when there is no preceding vehicle (step S202: NO), the control unit 122 ends the determination process.

制御部122は、TTCが衝突危険性を判定するための閾値であるT_th以下であるかどうかを判定する(ステップS204)。TTCが閾値T_th以下である場合(ステップS204:YES)、衝突危険性があると判定され、ステップS205に移行する。一方、TTCが閾値T_thを越える場合(ステップS204:NO)、衝突危険性がないと判定され、ステップS207に移行する。   The control unit 122 determines whether or not the TTC is equal to or less than T_th which is a threshold for determining the collision risk (step S204). If TTC is equal to or less than the threshold T_th (step S204: YES), it is determined that there is a collision risk, and the process proceeds to step S205. On the other hand, when TTC exceeds the threshold value T_th (step S204: NO), it is determined that there is no collision risk, and the process proceeds to step S207.

ステップS204において、TTCが閾値T_th以下であると判定した場合(ステップS204:YES)、制御部122は、1時点前のTTC(以下、「TTC_t−1」という)についても閾値T_th以下であるかどうかを判定する(ステップS205)。   If it is determined in step S204 that the TTC is equal to or less than the threshold T_th (step S204: YES), the control unit 122 also determines whether the TTC one point before (hereinafter referred to as “TTC_t−1”) is equal to or less than the threshold T_th. It is determined whether or not (step S205).

ステップS205において、1時点前のTTC_t−1がT_thを越える場合(ステップS205:NO)、1時点前は衝突危険性がなく、現時点で初めて衝突危険性が発生したことになるため、制御部122は、運転者が車両前方を注視する必要がある(以下、「運転者の車両前方への注視の必要性がある」ともいう)と判定し(ステップS206)、判定処理を終了する。   In step S205, if TTC_t-1 one point before exceeds T_th (step S205: NO), there is no collision risk before one point, and the collision risk occurs for the first time at this point. Determines that the driver needs to gaze at the front of the vehicle (hereinafter also referred to as “the driver needs to gaze ahead of the vehicle”) (step S206), and ends the determination process.

ステップS205において、1時点前のTTC_t−1がT_th以下である場合(ステップS205:YES)、1時点前及び現時点ともに、衝突危険性があることになる。この場合、運転者の車両前方への注視の必要性に変化がないため、制御部122は判定処理を終了する。   In step S205, when TTC_t-1 before one time point is equal to or less than T_th (step S205: YES), there is a collision risk both at one time point and at the current time point. In this case, since there is no change in the necessity of the driver's gaze ahead of the vehicle, the control unit 122 ends the determination process.

一方、ステップS204において、TTCが閾値T_thを越える場合には(ステップS204:NO)、制御部122は、1時点前のTTC_t−1についても閾値T_th以下であるかどうかを判定する(ステップS207)。   On the other hand, when the TTC exceeds the threshold T_th in step S204 (step S204: NO), the control unit 122 determines whether TTC_t−1 one point before is also equal to or lower than the threshold T_th (step S207). .

ステップS207において、1時点前のTTC_t−1が閾値T_th以下である場合(ステップS207:YES)、1時点前は衝突危険性があり、現時点で衝突危険性がなくなったことになる。このため、制御部122は、運転者が車両前方を注視する必要がない(以下、「運転者の車両前方への注視の必要性がない」ともいう)と判定し(ステップS208)、判定処理を終了する。   In step S207, when TTC_t-1 one point before is less than or equal to the threshold value T_th (step S207: YES), there is a collision risk before one point, and the collision risk disappears at the present time. For this reason, the control unit 122 determines that the driver does not need to gaze at the front of the vehicle (hereinafter also referred to as “the driver does not need to gaze at the front of the vehicle”) (step S208), and the determination process Exit.

ステップS207において、1時点前のTTC_t−1がT_thを越える場合(ステップS207:NO)、1時点前及び現時点ともに、衝突危険性が発生しておらず、この場合、判定処理を終了する。なお、ステップS204、ステップS205及びステップS207における閾値T_thは、例えば、4秒、5秒といった値を用いればよい。   In step S207, when TTC_t-1 one time before exceeds T_th (step S207: NO), there is no collision risk both before and one time, and in this case, the determination process ends. Note that the threshold T_th in step S204, step S205, and step S207 may be a value such as 4 seconds or 5 seconds, for example.

図3は、時間経過に伴うTTCの変化の一例を示す図である。図3において、縦軸はTTCを示し、横軸は時間を示している。図3に示す折れ線グラフは、図2のフローが所定の時間間隔で実施されるたびに算出されるTTCをプロットして線で結んだものである。   FIG. 3 is a diagram illustrating an example of a change in TTC over time. In FIG. 3, the vertical axis represents TTC, and the horizontal axis represents time. The line graph shown in FIG. 3 is obtained by plotting TTC calculated each time the flow of FIG. 2 is performed at a predetermined time interval and connecting them with a line.

図3では、時間aから時間bの間にTTCが閾値T_thを下回り、時間cから時間dの間にTTCが閾値T_thを上回った様子を示している。   FIG. 3 shows that TTC falls below the threshold T_th from time a to time b, and TTC exceeded the threshold T_th from time c to time d.

例えば、時間bにおいて図2の判定処理を行った場合、ステップS204ではYESと判定され、ステップS205ではNOと判定される。この結果、運転者の車両前方への注視の必要性があると判定される。   For example, when the determination process of FIG. 2 is performed at time b, YES is determined in step S204, and NO is determined in step S205. As a result, it is determined that the driver needs to watch the vehicle forward.

また、例えば、時間dにおいて図2の判定処理を行った場合、ステップS204では、NOと判定され、ステップS207では、YESと判定される。この結果、運転者の車両前方への注視の必要性がないと判定される。   Further, for example, when the determination process of FIG. 2 is performed at time d, NO is determined in step S204, and YES is determined in step S207. As a result, it is determined that there is no need for the driver to watch the vehicle forward.

制御部122は、車両前方への注視の必要性があると判定した場合、表示媒体140に表示される画像の目標鮮鋭度を通常画像の当初の鮮鋭度より低く設定し、設定した目標鮮鋭度に達するように画像生成装置130を制御する。一方、車両前方への注視の必要性がないと判定した場合、制御部122は、表示媒体140に表示される画像の目標鮮鋭度を通常画像の当初の鮮鋭度に設定し、設定した目標鮮鋭度に達するように画像生成装置130を制御する。   When the control unit 122 determines that there is a need to gaze ahead of the vehicle, the target sharpness of the image displayed on the display medium 140 is set lower than the initial sharpness of the normal image, and the set target sharpness is set. The image generation device 130 is controlled so as to reach. On the other hand, if it is determined that there is no need to gaze ahead of the vehicle, the control unit 122 sets the target sharpness of the image displayed on the display medium 140 to the initial sharpness of the normal image, and sets the target sharpness thus set. The image generation device 130 is controlled to reach the degree.

ここで、画像の鮮鋭度を低下させる方法について説明する。画像の鮮鋭度を低下させる方法には、画像に対してローパスフィルタを施す、画像を平滑化するなどの様々な方法があるが、本実施の形態では、画像を平滑化する方法を例に説明する。   Here, a method for reducing the sharpness of an image will be described. There are various methods for reducing the sharpness of an image, such as applying a low-pass filter to the image and smoothing the image. In this embodiment, a method for smoothing an image will be described as an example. To do.

画像生成装置130は、画像を平滑化する平滑化フィルタを用いて画像の鮮鋭度を低下させる。例えば、画像生成装置130は、対象とする画素を中心として3×3画素、5×5画素といった特定領域の画素値の平均値を求めて、求めた平均値を対象とする画素の画素値に設定する。これにより、画像生成装置130は、ピントが合っていないようにぼけて見える画像を生成することができる。また、平滑化フィルタにおいて、平滑化の範囲(3画素または5画素など。以下、「フィルタサイズ」という)を大きくすることにより、画像生成装置130は、より平滑化の度合いを強く設定することができる。   The image generation device 130 reduces the sharpness of the image using a smoothing filter that smoothes the image. For example, the image generation device 130 obtains an average value of pixel values in a specific area such as 3 × 3 pixels and 5 × 5 pixels with the target pixel as the center, and sets the obtained average value as the pixel value of the target pixel. Set. As a result, the image generation device 130 can generate an image that looks blurred as if it is out of focus. In the smoothing filter, the image generation apparatus 130 can set the degree of smoothing more strongly by increasing the smoothing range (3 pixels or 5 pixels, etc., hereinafter referred to as “filter size”). it can.

図4は、パタン画像を平滑化する様子を示す図であり、図5は、表示媒体140に表示される画像の例を平滑化する様子を示す図である。図4Aは、パタン画像の元画像であり、図4Bは、図4Aの元画像に弱い平滑化処理を施して得られる、鮮鋭度の比較的高い(ぼけの度合いが比較的低い)画像を示し、図4Cは、図4Aの元画像に強い平滑化処理を施して得られる、鮮鋭度の低い(ぼけの度合いが高い)画像を示す。また、図5Aは、表示媒体140に表示される画像の例の元画像であり、図5Bは、図5Aの元画像に弱い平滑化処理を施して得られる、鮮鋭度の比較的高い(ぼけの度合いが比較的低い)画像を示し、図5Cは、図5Aの元画像に強い平滑化処理を施して得られる、鮮鋭度の低い(ぼけの度合いが高い)画像を示す。   FIG. 4 is a diagram showing how the pattern image is smoothed, and FIG. 5 is a diagram showing how the example of the image displayed on the display medium 140 is smoothed. FIG. 4A is an original image of a pattern image, and FIG. 4B shows an image with a relatively high sharpness (relative degree of blur) obtained by applying a weak smoothing process to the original image of FIG. 4A. FIG. 4C shows an image with low sharpness (high degree of blur) obtained by subjecting the original image of FIG. 4A to strong smoothing processing. 5A is an original image of an example of an image displayed on the display medium 140, and FIG. 5B is a relatively high sharpness (blurred image) obtained by performing weak smoothing processing on the original image of FIG. 5A. FIG. 5C shows an image with low sharpness (high degree of blur) obtained by applying a strong smoothing process to the original image of FIG. 5A.

なお、図4Cは、図4Bの画像に弱い平滑化処理を施して得られるようにしてもよい。図5Cも同様である。   Note that FIG. 4C may be obtained by performing a weak smoothing process on the image of FIG. 4B. The same applies to FIG. 5C.

次に、表示制御装置120が行う鮮鋭度低下処理について、図6を用いて説明する。図6は、本発明の実施の形態1に係る表示制御装置120の鮮鋭度低下処理の流れを示すフロー図である。制御部122は、運転者の車両前方への注視の必要性があると判定した場合に、以下に説明する鮮鋭度低下処理を行う。   Next, the sharpness reduction process performed by the display control device 120 will be described with reference to FIG. FIG. 6 is a flowchart showing the flow of sharpness reduction processing of the display control apparatus 120 according to Embodiment 1 of the present invention. When it is determined that the driver needs to gaze ahead of the vehicle, the control unit 122 performs a sharpness reduction process described below.

制御部122は、画像の鮮鋭度を低下させる際の目標鮮鋭度として、平滑化フィルタにおけるフィルタサイズを指定する(ステップS301)。例えば、3画素、5画素、11画素等の値が設定される。   The control unit 122 designates the filter size in the smoothing filter as the target sharpness when reducing the sharpness of the image (step S301). For example, values such as 3 pixels, 5 pixels, and 11 pixels are set.

制御部122は、現在、表示媒体140に表示されている画像から、目標とする鮮鋭度の画像まで画像を遷移させるために要する時間である遷移時間T_transitionとして、例えば、1秒、1.5秒、2秒等の値を設定する(ステップS302)。   The control unit 122 uses, for example, 1 second and 1.5 seconds as a transition time T_transition, which is a time required to transition the image from the image currently displayed on the display medium 140 to an image with a target sharpness. A value such as 2 seconds is set (step S302).

画像生成装置130は、運転者の車両前方への注視の必要性がない場合に表示媒体140に表示される表示画像を元画像として受け取り(ステップS303)、設定された目標鮮鋭度まで平滑化した目標画像を生成する(ステップS304)。   The image generation device 130 receives the display image displayed on the display medium 140 as an original image when there is no need for the driver to gaze ahead of the vehicle (step S303), and smoothes it to the set target sharpness. A target image is generated (step S304).

画像生成装置130は、元画像から目標画像まで遷移するように遷移画像の生成を行う(ステップS305)。遷移画像の生成には、例えば、元画像と目標画像を所定の比率で合成するαブレンドなどの技術を用いればよい。なお、遷移画像生成の詳細については後述する。   The image generation device 130 generates a transition image so as to transition from the original image to the target image (step S305). In order to generate the transition image, for example, a technique such as α blend that combines the original image and the target image at a predetermined ratio may be used. Details of the transition image generation will be described later.

画像生成装置130は、生成した遷移画像を表示媒体140に出力し(ステップS306)、遷移画像の生成を開始してから設定された遷移時間T_transitionが経過したかどうかを判定する(ステップS307)。遷移時間T_transitionが経過していなければ(ステップS307:NO)、ステップS305に戻り、遷移時間T_transitionが経過していれば(ステップS307:YES)、鮮鋭度低下処理を終了する。   The image generation device 130 outputs the generated transition image to the display medium 140 (step S306), and determines whether or not the transition time T_transition set after the generation of the transition image has started (step S307). If the transition time T_transition has not elapsed (step S307: NO), the process returns to step S305. If the transition time T_transition has elapsed (step S307: YES), the sharpness reduction process is terminated.

ここで、遷移画像生成の詳細について、図7を用いて説明する。図7において、横軸は時間を示し、縦軸はαブレンドによって生成される遷移画像に対して占める元画像と目標画像の比率を示している。実線L1、L3、L5は、生成される遷移画像に対して目標画像が占める比率aであり、二点鎖線L2、L4、L6は、生成される遷移画像に対して元画像が占める比率bである。   Details of the transition image generation will be described with reference to FIG. In FIG. 7, the horizontal axis represents time, and the vertical axis represents the ratio of the original image and the target image to the transition image generated by α blending. The solid lines L1, L3, and L5 are the ratio a that the target image occupies with respect to the generated transition image, and the two-dot chain lines L2, L4, and L6 are the ratio b that the original image occupies with respect to the generated transition image. is there.

図7に示すように、時間0秒では、生成される遷移画像に対して元画像が占める比率bが1.0であり、目標画像が占める比率aが0である。これに対して、遷移時間T_transition経過時点では、遷移画像に対して元画像が占める比率bが0であり、目標画像が占める比率aが1.0である。時間0からT_transitionの間は、元画像が占める比率bが1.0から0に向けて減少し、目標画像が占める比率aが0から1.0に向けて増加する。なお、いずれの時点においても、比率a+比率b(実線L1が示す比率a+実線L2が示す比率b、または、実線L3が示す比率a+実線L4が示す比率b、または、実線L5が示す比率a+実線L6が示す比率b)は、1.0となる。また、図7において、遷移画像に占める元画像が占める比率bと目標画像が占める比率aは線形にそれぞれ増減しているが、車両前方を注視している運転者が知覚しないような遷移画像が生成されるのであれば、比率の増減は線形でなくても構わない。   As shown in FIG. 7, at time 0 second, the ratio b occupied by the original image to the generated transition image is 1.0, and the ratio a occupied by the target image is 0. In contrast, when the transition time T_transition has elapsed, the ratio b occupied by the original image to the transition image is 0, and the ratio a occupied by the target image is 1.0. From time 0 to T_transition, the ratio b occupied by the original image decreases from 1.0 to 0, and the ratio a occupied by the target image increases from 0 to 1.0. At any time, the ratio a + ratio b (the ratio a indicated by the solid line L1 + the ratio b indicated by the solid line L2 or the ratio a + indicated by the solid line L3 + the ratio b indicated by the solid line L4 or the ratio a + solid line indicated by the solid line L5) The ratio b) indicated by L6 is 1.0. In FIG. 7, the ratio b occupied by the original image in the transition image and the ratio a occupied by the target image are linearly increased or decreased, but there is a transition image that is not perceived by the driver watching the front of the vehicle. As long as it is generated, the increase / decrease of the ratio may not be linear.

このように、画像生成装置130は、元画像と目標画像とをブレンドする比率を変化させて遷移画像を生成する。例えば、ある時点での遷移画像に対して元画像が占める比率がb_t、目標画像が占める比率がa_tであった場合、遷移画像の座標(x、y)における画素値は、元画像(x、y)×b_t+目標画像(x、y)×a_tで算出される。   As described above, the image generation device 130 generates a transition image by changing the ratio of blending the original image and the target image. For example, when the ratio of the original image to the transition image at a certain time is b_t and the ratio of the target image is a_t, the pixel value at the coordinates (x, y) of the transition image is the original image (x, y) × b_t + target image (x, y) × a_t.

次に、表示制御装置120が行う鮮鋭度回復処理について、図8を用いて説明する。図8は、本発明の実施の形態1に係る表示制御装置120の鮮鋭度回復処理の流れを示すフロー図である。制御部122は、運転者の車両前方への注視の必要性がないと判定した場合に、以下に説明する鮮鋭度回復処理を行う。   Next, the sharpness recovery process performed by the display control device 120 will be described with reference to FIG. FIG. 8 is a flowchart showing the flow of sharpness recovery processing of the display control device 120 according to Embodiment 1 of the present invention. When it is determined that the driver does not need to gaze ahead of the vehicle, the control unit 122 performs a sharpness recovery process described below.

制御部122は、現在、表示媒体140に表示されている鮮鋭度が低下した画像から、鮮鋭度を低下させる前の元画像まで鮮鋭度を回復させるための遷移時間T_transitionとして、例えば、1秒、1.5秒、2秒等の値を設定する(ステップS401)。この値は、鮮鋭度回復時に、運転者が表示の変化を知覚しないような値に設定される。   The control unit 122 uses, for example, 1 second as a transition time T_transition for recovering the sharpness from the image whose sharpness is currently displayed on the display medium 140 to the original image before the sharpness is reduced. Values such as 1.5 seconds and 2 seconds are set (step S401). This value is set to such a value that the driver does not perceive a change in display when the sharpness is restored.

画像生成装置130は、現在、表示媒体140に表示されている表示画像のデータを受け取り(ステップS402)、また、鮮鋭度を低下させる前の元画像のデータを受け取る(ステップS403)。   The image generating apparatus 130 receives display image data currently displayed on the display medium 140 (step S402), and also receives original image data before reducing the sharpness (step S403).

画像生成装置130は、現在の表示画像から元画像まで遷移するように遷移画像を生成し(ステップS404)、生成した遷移画像を表示媒体140に出力する(ステップS405)。遷移画像の生成には、例えば、現在の表示画像と元画像を所定の比率で合成するαブレンドなどの技術を用いればよい。   The image generation device 130 generates a transition image so as to transition from the current display image to the original image (step S404), and outputs the generated transition image to the display medium 140 (step S405). In order to generate the transition image, for example, a technique such as α blend that combines the current display image and the original image at a predetermined ratio may be used.

画像生成装置130は、遷移画像の生成を開始してから設定された遷移時間T_transitionが経過したかどうかを判定する(ステップS406)。遷移時間T_transitionが経過していなければ(ステップS406:NO)、ステップS404に戻り、遷移時間T_transitionが経過していれば(ステップS406:YES)、鮮鋭度回復処理を終了する。   The image generation apparatus 130 determines whether or not the transition time T_transition set after the generation of the transition image has started (step S406). If the transition time T_transition has not elapsed (step S406: NO), the process returns to step S404, and if the transition time T_transition has elapsed (step S406: YES), the sharpness recovery processing ends.

このように、実施の形態1の運転支援システム100では、運転者の車両前方への注視の必要性がある場合、表示媒体140に表示される画像の鮮鋭度を低下させる。これにより、表示媒体140に表示された画像を注視している運転者は、画像の変化を知覚し、車両前方を注視する。一方、車両前方を注視し、周辺視で表示媒体140に表示された画像を見ている運転者は、所定の遷移時間をかけて鮮鋭度が低下または回復する表示媒体140の画像の変化を知覚せず、表示媒体140に注意を向けない。この結果、表示内容が突然消去されるような煩わしい表示変化をせず、運転者がディスプレイへ不必要に注意を向けることを防止し、安全運転の向上に寄与することができる。   As described above, in the driving support system 100 according to the first embodiment, when the driver needs to gaze ahead of the vehicle, the sharpness of the image displayed on the display medium 140 is reduced. Thereby, the driver who is gazing at the image displayed on the display medium 140 perceives the change of the image and gazing at the front of the vehicle. On the other hand, a driver who is gazing at the front of the vehicle and watching an image displayed on the display medium 140 in peripheral vision perceives a change in the image on the display medium 140 that decreases or recovers sharpness over a predetermined transition time. Without paying attention to the display medium 140. As a result, it is possible to prevent the driver from paying attention to the display unnecessarily and to contribute to the improvement of safe driving without causing a troublesome display change that the display content is suddenly erased.

なお、本実施の形態では、運転者の車両前方への注視の必要性を判定する際に、TTCを用いたが、本発明はこれに限らず、車間距離D[m]に基づいて、車間距離が所定の閾値を下回った場合に、運転者の車両前方への注視の必要性があると判定してもよい。また、TTC又は車間距離Dに基づいて、運転者の車両前方への注視の必要性が判定された後、TTC又は車間距離Dの単位時間あたりの変化量(ΔTTC、ΔD)を算出して、変化量が大きい場合は、より危険な状況であると判定して、遷移時間T_transitionを予め設定された時間よりも短く設定してもよい。   In the present embodiment, TTC is used when determining the necessity of gaze the driver ahead of the vehicle. However, the present invention is not limited to this, and based on the inter-vehicle distance D [m] When the distance falls below a predetermined threshold, it may be determined that the driver needs to watch the vehicle ahead. Further, after determining the necessity of gaze ahead of the vehicle of the driver based on the TTC or the inter-vehicle distance D, the amount of change (ΔTTC, ΔD) per unit time of the TTC or the inter-vehicle distance D is calculated, When the amount of change is large, it may be determined that the situation is more dangerous, and the transition time T_transition may be set shorter than a preset time.

(実施の形態2)
図9は、本発明の実施の形態2に係る運転システム600の構成を示すブロック図である。図9が図1と異なる点は、表示要素情報取得部601を追加し、表示制御装置120を表示制御装置620に変更し、入力部121及び制御部122を入力部621及び制御部622に変更した点である。
(Embodiment 2)
FIG. 9 is a block diagram showing a configuration of an operation system 600 according to Embodiment 2 of the present invention. 9 differs from FIG. 1 in that a display element information acquisition unit 601 is added, the display control device 120 is changed to the display control device 620, and the input unit 121 and the control unit 122 are changed to the input unit 621 and the control unit 622. This is the point.

表示要素情報取得部601は、表示媒体140に表示される表示画像を構成する各表示要素に関する情報(以下、「表示要素情報」という)を取得し、取得した表示要素情報を入力部621へ出力する。図10に表示画像と表示画像を構成する表示要素701〜704の例と、表示要素情報取得部601により取得される情報の例を示す。   The display element information acquisition unit 601 acquires information about each display element constituting the display image displayed on the display medium 140 (hereinafter referred to as “display element information”), and outputs the acquired display element information to the input unit 621. To do. FIG. 10 shows a display image, examples of display elements 701 to 704 constituting the display image, and an example of information acquired by the display element information acquisition unit 601.

表示要素情報取得部601は、表示要素701〜704に関する情報として、情報の種別(案内系情報、運転支援系情報、利便系情報)及びその表示方法(アイコン、文字)の情報などを取得する。   The display element information acquisition unit 601 acquires information types (guidance system information, driving support system information, convenience system information), information on display methods (icons, characters), and the like as information about the display elements 701 to 704.

入力部621は、表示要素情報取得部601から表示要素情報を受け取り、その表示要素情報を制御部622へ出力する。   The input unit 621 receives the display element information from the display element information acquisition unit 601 and outputs the display element information to the control unit 622.

制御部622は、表示要素情報に含まれる各表示要素の情報に基づいて、目標鮮鋭度、遷移時間を設定する。案内系情報とは、例えば、道案内や現在地の名称などを示す情報である。運転支援系情報とは、例えば、交通情報(渋滞情報又は事故情報)、事故多発交差点情報など、運転者が安全運転のために、定期的に確認する必要がある情報、または比較的短時間のうちに対応が必要な情報である。利便系情報とは、例えば、現在時刻や、目的地までの距離、目的地に到達するまでに要する時間などの情報である。   The control unit 622 sets the target sharpness and the transition time based on the information of each display element included in the display element information. The guidance system information is information indicating, for example, road guidance and the name of the current location. The driving support system information is, for example, information that the driver needs to check regularly for safe driving, such as traffic information (congestion information or accident information), accident-prone intersection information, or a relatively short period of time. It is information that needs to be handled at home. The convenience system information is information such as the current time, the distance to the destination, and the time required to reach the destination.

制御部622は、運転者の車両前方への注視の必要性があると判定した場合、表示媒体140に表示される画像の目標鮮鋭度を低く設定し、設定した目標鮮鋭度に達するように画像生成装置130を制御する。一方、運転者の車両前方への注視の必要性がないと判定した場合、制御部622は、表示媒体140に表示される画像の目標鮮鋭度を高く設定し、設定した目標鮮鋭度に達するように画像生成装置130を制御する。また、制御部622は、表示要素情報取得部601から出力された情報種別に応じて、鮮鋭度回復処理における遷移時間を変更する。   When the control unit 622 determines that the driver needs to gaze ahead of the vehicle, the control unit 622 sets the target sharpness of the image displayed on the display medium 140 to a low value and reaches the set target sharpness. The generation device 130 is controlled. On the other hand, when it is determined that there is no need for the driver to watch the vehicle forward, the control unit 622 sets the target sharpness of the image displayed on the display medium 140 to be high and reaches the set target sharpness. The image generation device 130 is controlled. Further, the control unit 622 changes the transition time in the sharpness recovery process according to the information type output from the display element information acquisition unit 601.

なお、本実施の形態において、少なくとも表示制御装置620と画像生成装置130を含む投影装置を構成してもよい。また、投影装置は、表示媒体140を含んでもよい。   In the present embodiment, a projection device including at least the display control device 620 and the image generation device 130 may be configured. Further, the projection device may include a display medium 140.

次に、表示制御装置620が行う鮮鋭度回復処理について、図11を用いて説明する。図11は、本発明の実施の形態2に係る表示制御装置620の鮮鋭度回復処理の流れを示すフロー図である。ただし、図11において、図8と共通する部分には、図8と同一の符号を付し、重複する説明は省略する。   Next, the sharpness recovery processing performed by the display control device 620 will be described with reference to FIG. FIG. 11 is a flowchart showing the flow of sharpness recovery processing of the display control apparatus 620 according to Embodiment 2 of the present invention. However, in FIG. 11, the same reference numerals as those in FIG.

入力部621は、表示要素情報取得部601から表示要素情報を受け取る(ステップS901)。制御部122は、入力部621が受け取った表示要素情報に応じて遷移時間を設定する(ステップS902)。例えば、表示要素情報に含まれる情報種別が運転支援系情報である場合、制御部622は、遷移時間を短く設定する。実施の形態1では、鮮鋭度を回復させるための遷移時間T_transitionは、2秒、2.5秒、3秒等が設定されるものとして説明したが、運転支援系の情報である場合は、他の情報種別の遷移時間よりも速く、且つ、変化を運転者が知覚しないような値として、1秒、1.5秒、2秒等が設定される。   The input unit 621 receives display element information from the display element information acquisition unit 601 (step S901). The control unit 122 sets a transition time according to the display element information received by the input unit 621 (step S902). For example, when the information type included in the display element information is driving support system information, the control unit 622 sets a short transition time. In the first embodiment, the transition time T_transition for restoring the sharpness has been described as being set to 2 seconds, 2.5 seconds, 3 seconds, or the like. For example, 1 second, 1.5 seconds, 2 seconds, etc. are set as values that are faster than the transition time of the information type and are not perceived by the driver.

図12は、本発明の実施の形態2における鮮鋭度低下処理及び鮮鋭度回復処理の様子を示す図である。図12Aは、鮮鋭度低下処理の様子を示す。表示媒体140を注視している運転者に対しては、速やかに車両前方を注視させる必要があるため、図12Aが示すように、全ての表示要素に一律の遷移時間が設定され、全ての表示要素の鮮鋭度が同時に低下する。一方、図12Bは、鮮鋭度回復処理を示す。図12Bが示すように、重要な情報である運転支援系の情報の鮮鋭度は他の情報よりも早期に回復される。   FIG. 12 is a diagram showing a state of sharpness reduction processing and sharpness recovery processing in Embodiment 2 of the present invention. FIG. 12A shows the state of sharpness reduction processing. Since it is necessary for the driver who is gazing at the display medium 140 to promptly look at the front of the vehicle, as shown in FIG. 12A, a uniform transition time is set for all the display elements, and all the displays are displayed. The sharpness of the element decreases at the same time. On the other hand, FIG. 12B shows the sharpness recovery processing. As FIG. 12B shows, the sharpness of the driving assistance system information, which is important information, is recovered earlier than other information.

このように、実施の形態2の運転支援システムは、重要度が高い表示要素(運転支援系情報)については、他の表示要素よりも早期に鮮鋭度を回復させる。これにより、車両前方への注視の必要性がない状態で運転者が表示媒体140を注視した際に、鮮鋭度が回復していないために重要度が高い情報を視認できない、という状況を回避することができる。   As described above, the driving support system according to the second embodiment recovers the sharpness of display elements (driving support system information) having a high degree of importance earlier than other display elements. This avoids a situation in which, when the driver gazes at the display medium 140 in a state where there is no need to gaze at the front of the vehicle, information with high importance cannot be visually recognized because the sharpness has not recovered. be able to.

なお、本実施の形態では、表示要素の情報種別に基づいて、鮮鋭度回復処理を変更する例について説明したが、表示要素の表示方法に基づいて、文字情報である表示要素の遷移時間を短く設定し、より速く鮮鋭度を回復させるようにしてもよい。   In the present embodiment, an example in which the sharpness restoration processing is changed based on the information type of the display element has been described. However, based on the display method of the display element, the transition time of the display element that is character information is shortened. It may be set so that sharpness is restored faster.

また、鮮鋭度低下処理を行う際にも、表示要素情報が文字情報である場合は、アイコンである場合と比べて目標鮮鋭度をより低く設定する(ぼかしを強くする)ことで、文字情報の視認性を低下させ、運転者に車両前方を注視させる効果を強化するように制御してもよい。   Also, when the sharpness reduction process is performed, if the display element information is character information, the target sharpness is set lower (intensified blurring) by setting the target sharpness lower than when the display element information is an icon. You may control so that visibility may be reduced and the effect which makes a driver | operator gaze ahead of a vehicle may be strengthened.

(実施の形態3)
図13は、本発明の実施の形態3に係る運転システム1100の構成を示すブロック図である。図13において、図1と異なる点は、注視点推定部1101及び表示位置情報取得部1102を追加し、表示制御装置120を表示制御装置1120に変更し、入力部121及び制御部122を入力部1121及び制御部1122に変更した点である。
(Embodiment 3)
FIG. 13 is a block diagram showing a configuration of an operation system 1100 according to Embodiment 3 of the present invention. 13 differs from FIG. 1 in that a gaze point estimation unit 1101 and a display position information acquisition unit 1102 are added, the display control device 120 is changed to the display control device 1120, and the input unit 121 and the control unit 122 are input units. It is a point changed into 1121 and the control part 1122.

注視点推定部1101は、運転者が運転時に注視すべき点(以下、「注視点」という)を推定し、推定結果を入力部1121に出力する。一般に、運転者は車両前方を注視しながら運転するため、前景画像の消失点を注視点とすればよい。注視点は、例えば、図14に示すような、運転者の頭部位置を基準とした水平角度及び垂直角度[度]から構成される座標系における所定の座標である。   The gaze point estimation unit 1101 estimates a point (hereinafter, referred to as “gaze point”) that the driver should pay attention to when driving, and outputs an estimation result to the input unit 1121. In general, since the driver drives while gazing at the front of the vehicle, the vanishing point of the foreground image may be set as the gazing point. The gaze point is, for example, predetermined coordinates in a coordinate system including a horizontal angle and a vertical angle [degree] with respect to the driver's head position as shown in FIG.

図15に注視点の例を示す。注視点は、オプティカルフロー等の公知の技術により算出される消失点が用いられる。この場合、消失点座標は(X_VP、Y_VP)として示される。ここで、X_VPは水平角度を示し、Y_VPは垂直角度を示している。なお、一般に、運転者は車両前方を注視しながら運転していることから、注視点推定部1101は、予め設定された固定の値を消失点座標として用いることにより処理を簡易化してもよい。また、注視点推定部1101は、自車両の操舵情報から推定された画像の消失点を注視点として用いてもよい。   FIG. 15 shows an example of a gazing point. As the gazing point, a vanishing point calculated by a known technique such as optical flow is used. In this case, the vanishing point coordinates are indicated as (X_VP, Y_VP). Here, X_VP represents a horizontal angle, and Y_VP represents a vertical angle. In general, since the driver is driving while gazing at the front of the vehicle, the gazing point estimation unit 1101 may simplify the process by using a preset fixed value as the vanishing point coordinates. In addition, the gaze point estimation unit 1101 may use the vanishing point of the image estimated from the steering information of the host vehicle as the gaze point.

表示位置情報取得部1102は、表示される画像を任意の複数の領域に分割(上下分割、左右分割など)する。表示位置情報取得部1102は、画像を分割する際、分割された各部の領域(以下、「部分領域」という)の表示位置情報を取得し、その表示位置情報を入力部1121に出力する。なお、表示位置情報は、例えば、図14に示したような、運転者の頭部位置を基準とした水平角度及び垂直角度[度]から構成される座標系における所定の座標である。表示位置情報は、例えば、図示せぬメモリに予め記憶されているものとする。   The display position information acquisition unit 1102 divides the displayed image into a plurality of arbitrary areas (upper and lower divisions, right and left divisions, and the like). When the display position information acquisition unit 1102 divides an image, the display position information acquisition unit 1102 acquires display position information of each divided region (hereinafter referred to as “partial region”), and outputs the display position information to the input unit 1121. The display position information is, for example, predetermined coordinates in a coordinate system composed of a horizontal angle and a vertical angle [degree] with reference to the driver's head position as shown in FIG. For example, it is assumed that the display position information is stored in advance in a memory (not shown).

部分領域ごとの位置座標を図16に示す。図16の例では、HUD1501が表示媒体140に相当し、運転席前方に設置されている。そして、HUD1501の表示領域を上下に分割した際の、上部の部分領域の中心座標1502(白抜きの+)を上部部分領域の位置座標とし、下部の部分領域の中心座標1503(+)を下部部分領域の位置座標とする。   FIG. 16 shows position coordinates for each partial region. In the example of FIG. 16, the HUD 1501 corresponds to the display medium 140 and is installed in front of the driver's seat. Then, when the display area of the HUD 1501 is divided vertically, the center coordinates 1502 (outlined +) of the upper partial area are set as the position coordinates of the upper partial area, and the central coordinates 1503 (+) of the lower partial area are set as the lower part. The position coordinates of the partial area are used.

入力部1121は、注視点推定部1101から推定結果を受け取り、表示位置情報取得部1102から表示位置情報を受け取る。そして、入力部1121は、推定結果及び表示位置情報を制御部1122へ出力する。   The input unit 1121 receives the estimation result from the gaze point estimation unit 1101 and receives the display position information from the display position information acquisition unit 1102. Then, the input unit 1121 outputs the estimation result and the display position information to the control unit 1122.

制御部1122は、注視点推定部1101から出力された推定結果が示す注視点座標と、表示位置情報取得部1102から出力された部分領域の表示位置情報が示す位置座標との距離を算出する。具体的には、制御部1122は、図15に示した消失点VP(X_VP,Y_VP)に対する、図16に示した上部部分領域の中心座標1502(X_DPU、Y_DPU)の距離D1[度]と、同じく図16に示した下部部分領域の中心座標1503(X_DPD、Y_DPD)の距離D2[度]とを算出する(図17参照)。制御部1122は、注視点からの距離が長いほど、部分領域の目標鮮鋭度を低く設定する、または遷移時間を短く設定する。すなわち、注視点に近い場所に表示される表示画像については、目標鮮鋭度が比較的高く設定される、または遷移時間が比較的長く設定される。   The control unit 1122 calculates the distance between the gazing point coordinates indicated by the estimation result output from the gazing point estimation unit 1101 and the position coordinates indicated by the display position information of the partial area output from the display position information acquisition unit 1102. Specifically, the control unit 1122 has a distance D1 [degree] of the center coordinates 1502 (X_DPU, Y_DPU) of the upper partial region illustrated in FIG. 16 with respect to the vanishing point VP (X_VP, Y_VP) illustrated in FIG. Similarly, the distance D2 [degree] of the center coordinates 1503 (X_DPD, Y_DPD) of the lower partial region shown in FIG. 16 is calculated (see FIG. 17). The control unit 1122 sets the target sharpness of the partial region to be lower or sets the transition time to be shorter as the distance from the gazing point is longer. That is, for a display image displayed at a location close to the point of interest, the target sharpness is set to be relatively high, or the transition time is set to be relatively long.

注視点の近くに存在する表示画像の鮮鋭度が急激に低下すると、車両前方に注視している運転者が表示画像の変化を知覚してしまい、運転者の車両前方への注意が阻害される可能性がある。よって、上記のような設定により、表示制御装置1120は、急激な画像の変化を抑制し、運転者が不必要に表示画像に注意を向けることを防止できる。   If the sharpness of the display image near the gazing point suddenly decreases, the driver gazing in front of the vehicle perceives a change in the display image, and the driver's attention to the front of the vehicle is obstructed. there is a possibility. Therefore, with the above settings, the display control device 1120 can suppress a sudden change in the image and prevent the driver from unnecessarily paying attention to the display image.

なお、本実施の形態において、少なくとも表示制御装置1120と画像生成装置130を含む投影装置を構成してもよい。また、投影装置は、表示媒体140を含んでもよい。   In the present embodiment, a projection device including at least the display control device 1120 and the image generation device 130 may be configured. Further, the projection device may include a display medium 140.

次に、表示制御装置1120が行う鮮鋭度低下処理の流れについて、図18を用いて説明する。   Next, the flow of sharpness reduction processing performed by the display control apparatus 1120 will be described with reference to FIG.

まず、入力部1121は、注視点推定部1101から注視点の推定結果を受け取り(ステップS1301)、表示位置情報取得部1102から表示画像の部分領域ごとの位置座標を受け取る(ステップS1302)。そして、入力部1121は、受け取った注視点の推定結果及び部分領域ごとの位置座標を制御部1122へ出力する。   First, the input unit 1121 receives a gaze point estimation result from the gaze point estimation unit 1101 (step S1301), and receives position coordinates for each partial region of the display image from the display position information acquisition unit 1102 (step S1302). Then, the input unit 1121 outputs the received gaze point estimation result and position coordinates for each partial region to the control unit 1122.

制御部1122は、注視点とそれぞれの部分領域の位置座標との距離を算出し(ステップS1303)、算出した距離に基づいて、部分領域ごとの目標鮮鋭度及び遷移時間を設定する(ステップS1304)。   The control unit 1122 calculates the distance between the gazing point and the position coordinates of each partial area (step S1303), and sets the target sharpness and transition time for each partial area based on the calculated distance (step S1304). .

画像生成装置130は、現在の表示画像から目標画像まで遷移するように部分領域ごとに遷移画像の生成を行う(ステップS1305)。遷移画像の生成には、例えば、部分領域ごとに現在の表示画像と目標画像を所定の比率で合成するαブレンドなどの技術を用いればよい。   The image generation device 130 generates a transition image for each partial region so as to transition from the current display image to the target image (step S1305). In order to generate the transition image, for example, a technique such as α blend that combines the current display image and the target image at a predetermined ratio for each partial region may be used.

画像生成装置130は、生成した部分領域ごとの遷移画像を一枚の表示用画像として統合し(ステップS1306)、統合した画像を表示媒体140に出力し(ステップS1307)、遷移画像の生成を開始してから各部分領域に対して設定された遷移時間T_transitionのうち、最も長い遷移時間T_transitionが経過したかどうかを判定する(ステップS1308)。最も長い遷移時間T_transitionが経過していなければ(ステップS1308:NO)、ステップS1305に戻り、最も長い遷移時間T_transitionが経過していれば(ステップS1308:YES)、鮮鋭度低下処理を終了する。   The image generation apparatus 130 integrates the generated transition images for each partial area as a single display image (step S1306), outputs the integrated image to the display medium 140 (step S1307), and starts generating the transition image. Then, it is determined whether or not the longest transition time T_transition has elapsed among the transition times T_transition set for each partial region (step S1308). If the longest transition time T_transition has not elapsed (step S1308: NO), the process returns to step S1305. If the longest transition time T_transition has elapsed (step S1308: YES), the sharpness reduction process is terminated.

図19は、本発明の実施の形態3における鮮鋭度低下処理の様子を示す図である。図19は、表示画像を上部、中部、下部の3つの部分領域に分割した例を示している(図19A参照)。注視点VPからの距離が遠いほど、目標鮮鋭度が低くなるように設定を行った際の表示例を図19Bに示す。すなわち、注視点から最も近い上部の部分領域における鮮鋭度は最も高く、注視点から最も遠い下部の部分領域における鮮鋭度は最も低く、中部の部分領域における鮮鋭度はこれらの中間になっている。   FIG. 19 is a diagram showing a state of sharpness reduction processing according to Embodiment 3 of the present invention. FIG. 19 shows an example in which the display image is divided into three partial areas, an upper part, a middle part, and a lower part (see FIG. 19A). FIG. 19B shows a display example when setting is performed such that the target sharpness decreases as the distance from the gazing point VP increases. That is, the sharpness in the upper partial area closest to the gazing point is the highest, the sharpness in the lower partial area farthest from the gazing point is the lowest, and the sharpness in the middle partial area is between these.

このように、実施の形態3の運転支援システムでは、表示される画像を複数の領域に分割し、分割された部分領域の位置座標が注視点から遠いほど、目標鮮鋭度を低く、または、遷移時間を短く設定し、部分領域の位置座標が注視点から近いほど、目標鮮鋭度を高く、または、遷移時間を長く設定する。これにより、例えば、運転者の前方に画面サイズが大きな表示媒体140が設置されている場合、車両前方を注視している運転者には画像の変化を知覚させず、表示媒体140を注視している場合にのみ、画像の変化を知覚させることができる。よって、表示内容が突然消去されるような煩わしい表示変化をせず、運転者が表示媒体140に不必要に注意を向けることを防止し、安全運転の向上に寄与することができる。   As described above, in the driving support system according to the third embodiment, the displayed image is divided into a plurality of regions, and the target sharpness is lowered or transitioned as the position coordinates of the divided partial regions are farther from the gazing point. The time is set short, and the closer the position coordinate of the partial area is from the gazing point, the higher the target sharpness or the longer the transition time. Thereby, for example, when the display medium 140 with a large screen size is installed in front of the driver, the driver who is gazing at the front of the vehicle does not perceive the change of the image, and is gazing at the display medium 140. It is possible to perceive a change in the image only when the image is present. Therefore, it is possible to prevent the driver from paying attention to the display medium 140 unnecessarily, without contributing to a troublesome display change in which the display content is suddenly erased, thereby contributing to an improvement in safe driving.

(実施の形態4)
図20は、本発明の実施の形態4に係る運転支援システム1700の構成を示すブロック図である。図20において、図13と異なる点は、表示媒体140を複数の表示媒体140−1〜140−Nを変更した点である。
(Embodiment 4)
FIG. 20 is a block diagram showing a configuration of a driving support system 1700 according to Embodiment 4 of the present invention. 20 is different from FIG. 13 in that the display medium 140 is changed to a plurality of display media 140-1 to 140-N.

表示媒体140−1〜140−Nは、ヘッドアップディスプレイ、メータディスプレイ、センターディスプレイ等の複数の車載ディスプレイである。表示媒体140−1〜140−Nの表示位置の一例を図21に示す。   The display media 140-1 to 140-N are a plurality of in-vehicle displays such as a head-up display, a meter display, and a center display. An example of the display position of the display media 140-1 to 140-N is shown in FIG.

表示位置情報取得部1102は、表示媒体140−1〜140−Nの位置情報を取得し、取得した各位置情報を入力部1121に出力する。各位置情報は、例えば、図示せぬメモリに予め記憶されているものとする。   The display position information acquisition unit 1102 acquires the position information of the display media 140-1 to 140 -N, and outputs the acquired position information to the input unit 1121. Each position information is assumed to be stored in advance in a memory (not shown), for example.

入力部1121は、表示媒体140−1〜140−Nの位置情報を受け取り、受け取った各位置情報を制御部1122へ出力する。   The input unit 1121 receives the position information of the display media 140-1 to 140 -N, and outputs the received position information to the control unit 1122.

制御部1122は、表示媒体140−1〜140−Nの位置情報に基づいて、各表示媒体の目標鮮鋭度と遷移時間を決定する。具体的には、実施の形態3の部分領域を表示媒体に置き換えた場合と同様とし、制御部1122は、注視点座標と表示媒体の位置情報との距離を算出し、注視点からの距離が長い表示媒体ほど、表示される画像の目標鮮鋭度を低く設定する、または遷移時間を短く設定する。   The control unit 1122 determines the target sharpness and transition time of each display medium based on the position information of the display media 140-1 to 140-N. Specifically, the control unit 1122 calculates the distance between the gazing point coordinates and the position information of the display medium, as in the case where the partial area in the third embodiment is replaced with a display medium, and the distance from the gazing point is The longer the display medium, the lower the target sharpness of the displayed image, or the shorter the transition time.

なお、本実施の形態において、少なくとも表示制御装置1120と画像生成装置130を含む投影装置を構成してもよい。また、投影装置は、表示媒体140−1〜140−Nを含んでもよい。   In the present embodiment, a projection device including at least the display control device 1120 and the image generation device 130 may be configured. In addition, the projection device may include display media 140-1 to 140-N.

次に、表示制御装置1120が行う鮮鋭度低下処理について、図22を用いて説明する。図22は、本発明の実施の形態4に係る表示制御装置1120の鮮鋭度低下処理の流れを示すフロー図である。ただし、図22において、図18と共通する部分には、図18と同一の符号を付し、重複する説明は省略する。   Next, the sharpness reduction process performed by the display control apparatus 1120 will be described with reference to FIG. FIG. 22 is a flowchart showing the flow of sharpness reduction processing of the display control apparatus 1120 according to Embodiment 4 of the present invention. However, in FIG. 22, the same reference numerals as those in FIG.

入力部1121は、表示位置情報取得部1102から表示媒体140−1〜140−Nの位置情報を受け取る(ステップS1901)。表示媒体の位置情報は、例えば、ヘッドアップディスプレイ、メータディスプレイ、センターディスプレイの画面の中心座標を示す情報である。入力部1121は、受け取った各表示媒体の位置情報を制御部1122へ出力する。   The input unit 1121 receives the position information of the display media 140-1 to 140-N from the display position information acquisition unit 1102 (step S1901). The position information of the display medium is information indicating the center coordinates of the screen of the head-up display, meter display, and center display, for example. The input unit 1121 outputs the received position information of each display medium to the control unit 1122.

制御部1122は、注視点と、各表示媒体の位置情報を用いて、注視点及び各表示媒体間の距離を算出し(ステップS1902)、算出した距離に基づいて、表示媒体140−1〜140−Nごとの目標鮮鋭度と遷移時間を設定する(ステップS1903)。   The control unit 1122 calculates the distance between the gazing point and each display medium using the gazing point and the position information of each display medium (step S1902), and the display media 140-1 to 140-140 based on the calculated distance. The target sharpness and transition time for each -N are set (step S1903).

画像生成装置130は、表示媒体140−1〜140−Nごとに所定の遷移時間をかけて、目標鮮鋭度に達するように遷移画像の生成を行い(ステップS1904)、生成した遷移画像を表示媒体140−1〜140−Nに出力する(ステップS1905)。   The image generation device 130 generates a transition image so as to reach the target sharpness over a predetermined transition time for each of the display media 140-1 to 140-N (step S1904), and the generated transition image is displayed on the display medium. Output to 140-1 to 140-N (step S1905).

図23は、本発明の実施の形態4における鮮鋭度低下処理の様子を示す図である。図23では、注視点から遠い場所に配置されたディスプレイほど、目標鮮鋭度が低くなるように設定を行った際の表示例を示している。すなわち、注視点から最も近いディスプレイにおける鮮鋭度は最も高く、注視点から最も遠いディスプレイにおける鮮鋭度は最も低く、これらの中間の距離にあるディスプレイにおける鮮鋭度はこれらの中間になっている。   FIG. 23 is a diagram illustrating a state of sharpness reduction processing according to Embodiment 4 of the present invention. FIG. 23 shows a display example when setting is performed so that the target sharpness is lower as the display is located farther from the gazing point. That is, the sharpness of the display closest to the gazing point is the highest, the sharpness of the display farthest from the gazing point is the lowest, and the sharpness of the display at an intermediate distance between these is between these.

このように、実施の形態4の運転支援システムでは、複数の表示媒体140−1〜140−Nが車両に設置されている場合、表示媒体が注視点から遠いほど、目標鮮鋭度を低く、または、遷移時間を短く設定し、表示媒体が注視点から近いほど、目標鮮鋭度を高く、または、遷移時間を長く設定する。これにより、前方を注視している運転者には画像の変化を知覚させず、表示媒体140を注視している運転者には車両前方を注視させることができる。よって、表示内容が突然消去されるような煩わしい表示変化をせず、運転者が表示媒体140−1〜140−Nに不必要に注意を向けることを防止し、安全運転の向上に寄与することができる。   As described above, in the driving support system of the fourth embodiment, when the plurality of display media 140-1 to 140-N are installed in the vehicle, the target sharpness decreases as the display media is farther from the point of sight, or The transition time is set shorter, and the closer the display medium is to the point of sight, the higher the target sharpness or the longer the transition time. As a result, the driver who is gazing at the front cannot perceive the change of the image, and the driver who is gazing at the display medium 140 can be gazed at the front of the vehicle. Therefore, it is possible to prevent a driver from paying unnecessary attention to the display media 140-1 to 140-N without contributing to an improvement in safe driving without causing annoying display change such that display contents are suddenly erased. Can do.

なお、本実施の形態では、運転者の視点を中心とした垂直角度及び水平角度の座標系を用いて表示媒体の距離を算出したが、これに、奥行き方向の距離を考慮するようにしてもよい。例えば、図24に示すように、運転者から、運転者が注視すべき注視点GP(Gaze Point)までの奥行き方向の距離D_GP[m]を、所定の値として注視点推定部1101が予め保持しておく。   In the present embodiment, the distance of the display medium is calculated using a vertical and horizontal coordinate system centered on the driver's viewpoint, but the distance in the depth direction may be taken into consideration. Good. For example, as shown in FIG. 24, the gaze point estimation unit 1101 holds in advance a distance D_GP [m] in the depth direction from the driver to the gaze point GP (Gaze Point) that the driver should gaze at as a predetermined value. Keep it.

一方、運転者から、HUDの表示画像が表示されているように見える位置までの距離D_HUD1、D_HUD2については、表示位置情報取得部1102にて取得される。図24において、HUD1の表示画像は運転者から見て2m先に表示されているように見え、HUD2の表示画像は10m先に表示されているように見えるものとする。制御部1122では、D_GPと、D_HUD1及びD_HUD2との差分をそれぞれ求めることにより、注視点と、HUDの表示画像が表示されているように見える位置との奥行き方向の距離D1_depth[m]、D2_depth[m]を算出できる。   On the other hand, the distances D_HUD1 and D_HUD2 from the driver to the position where the HUD display image appears to be displayed are acquired by the display position information acquisition unit 1102. In FIG. 24, it is assumed that the display image of HUD1 appears to be displayed 2m ahead when viewed from the driver, and the display image of HUD2 appears to be displayed 10m ahead. The control unit 1122 obtains the differences between D_GP and D_HUD1 and D_HUD2, respectively, thereby obtaining distances D1_depth [m] and D2_depth [ m] can be calculated.

制御部1122では、図17に示したように、注視点の垂直角度及び水平角度の距離D1、D2を算出した後、奥行き方向の距離D1_depth、D2_depthを用いて、奥行き方向を含めた距離を算出する。D1,D2[度]とD1_depth、D2_depth[m]は単位が異なるが、例えば、それぞれを所定の基準値d(90°など)、d_depth(100mなど)で除することによって正規化した上で、距離同士を加算することにより、奥行き方向を含めた距離を算出することができる。具体的には、注視点とHUD1との距離Dは、次式(1)によって算出することができる。
D=D1/d+D1_depth/d_depth …(1)
As shown in FIG. 17, the control unit 1122 calculates the vertical angle and horizontal angle distances D1 and D2 of the gazing point, and then calculates the distance including the depth direction using the depth direction distances D1_depth and D2_depth. To do. D1, D2 [degrees] and D1_depth and D2_depth [m] are different in unit. For example, after normalization by dividing each by a predetermined reference value d (such as 90 °) and d_depth (such as 100 m), By adding the distances, the distance including the depth direction can be calculated. Specifically, the distance D between the gazing point and the HUD 1 can be calculated by the following equation (1).
D = D1 / d + D1_depth / d_depth (1)

また、図25は、上述した各実施形態における各部の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。このコンピュータ2100は、入力ボタン、タッチパッドなどの入力装置2101、ディスプレイ、スピーカなどの出力装置2102、CPU(Central Processing Unit)2103、ROM(Read Only Memory)2104、RAM(Random Access Memory)2105を備える。また、コンピュータ2100は、ハードディスク装置、SSD(Solid State Drive)などの記憶装置2106、DVD−ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置2107、ネットワークを介して通信を行う送受信装置2108を備える。上述した各部は、バス2109により接続される。   FIG. 25 is a diagram illustrating a hardware configuration of a computer that realizes the functions of the respective units in the above-described embodiments by a program. The computer 2100 includes an input device 2101 such as an input button and a touch pad, an output device 2102 such as a display and a speaker, a CPU (Central Processing Unit) 2103, a ROM (Read Only Memory) 2104, and a RAM (Random Access Memory) 2105. . The computer 2100 also reads information from a recording medium such as a hard disk device, a storage device 2106 such as an SSD (Solid State Drive), a DVD-ROM (Digital Versatile Disk Read Only Memory), or a USB (Universal Serial Bus) memory. 2107, a transmission / reception device 2108 that performs communication via a network is provided. Each unit described above is connected by a bus 2109.

そして、読取装置2107は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置2106に記憶させる。あるいは、送受信装置2108が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置2106に記憶させる。   Then, the reading device 2107 reads the program from a recording medium on which a program for realizing the functions of the above-described units is recorded, and stores the program in the storage device 2106. Alternatively, the transmission / reception device 2108 communicates with the server device connected to the network, and causes the storage device 2106 to store a program for realizing the function of each unit downloaded from the server device.

そして、CPU2103が、記憶装置2106に記憶されたプログラムをRAM2105にコピーし、そのプログラムに含まれる命令をRAM1105から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM2105または記憶装置2106には、各実施の形態で述べた各種処理で得られた情報が記憶され、適宜利用される。   Then, the CPU 2103 copies the program stored in the storage device 2106 to the RAM 2105, and sequentially reads out and executes the instructions included in the program from the RAM 1105, thereby realizing the functions of the above-described units. Further, when executing the program, the RAM 2105 or the storage device 2106 stores information obtained by various processes described in each embodiment, and is used as appropriate.

なお、上記各実施の形態では、運転支援システムを車両に適用したものとして説明したが、本発明はこれに限らず、船舶、航空機等の移動体に運転支援システムを適用してもよい。   In each of the above embodiments, the driving support system has been described as applied to a vehicle. However, the present invention is not limited to this, and the driving support system may be applied to a moving body such as a ship or an aircraft.

本発明にかかる表示制御装置、投影装置、表示制御方法、表示制御プログラム及び記録媒体は、表示内容が突然消去されるような煩わしい表示変化をせず、安全運転の向上に寄与するのに有用である。   The display control device, the projection device, the display control method, the display control program, and the recording medium according to the present invention are useful for contributing to the improvement of safe driving without causing a troublesome display change in which the display content is suddenly erased. is there.

110 認識装置
120、620、1120 表示制御装置
121、621、1121 入力部
122、622、1122 制御部
130 画像生成装置
140、140−1〜140−N 表示媒体
601 表示要素情報取得部
1101 注視点推定部
1102 表示位置情報取得部
2101 入力装置
2102 出力装置
2103 CPU
2104 ROM
2105 RAM
2106 記憶装置
2107 読取装置
2108 送受信装置
2109 バス
110 recognition device 120, 620, 1120 display control device 121, 621, 1121 input unit 122, 622, 1122 control unit 130 image generation device 140, 140-1 to 140-N display medium 601 display element information acquisition unit 1101 gaze point estimation Unit 1102 Display position information acquisition unit 2101 Input device 2102 Output device 2103 CPU
2104 ROM
2105 RAM
2106 Storage device 2107 Reading device 2108 Transmission / reception device 2109 Bus

Claims (15)

車両周辺の環境変化を認識する認識装置から認識結果を受け取る入力部と、
表示媒体に表示されたときに第1の提示画像を表す第1の所定画像を生成するように画像生成装置を制御する制御部と、
を備え、
前記制御部は、
前記認識結果に基づき、前記画像生成装置を用いて、前記表示媒体上において前記第1の提示画像から前記第1の提示画像より画像鮮鋭度が低い第2の提示画像へ、所定時間かけて徐々に画像鮮鋭度が低くなるように切り替える、
表示制御装置。
An input unit that receives a recognition result from a recognition device that recognizes environmental changes around the vehicle;
A control unit that controls the image generation device to generate a first predetermined image that represents the first presentation image when displayed on the display medium;
With
The controller is
Based on the recognition result, using the image generation device, the first presentation image is gradually changed over the display medium from the first presentation image to the second presentation image having a lower image sharpness than the first presentation image over a predetermined time. Switch to lower image sharpness,
Display control device.
前記車両周辺の環境変化の認識は、
前記車両の前方に現われた所定の対象物の認識であって、
前記制御部は、
前記車両の前方において前記対象物が認識されたとき、前記画像生成装置を用いて、前記表示媒体上において前記第1の提示画像から前記第2の提示画像へ、所定時間かけて徐々に画像鮮鋭度が低くなるように切り替える、
請求項1に記載の表示制御装置。
Recognition of environmental changes around the vehicle
Recognition of a predetermined object appearing in front of the vehicle,
The controller is
When the object is recognized in front of the vehicle, the image generation device is used to gradually sharpen the image from the first presentation image to the second presentation image on the display medium over a predetermined time. Switch to lower the degree,
The display control apparatus according to claim 1.
前記制御部は、前記画像の目標鮮鋭度を設定し、所定の時間経過後に前記目標鮮鋭度に達するように、前記画像の鮮鋭度を変更する制御を行う、
請求項1に記載の表示制御装置。
The control unit sets a target sharpness of the image, and performs control to change the sharpness of the image so as to reach the target sharpness after a predetermined time has elapsed.
The display control apparatus according to claim 1.
前記制御部は、運転者が車両前方を注視する必要がある場合に、前記目標鮮鋭度を元画像の鮮鋭度より低く設定する、
請求項1に記載の表示制御装置。
The control unit sets the target sharpness lower than the sharpness of the original image when the driver needs to watch the front of the vehicle.
The display control apparatus according to claim 1.
前記制御部は、運転者が車両前方を注視する必要性がない場合に、低下した鮮鋭度を元画像の鮮鋭度に戻す設定を行う、
請求項1に記載の表示制御装置。
The control unit performs setting to return the lowered sharpness to the sharpness of the original image when the driver does not need to watch the front of the vehicle.
The display control apparatus according to claim 1.
前記制御部は、前方車両に衝突するまでの衝突時間または前方車両との車間距離が所定の値を下回った場合に、運転者が車両前方を注視する必要があると判定する、
請求項1に記載の表示制御装置。
The controller determines that the driver needs to watch the front of the vehicle when the collision time until the vehicle collides with the vehicle ahead or the distance between the vehicle and the vehicle ahead is less than a predetermined value.
The display control apparatus according to claim 1.
前記制御部は、前方車両に衝突するまでの衝突時間または前方車両との車間距離の変化率が大きいほど、前記所定の時間を短く設定する、
請求項3に記載の表示制御装置。
The control unit sets the predetermined time to be shorter as the collision time until the vehicle collides with the vehicle ahead or the change rate of the inter-vehicle distance with the vehicle ahead is larger.
The display control apparatus according to claim 3.
前記入力部は、表示画像に含まれる表示要素の情報と、前記表示要素の重要度を示す情報とを受け取り、
前記制御部は、前記表示要素の重要度に応じて、前記表示要素ごとに前記目標鮮鋭度または前記所定の時間を設定する、
請求項3に記載の表示制御装置。
The input unit receives display element information included in a display image and information indicating the importance of the display element,
The control unit sets the target sharpness or the predetermined time for each display element according to the importance of the display element.
The display control apparatus according to claim 3.
前記制御部は、運転者が注視すべき注視点と、表示画像との距離を算出し、算出した距離が長いほど、前記目標鮮鋭度を低く設定する、または前記所定の時間を短く設定する、
請求項3に記載の表示制御装置。
The control unit calculates the distance between the gazing point that the driver should watch and the display image, and the longer the calculated distance, the lower the target sharpness, or the shorter the predetermined time,
The display control apparatus according to claim 3.
前記制御部は、前記注視点と、前記画像が分割された部分領域との距離を算出し、算出した距離が長いほど、前記目標鮮鋭度を低く設定する、または前記所定の時間を短く設定する、
請求項9に記載の表示制御装置。
The control unit calculates a distance between the gazing point and the partial region into which the image is divided, and sets the target sharpness lower or sets the predetermined time shorter as the calculated distance is longer. ,
The display control apparatus according to claim 9.
前記制御部は、前記注視点と、複数の表示媒体に表示される画像との距離を算出し、
算出した距離が長いほど、前記目標鮮鋭度を低く設定する、または前記所定の時間を短く設定する、
請求項9に記載の表示制御装置。
The control unit calculates a distance between the gazing point and images displayed on a plurality of display media,
The longer the calculated distance, the lower the target sharpness, or the shorter the predetermined time,
The display control apparatus according to claim 9.
所定画像を生成し、該所定画像を表示媒体に出力する画像生成装置と、
車両周辺の環境変化を認識する認識装置から認識結果を受け取る入力部と、
前記表示媒体に表示されたときに第1の提示画像を表す第1の所定画像を生成するように前記画像生成装置を制御する制御部と、
を備え、
前記制御部は、
前記認識結果に基づき、前記画像生成装置を用いて、前記表示媒体上において前記第1の提示画像から前記第1の提示画像より画像鮮鋭度が低い第2の提示画像へ、所定時間かけて徐々に画像鮮鋭度が低くなるように切り替える、
投影装置。
An image generation device that generates a predetermined image and outputs the predetermined image to a display medium;
An input unit that receives a recognition result from a recognition device that recognizes environmental changes around the vehicle;
A control unit that controls the image generation device to generate a first predetermined image representing a first presentation image when displayed on the display medium;
With
The controller is
Based on the recognition result, using the image generation device, the first presentation image is gradually changed over the display medium from the first presentation image to the second presentation image having a lower image sharpness than the first presentation image over a predetermined time. Switch to lower image sharpness,
Projection device.
表示媒体に表示されたときに第1の提示画像を表す第1の所定画像を生成するように画像生成装置を制御する工程と、
車両周辺の環境変化を認識する認識装置から認識結果を受け取る工程と、
前記認識結果に基づき、前記画像生成装置を用いて、前記表示媒体上において前記第1の提示画像から前記第1の提示画像より画像鮮鋭度が低い第2の提示画像へ、所定時間かけて徐々に画像鮮鋭度が低くなるように切り替える工程と、
を含む表示制御方法。
Controlling the image generation device to generate a first predetermined image representing the first presentation image when displayed on the display medium;
Receiving a recognition result from a recognition device for recognizing environmental changes around the vehicle;
Based on the recognition result, using the image generation device, the first presentation image is gradually changed over the display medium from the first presentation image to the second presentation image having a lower image sharpness than the first presentation image over a predetermined time. A step of switching so that the image sharpness is low,
A display control method including:
表示媒体に表示されたときに第1の提示画像を表す第1の所定画像を生成するように画像生成装置を制御する処理と、
車両周辺の環境変化を認識する認識装置から認識結果を受け取る処理と、
前記認識結果に基づき、前記画像生成装置を用いて、前記表示媒体上において前記第1の提示画像から前記第1の提示画像より画像鮮鋭度が低い第2の提示画像へ、所定時間かけて徐々に画像鮮鋭度が低くなるように切り替える処理と、
をコンピュータに実行させる表示制御プログラム。
Processing for controlling the image generation device to generate a first predetermined image representing the first presentation image when displayed on the display medium;
Processing for receiving a recognition result from a recognition device for recognizing environmental changes around the vehicle;
Based on the recognition result, using the image generation device, the first presentation image is gradually changed over the display medium from the first presentation image to the second presentation image having a lower image sharpness than the first presentation image over a predetermined time. Switching to reduce the image sharpness,
A display control program that causes a computer to execute.
車両周辺の環境変化を認識する認識装置と、所定画像を生成する画像生成装置とを含む表示システムにおける表示制御装置において実行される表示制御プログラムを記録したコンピュータ読み取り可能で非一時的な記録媒体であって、前記表示制御装置のコンピュータに対して、
表示媒体に表示されたときに第1の提示画像を表す第1の所定画像を生成するように画像生成装置を制御する処理と、
前記認識装置から認識結果を受け取る処理と、
前記認識結果に基づき、前記画像生成装置を用いて、前記表示媒体上において前記第1の提示画像から前記第1の提示画像より画像鮮鋭度が低い第2の提示画像へ、所定時間かけて徐々に画像鮮鋭度が低くなるように切り替える処理と、
を実行させる表示制御プログラムを記録した記録媒体。
A computer-readable non-transitory recording medium recording a display control program executed in a display control device in a display system including a recognition device that recognizes environmental changes around a vehicle and an image generation device that generates a predetermined image With respect to the computer of the display control device,
Processing for controlling the image generation device to generate a first predetermined image representing the first presentation image when displayed on the display medium;
Receiving a recognition result from the recognition device;
Based on the recognition result, using the image generation device, the first presentation image is gradually changed over the display medium from the first presentation image to the second presentation image having a lower image sharpness than the first presentation image over a predetermined time. Switching to reduce the image sharpness,
A recording medium recording a display control program for executing
JP2015178574A 2015-01-09 2015-09-10 Display control device, projection device, display control method, display control program, and recording medium Pending JP2016131009A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/969,357 US9922403B2 (en) 2015-01-09 2015-12-15 Display control apparatus, projection apparatus, display control method, and non-transitory computer readable medium
EP15200299.4A EP3042798A1 (en) 2015-01-09 2015-12-16 Display control apparatus, projection apparatus, display control method, display control program, and non-transitory computer readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015003479 2015-01-09
JP2015003479 2015-01-09

Publications (1)

Publication Number Publication Date
JP2016131009A true JP2016131009A (en) 2016-07-21

Family

ID=56415594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015178574A Pending JP2016131009A (en) 2015-01-09 2015-09-10 Display control device, projection device, display control method, display control program, and recording medium

Country Status (1)

Country Link
JP (1) JP2016131009A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6255537B2 (en) * 2015-07-29 2017-12-27 富士フイルム株式会社 Projection display apparatus and projection control method
JP2022063276A (en) * 2017-06-30 2022-04-21 パナソニックIpマネジメント株式会社 Display system and control method of display system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6255537B2 (en) * 2015-07-29 2017-12-27 富士フイルム株式会社 Projection display apparatus and projection control method
JPWO2017018122A1 (en) * 2015-07-29 2018-02-08 富士フイルム株式会社 Projection display apparatus and projection control method
JP2022063276A (en) * 2017-06-30 2022-04-21 パナソニックIpマネジメント株式会社 Display system and control method of display system
JP7266257B2 (en) 2017-06-30 2023-04-28 パナソニックIpマネジメント株式会社 DISPLAY SYSTEM AND METHOD OF CONTROLLING DISPLAY SYSTEM

Similar Documents

Publication Publication Date Title
US11449294B2 (en) Display system in a vehicle
JP5999032B2 (en) In-vehicle display device and program
US11250816B2 (en) Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a transportation vehicle
US20220189307A1 (en) Presentation of dynamic threat information based on threat and trajectory prediction
JP6264037B2 (en) Vehicle information display device and vehicle information display method
US9836814B2 (en) Display control apparatus and method for stepwise deforming of presentation image radially by increasing display ratio
KR20180083623A (en) Electronic apparatus and control method thereof
WO2019244670A1 (en) Information processing device, information processing method, and program
JP2018185654A (en) Head-up display device
CN113978366A (en) Intelligent electronic rearview mirror system based on human eye attention and implementation method
CN112026652A (en) Back-view image head-up display system based on eyeball recognition laser imaging
JP2017091013A (en) Driving support device
US20220242433A1 (en) Saliency-based presentation of objects in an image
JPWO2020105685A1 (en) Display controls, methods, and computer programs
JP2016131009A (en) Display control device, projection device, display control method, display control program, and recording medium
US9922403B2 (en) Display control apparatus, projection apparatus, display control method, and non-transitory computer readable medium
JP2019180075A (en) Operation support system, image processing system, and image processing method
JP6504382B2 (en) Display control apparatus, display system, display control method, display control program, and projection apparatus
JP2008162550A (en) External environment display device
US10650601B2 (en) Information processing device and information processing method
JP7480756B2 (en) Vehicle display control device, vehicle display device, vehicle display control method, and vehicle display control program
JP5294756B2 (en) Vehicle surrounding image providing apparatus and vehicle surrounding image providing method
JP6415968B2 (en) COMMUNICATION DEVICE, WARNING DEVICE, DISPLAY DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2020019369A (en) Display device for vehicle, method and computer program
JP6365879B2 (en) Display control device, display control method, display control program, and projection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190620

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191018

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200204