JP2007218655A - Navigation device - Google Patents

Navigation device Download PDF

Info

Publication number
JP2007218655A
JP2007218655A JP2006037712A JP2006037712A JP2007218655A JP 2007218655 A JP2007218655 A JP 2007218655A JP 2006037712 A JP2006037712 A JP 2006037712A JP 2006037712 A JP2006037712 A JP 2006037712A JP 2007218655 A JP2007218655 A JP 2007218655A
Authority
JP
Japan
Prior art keywords
frame rate
vehicle
determination unit
navigation device
guide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006037712A
Other languages
Japanese (ja)
Inventor
Takahiro Kudo
貴弘 工藤
Takashi Akita
貴志 秋田
Takashi Kondo
剛史 金銅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006037712A priority Critical patent/JP2007218655A/en
Publication of JP2007218655A publication Critical patent/JP2007218655A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation device capable of fulfilling an original navigation function which a guide video image (moving image) has, and to provide a navigation function faithful to an actual running condition. <P>SOLUTION: The navigation device acquires the real-time video image of a part ahead of own vehicle ranging from the vicinity of the vehicle position up to a guide point, and performs navigation by using a guide video image, where guide objects are superposed on the acquired real-time video image of the part ahead of the vehicle, and is provided with a display section for displaying the guide video image; a risk assessment section for determining risk of driving; and a frame rate controller for controlling the frame rate of the guide video image to be displayed by the display section, based on the determination result by the risk assessment section. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ナビゲーション装置に関し、より特定的には、自車位置近傍から案内点に至る自車前方の実写映像を取得し、取得した自車前方の実写映像に案内オブジェクトを重畳した案内映像を用いて、ナビゲーションするナビゲーション装置に関する。   The present invention relates to a navigation device, and more specifically, acquires a live-action image in front of the vehicle from the vicinity of the vehicle position to a guide point, and displays a guide image in which a guide object is superimposed on the acquired real-image image in front of the vehicle. The present invention relates to a navigation device that uses and navigates.

従来より、右左折すべき案内点に車両が近づいたとき、周囲の拡大地図(静止画)を画面に表示するナビゲーション装置が一般的である。しかしながら、このようなナビゲーション装置では、ドライバーは、拡大地図(静止画)と実際に見える風景とを見比べて、両者を互いに当てはめる判断をしなければならない。   2. Description of the Related Art Conventionally, a navigation device that displays an enlarged map (still image) on the screen when a vehicle approaches a guidance point that should turn left or right is generally used. However, in such a navigation device, the driver must compare the enlarged map (still image) with the actually visible landscape and make a decision to apply the two to each other.

上記のような判断作業の煩雑さを回避する技術として、自車位置近傍から案内点に至る自車前方の実写映像を取得し、取得した自車前方の実写映像に案内オブジェクトを重畳した案内映像(動画)を用いて、ナビゲーションするナビゲーション装置がある。   As a technique for avoiding the complexity of the judgment work as described above, a guide video obtained by acquiring a live-action video in front of the host vehicle from the vicinity of the host vehicle position to the guide point and superimposing a guide object on the acquired real-time video in front of the host vehicle There is a navigation device that performs navigation using (moving image).

実写映像を用いた案内では、ドライバーが実際に見ている風景が時々刻々と変化するのに追随して案内映像も変化していくため、表示された案内点、或いは進行方向が実風景の中のどこであるのかの対応付けを容易にし、案内点を特定しやすくすることができる。   In the guidance using live-action video, the guidance video changes as the scenery that the driver actually sees changes from moment to moment. Can be easily associated with each other, and guide points can be easily identified.

また、上記のように案内映像(動画)を用いてナビゲーションすれば、画面を見ているときにでも、前方の状況がわかる利点がある。すなわち、画面上で前方車両の挙動等がわかると共に、右左折の指示を容易に把握できる利点がある。   Further, if navigation is performed using the guide video (moving image) as described above, there is an advantage that the situation ahead can be understood even when the screen is viewed. That is, there are advantages that the behavior of the vehicle ahead can be seen on the screen, and the right / left turn instruction can be easily grasped.

しかしながら、この案内映像はあくまで動画であり、画面の表示内容は随時変化していくため、ドライバーには画面を注視する傾向がみられる。ドライバーが画面を注視すると、運転上の危険を伴う可能性がある。   However, since this guidance video is only a moving image, and the display content of the screen changes from time to time, the driver tends to watch the screen. If the driver looks closely at the screen, there may be a driving risk.

そこで、上記のようにドライバーが画面上に表示された動画を注視することによって、引き起こされる運転上の危険を回避する技術が提案されている。この技術は、テレビ映像やDVD映像などエンタティンメントに関連するコンテンツを対象としたものであり、画面に向けられるドライバーの視線を検出し、注視していると判定した場合に、動画から静止画に瞬時に切り替えて表示するものである(例えば、特許文献1)。
特開2003−240560号公報
In view of this, a technique has been proposed in which the driver avoids the driving danger caused by watching the moving image displayed on the screen as described above. This technology is intended for entertainment-related content such as TV images and DVD images. When the driver's line of sight directed to the screen is detected and it is determined that the user is gazing, a still image is captured from the video. Are displayed instantaneously (for example, Patent Document 1).
JP 2003-240560 A

しかしながら、上述した従来の技術は、ドライバーが注視しているからといって、案内映像(動画)から拡大地図(静止画)に瞬時に切り替えるのであれば、ドライバーが見ている風景の変化に追随した案内映像を表示することにより享受できる案内映像(動画)の有する本来のナビゲーション機能を果たせない。   However, the conventional technology described above follows the changes in the scenery that the driver is viewing if the driver is gazing at the moment and switches from the guide video (video) to the enlarged map (still image) instantly. Thus, the original navigation function of the guide video (moving image) that can be enjoyed by displaying the guide video cannot be performed.

そこで、本願発明は上記問題に鑑みてなされた。すなわち、案内映像(動画)の有する本来のナビゲーション機能を果たせるナビゲーション装置を提供する。加えて、実際の走行状況に忠実なナビゲーション機能を果たせると共に、画面注視による運転上の危険を軽減できるナビゲーション装置を提供する。   Accordingly, the present invention has been made in view of the above problems. In other words, a navigation device that can perform the original navigation function of a guide video (moving image) is provided. In addition, a navigation device capable of performing a navigation function faithful to the actual driving situation and reducing the driving danger due to screen gaze is provided.

本発明の第1の局面は、自車位置近傍から案内点に至る自車前方の実写映像を取得し、取得した自車前方の実写映像に案内オブジェクトを重畳した案内映像を用いて、ナビゲーションするナビゲーション装置に向けられている。   The first aspect of the present invention acquires a live-action image in front of the own vehicle from the vicinity of the own vehicle position to the guide point, and performs navigation using a guide image in which a guide object is superimposed on the acquired actual image in front of the own vehicle. It is aimed at navigation devices.

本発明は、案内映像を表示する表示部と、運転の危険度を判定する危険度判定部と、危険度判定部の判定結果に基づいて、表示部が表示する案内映像のフレームレートを制御するフレームレート制御部とを備える。   The present invention controls the frame rate of the guide video displayed on the display unit based on the display unit that displays the guide video, the risk level determination unit that determines the driving risk level, and the determination result of the risk level determination unit. A frame rate control unit.

また、危険度判定部は、表示部が表示する案内映像に向けられるユーザの視線に関する情報に基づいて、注視状況を判定する注視状況判定部を含み、フレームレート制御部は、注視状況判定部の判定結果に基づいて、表示部が表示する案内映像のフレームレートを制御することが好ましい。   The risk determination unit includes a gaze situation determination unit that determines a gaze situation based on information about a user's line of sight directed to the guide video displayed by the display unit, and the frame rate control unit includes a gaze situation determination unit It is preferable to control the frame rate of the guide video displayed on the display unit based on the determination result.

また、注視状況判定部は、注視時間を判定し、フレームレート制御部は、注視時間が多いと判定された場合に、フレームレートを下げることが好ましい。   The gaze state determination unit preferably determines the gaze time, and the frame rate control unit preferably decreases the frame rate when it is determined that the gaze time is long.

また、注視状況判定部は、所定時間当たりの注視回数を判定し、フレームレート制御部は、所定時間当たりの注視回数が多いと判定された場合に、フレームレートを下げることが好ましい。   In addition, it is preferable that the gaze state determination unit determines the number of gazes per predetermined time, and the frame rate control unit lowers the frame rate when it is determined that the number of gazes per predetermined time is large.

また、危険度判定部は、自車の走行状況を判定する走行状況判定部を含み、フレームレート制御部は、走行状況判定部の判定結果に基づいて、表示部が表示する案内映像のフレームレートを制御することが好ましい。   The risk determination unit includes a traveling state determination unit that determines a traveling state of the host vehicle, and the frame rate control unit includes a frame rate of a guide video displayed on the display unit based on a determination result of the traveling state determination unit. Is preferably controlled.

また、走行状況判定部は、自車が走行中の道路の形状がカーブ形状か否かを判定し、フレームレート制御部は、自車が走行中の道路の形状がカーブ形状である場合に、フレームレートを下げることが好ましい。   Further, the traveling state determination unit determines whether or not the shape of the road on which the host vehicle is traveling is a curved shape, and the frame rate control unit determines that the shape of the road on which the host vehicle is traveling is a curved shape. It is preferable to reduce the frame rate.

また、走行状況判定部は、自車が走行中の道路の種別のランクを判定し、フレームレート制御部は、自車が走行中の道路の種別のランクが低いと判定された場合に、フレームレートを下げることが好ましい。   In addition, the traveling status determination unit determines the rank of the type of road on which the vehicle is traveling, and the frame rate control unit determines that the rank of the type of road on which the vehicle is traveling is low. It is preferable to reduce the rate.

また、走行状況判定部は、自車と前方車両との車間距離を判定し、フレームレート制御部は、自車と前方車両との車間距離が小さいと判定された場合に、フレームレートを下げることが好ましい。   The traveling state determination unit determines the inter-vehicle distance between the host vehicle and the preceding vehicle, and the frame rate control unit decreases the frame rate when it is determined that the inter-vehicle distance between the host vehicle and the preceding vehicle is small. Is preferred.

また、走行状況判定部は、自車が走行中の道路が混雑しているか否かを判定し、フレームレート制御部は、自車が走行中の道路が混雑している場合に、フレームレートを下げることが好ましい。   In addition, the traveling state determination unit determines whether the road on which the vehicle is traveling is congested, and the frame rate control unit determines the frame rate when the road on which the vehicle is traveling is congested. It is preferable to lower.

また、走行状況判定部は、自車の車速を判定し、フレームレート制御部は、自車の車速が大きいと判定された場合に、フレームレートを下げることが好ましい。   In addition, it is preferable that the traveling state determination unit determines the vehicle speed of the host vehicle, and the frame rate control unit lowers the frame rate when it is determined that the vehicle speed of the host vehicle is high.

以上説明したように、本発明の局面によれば、画面に向けられるドライバーの注視状況に基づいて、案内映像(動画)から拡大地図(静止画)に瞬時に切替えることなく、画面に表示される案内映像(動画)のフレームレートを制御する。従って、案内映像(動画)の本来のナビゲーション機能を果たせるナビゲーション装置を提供することができる。また、ドライバーが画面を注視することによって引き起こされる運転上の危険を回避することもできる。更に、自車の走行状況に基づいて、画面に表示される案内映像(動画)のフレームレートを制御する。従って、実際の走行状況に忠実なナビゲーション機能を果たせるナビゲーション装置を提供することができる。すなわち、ドライバーの画面の注視時間や頻度、走行している道路の種別、前方車両との車間距離などの走行状況等から、運転に対する危険度を判定し、判定結果に基づいてフレームレートを適切に制御する。具体的には、危険度が高い場合には、フレームレートを下げることにより、案内映像(動画)を用いた分かり易いナビゲーション案内というメリットを保持すると共に、危険が予想される状況においては、その危険を回避することが可能となる。   As described above, according to the aspect of the present invention, on the basis of the driver's gaze situation directed to the screen, the guide video (moving image) is displayed on the screen without instantaneously switching from the enlarged map (still image). Controls the frame rate of the guide video (moving image). Therefore, it is possible to provide a navigation device that can perform the original navigation function of the guide video (moving image). It is also possible to avoid driving hazards caused by the driver gazing at the screen. Furthermore, the frame rate of the guide video (moving image) displayed on the screen is controlled based on the traveling state of the host vehicle. Therefore, it is possible to provide a navigation device that can perform a navigation function faithful to the actual driving situation. In other words, the risk level for driving is determined from the driving conditions such as the time and frequency of the driver's screen, the type of road that is being driven, and the distance from the vehicle ahead, and the frame rate is set appropriately based on the determination result. Control. Specifically, when the degree of danger is high, reducing the frame rate maintains the merit of easy-to-understand navigation guidance using guidance video (video), and in situations where danger is expected, the danger Can be avoided.

案内映像(動画)の有する本来のナビゲーション機能を果たせるナビゲーション装置を提供することができる。加えて、実際の走行状況に忠実なナビゲーション機能を果たせるナビゲーション装置を提供することができる。   It is possible to provide a navigation device that can perform the original navigation function of the guide video (moving image). In addition, it is possible to provide a navigation device that can perform a navigation function faithful to the actual driving situation.

以下、本発明の実施の形態に係るナビゲーション装置について、図面を参照しながら説明する。   Hereinafter, a navigation device according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態に係るナビゲーション装置の全体構成を示す模式図である。図1において、主装置100は、ナビゲーション装置全体の処理を司る。案内映像用カメラ110は、自車の前方の映像を撮影するためのものであり、自車のルームミラー近傍、運転席近傍及びドアミラー近傍等、自車の前方の風景を撮影可能な位置に配設される。また、視線検出用カメラ120は、表示部130の画面に向けられるドライバーの顔の中でも特に目の部分を撮影するためのものであり、自車のルームミラー近傍及び表示部130近傍、あるいはステアリング近傍等、ドライバーの顔の中でも特に目の部分を撮影可能な位置に配設される。   FIG. 1 is a schematic diagram showing an overall configuration of a navigation device according to an embodiment of the present invention. In FIG. 1, the main device 100 controls the entire navigation device. The guide video camera 110 is for taking a picture of the front of the host vehicle, and is arranged at a position where the scene in front of the host vehicle can be shot, such as the vicinity of the rear mirror, the driver's seat, or the door mirror. Established. Further, the line-of-sight detection camera 120 is for photographing particularly the eye portion of the driver's face directed to the screen of the display unit 130, and is near the rear mirror of the own vehicle and the display unit 130 or the vicinity of the steering wheel. In the driver's face, the eye portion is particularly arranged at a position where it can be photographed.

図2は、本発明の実施の形態に係るナビゲーション装置200の全体構成を示すブロック図である。図2に示すように、ナビゲーション装置200は、地図格納部210、位置取得部220、経路探索部230、映像取得部240、映像重畳部250、視線検出部260、注視状況判定部270、フレームレート制御部280及び表示部130を備えている。   FIG. 2 is a block diagram showing the overall configuration of the navigation apparatus 200 according to the embodiment of the present invention. As shown in FIG. 2, the navigation device 200 includes a map storage unit 210, a position acquisition unit 220, a route search unit 230, a video acquisition unit 240, a video superimposition unit 250, a line-of-sight detection unit 260, a gaze state determination unit 270, a frame rate. A control unit 280 and a display unit 130 are provided.

地図格納部210は、例えば、日本全国等、予め定められた広い範囲の道路地図データ(例えば、3次元地図データ)を格納している。地図格納部210は、HDD(Hard Disk Drive)、DVD(Digital Versatile Disk)及び半導体メモリ等の記憶媒体で構成される。地図格納部210には、道路の種別、道路の形状、交差点のデータ及び施設等のランドマークを含む地図情報が予め格納されている。なお、地図情報が、例えば、携帯電話等の通信部(図示せず)によって、センター設備から適宜ダウンロードして、地図格納部210に記憶される構成であってもよい。   The map storage unit 210 stores a wide range of road map data (for example, three-dimensional map data) determined in advance, for example, throughout Japan. The map storage unit 210 includes a storage medium such as an HDD (Hard Disk Drive), a DVD (Digital Versatile Disk), and a semiconductor memory. The map storage unit 210 stores map information including landmarks such as road types, road shapes, intersection data, and facilities. The map information may be appropriately downloaded from the center facility by a communication unit (not shown) such as a mobile phone and stored in the map storage unit 210, for example.

位置取得部220は、典型的には、GPS(Global Positioning System)で構成され、人工衛星の送信情報を基に、例えば、緯度座標、経度座標及び高度座標で表される自車の現在位置を算出する。なお、位置取得部220は、GPS以外に、例えば、ジャイロセンサ、加速度センサ及び車速センサを含んでいてもよい。   The position acquisition unit 220 is typically configured by GPS (Global Positioning System), and based on the transmission information of the artificial satellite, for example, the current position of the host vehicle represented by latitude coordinates, longitude coordinates, and altitude coordinates. calculate. In addition to the GPS, the position acquisition unit 220 may include, for example, a gyro sensor, an acceleration sensor, and a vehicle speed sensor.

経路探索部230は、目的地情報、自車の現在位置情報及び地図格納部210に格納された道路地図データを参照して、目的地に至る経路を探索する。この経路探索では、目的地までの最短距離を通る経路、目的地への到着時間を優先した場合の最適経路、有料道路を通過しない場合の最適経路、渋滞を避けた場合の最適経路、或いはドライバーの指定した地点を通るようにした最適経路等の探索が行われる。   The route search unit 230 searches for a route to the destination with reference to the destination information, the current position information of the own vehicle, and the road map data stored in the map storage unit 210. In this route search, the route through the shortest distance to the destination, the optimum route when priority is given to the arrival time, the optimum route when not passing through the toll road, the optimum route when avoiding traffic congestion, or the driver A search is made for an optimal route that passes through the designated point.

映像取得部240は、ナビゲーション案内に利用するための映像として、図1に示した案内映像用カメラ110が撮影した車両前方の風景映像を取得する。   The video acquisition unit 240 acquires a landscape video in front of the vehicle taken by the guide video camera 110 shown in FIG. 1 as a video to be used for navigation guidance.

映像重畳部250は、映像取得部240の案内映像用カメラ110が取得した自車前方の実写映像に案内オブジェクトを重畳した案内映像を生成する。なお、案内映像生成処理については後述する。   The video superimposing unit 250 generates a guide video in which a guide object is superimposed on a live-action video in front of the host vehicle acquired by the guide video camera 110 of the video acquisition unit 240. The guidance video generation process will be described later.

視線検出部260は、表示部130の画面に向けられているドライバーの視線を検出する。図3に、視線検出部260の内部構成を示す。視線検出部260は、照明部(図示せず)、瞳孔抽出部261、角膜反射像抽出部262及び合焦判断部263を備えている。   The line-of-sight detection unit 260 detects the line of sight of the driver directed to the screen of the display unit 130. FIG. 3 shows an internal configuration of the line-of-sight detection unit 260. The line-of-sight detection unit 260 includes an illumination unit (not shown), a pupil extraction unit 261, a cornea reflection image extraction unit 262, and a focus determination unit 263.

近赤外線LED等の不可視光を発する照明部(図示せず)は、映像取得部240の視線検出用カメラ120と共軸系をなして配設され、ドライバーに向けて発光している。映像取得部240の視線検出用カメラ120が撮像した撮像画像から、瞳孔抽出部261は、網膜反射像(瞳孔位置)を抽出する。更に、角膜反射像抽出部262は、瞳孔位置近傍からの角膜反射像を抽出する。そして、合焦判断部263は、角膜反射像のピントの合い具合を表す合焦度合いを算出して、合焦しているのか否かを判定し、視線を検出する。   An illumination unit (not shown) that emits invisible light such as a near-infrared LED is arranged in a coaxial system with the line-of-sight detection camera 120 of the image acquisition unit 240 and emits light toward the driver. The pupil extraction unit 261 extracts a retinal reflection image (pupil position) from the captured image captured by the line-of-sight detection camera 120 of the video acquisition unit 240. Furthermore, the cornea reflection image extraction unit 262 extracts a cornea reflection image from the vicinity of the pupil position. Then, the focus determination unit 263 calculates the degree of focus that represents the degree of focus of the corneal reflection image, determines whether the focus is in focus, and detects the line of sight.

なお、視線検出部260は、映像取得部240の視線検出用カメラ120により撮像された、例えば、目の虹彩の位置を検出することによって、表示部130の画面に向けられているドライバーの視線を検出する構成としてもよい。このとき、映像取得部240の視線検出用カメラ120により撮像された目の虹彩の向きが正面を向いていれば、ドライバーの視線が表示部130の画面に向けられていることを検出できる。なお、視線の検出方法はこの例に限らず、その他の周知の技術を用いてもよい。   Note that the line-of-sight detection unit 260 detects the driver's line of sight directed to the screen of the display unit 130 by detecting, for example, the position of the eye iris captured by the line-of-sight detection camera 120 of the video acquisition unit 240. It is good also as a structure to detect. At this time, if the direction of the iris of the eye picked up by the line-of-sight detection camera 120 of the video acquisition unit 240 is facing the front, it can be detected that the line of sight of the driver is directed to the screen of the display unit 130. The line-of-sight detection method is not limited to this example, and other known techniques may be used.

なお、本実施の形態においては、視線検出部260はドライバーの視線方向を検出する機能を有する例について述べたが、このような機能がナビゲーション装置外部に存在するのであれば、視線検出部260は、ドライバーの視線方向に関する情報、すなわち表示部130を見ているかどうかのみを取得する機能を最低限備えていればよい。   In the present embodiment, the example in which the gaze detection unit 260 has a function of detecting the driver's gaze direction has been described. However, if such a function exists outside the navigation device, the gaze detection unit 260 may It is only necessary to have at least a function of acquiring only information regarding the driver's line-of-sight direction, that is, whether or not the display unit 130 is viewed.

注視状況判定部270は、視線検出部260の検出結果に基づいて、表示部130の画面に向けられている視線の停留時間である注視時間、或いは所定時間当たりの視線の停留回数である注視回数を判定する。なお、注視時間と注視回数の両方を合わせて判定する構成としてもよい。   Based on the detection result of the line-of-sight detection unit 260, the gaze state determination unit 270 is a gaze time that is a gaze stop time that is directed to the screen of the display unit 130, or a gaze number that is the number of gaze stops per predetermined time. Determine. In addition, it is good also as a structure which determines combining both gaze time and the frequency | count of gaze.

フレームレート制御部280は、注視状況判定部270の判定結果に基づいて、表示部130の画面に表示される案内映像のフレームレートを制御する。表示部130は、交差点案内エリア内では、映像重畳部250が生成した案内映像を表示する。   The frame rate control unit 280 controls the frame rate of the guide video displayed on the screen of the display unit 130 based on the determination result of the gaze state determination unit 270. The display unit 130 displays the guidance video generated by the video superimposing unit 250 in the intersection guidance area.

次に、本発明の実施の形態に係るナビゲーション装置200の動作について、図4のフロー図を用いて説明する。   Next, operation | movement of the navigation apparatus 200 which concerns on embodiment of this invention is demonstrated using the flowchart of FIG.

ドライバーが経路設定をすると(ステップS401)、ナビゲーション装置200は、走行情報を取得する(ステップS402)。この走行情報とは、地図格納部210が格納する道路地図データ、位置取得部220が取得した自車の現在位置情報、映像取得部240が取得した自車前方の実写映像からなる。   When the driver sets a route (step S401), the navigation device 200 acquires travel information (step S402). The travel information includes road map data stored in the map storage unit 210, current position information of the host vehicle acquired by the position acquisition unit 220, and a live-action image in front of the host vehicle acquired by the video acquisition unit 240.

ナビゲーション装置200は、取得した走行情報を参照し、自車が交差点案内エリア内にいない場合であって、案内が終了していれば、処理を終了する(ステップ403及び404)。自車が交差点案内エリア内にいない場合であって、案内が終了していなければ、再度走行情報を取得する(ステップ403〜402)。一方、自車が交差点案内エリア内いる場合、案内映像生成処理に移行する(ステップ403及び500)。   The navigation device 200 refers to the acquired travel information, and if the vehicle is not in the intersection guidance area and the guidance is finished, the processing is finished (steps 403 and 404). If the vehicle is not in the intersection guidance area and the guidance has not ended, travel information is acquired again (steps 403 to 402). On the other hand, if the vehicle is in the intersection guidance area, the process proceeds to guide video generation processing (steps 403 and 500).

以下では、図5〜図9を用いて、案内映像生成処理ステップ500を示す。図5は、案内映像生成処理を示すフロー図である。この案内映像生成処理において、映像重畳部250は、まず、地図格納部210に格納されている3次元地図と、映像取得部240の案内映像用カメラ110により取得される映像の撮像方向と撮像範囲を定めるパラメータであるカメラ位置とカメラ角(水平角、仰角)と焦点距離と画像サイズを基に、3次元地図空間におけるカメラの視野空間を求める(ステップS501)。   Hereinafter, the guide video generation processing step 500 will be described with reference to FIGS. FIG. 5 is a flowchart showing guide video generation processing. In this guide video generation process, the video superimposing unit 250 firstly captures the three-dimensional map stored in the map storage unit 210 and the imaging direction and imaging range of the video acquired by the guide video camera 110 of the video acquisition unit 240. Based on the camera position, camera angle (horizontal angle, elevation angle), focal length, and image size, which determine parameters, the viewing space of the camera in the three-dimensional map space is obtained (step S501).

ここで、3次元地図とは、緯度座標、経度座標及び高度座標により位置情報が表される地図のことである。カメラの視野空間の算出は、例えば、図6に示すような方法で行う。3次元地図空間において、カメラ位置(視点)Eからカメラ角方向に焦点距離fだけ進んだ点Fを求め、そこに画像サイズに相当する横x縦yの平面(カメラ画面)を視点Eと点Fとを結んだベクトルに垂直になるように設定する。   Here, the three-dimensional map is a map in which position information is represented by latitude coordinates, longitude coordinates, and altitude coordinates. The calculation of the visual field space of the camera is performed by a method as shown in FIG. 6, for example. In a three-dimensional map space, a point F that is advanced from the camera position (viewpoint) E by the focal length f in the camera angle direction is obtained, and a horizontal x vertical y plane (camera screen) corresponding to the image size is obtained from the viewpoint E and the point Set to be perpendicular to the vector connecting F.

次に、視点Eからカメラ画面の4隅の点とを結ぶ半直線が作る3次元空間を求める。この3次元空間は理論上無限遠まで延びるが、視点Eから適当な距離だけ離れたところで打ち切り、それを視野空間とする。   Next, a three-dimensional space formed by a half line connecting the viewpoint E to the four corner points of the camera screen is obtained. This three-dimensional space theoretically extends to infinity, but is censored at an appropriate distance from the viewpoint E, and is defined as a visual field space.

なお、3次元地図の代わりに3次元地図から高度情報を除いた2次元地図を用い、2次元地図空間におけるカメラの視野空間を求めるようにしても構わない。また、撮像方向と撮像範囲を定めるパラメータは上記のものに限らず、撮像方向と撮像範囲が定まるものであれば、画角等の他のパラメータを用いて、算出するようにしても構わない。   It should be noted that a 2D map obtained by removing altitude information from a 3D map may be used instead of the 3D map, and the visual field space of the camera in the 2D map space may be obtained. The parameters for determining the imaging direction and the imaging range are not limited to those described above, and may be calculated using other parameters such as the angle of view as long as the imaging direction and the imaging range are determined.

次に、映像重畳部250は、3次元地図空間内において、カメラの視野空間内に存在する道路とその位置を検出する道路検出処理を行う(ステップS502)。図7に道路検出処理で検出される道路を示す。図7は、3次元地図空間とカメラ視野空間を上方向から見た図である。図7において、視野空間に囲まれた道路が道路検出処理によって検出される。   Next, the video superimposing unit 250 performs a road detection process for detecting a road and its position in the visual field space of the camera in the three-dimensional map space (step S502). FIG. 7 shows roads detected by the road detection process. FIG. 7 is a view of the three-dimensional map space and the camera view space as seen from above. In FIG. 7, the road surrounded by the visual field space is detected by the road detection process.

次に、映像重畳部250は、3次元地図空間において、道路検出処理により検出された道路のうち、経路探索部230により探索された案内経路に該当する道路上の位置に案内オブジェクトを配置する(ステップS503)。図8に案内オブジェクトの配置位置を示す。なお、案内オブジェクトの形状は、図8に示した矢印図形に限らず、例えば、矢印図形から先端の三角形を除いた折れ線図形を用いても構わない。   Next, the video superimposing unit 250 arranges a guide object at a position on the road corresponding to the guide route searched by the route search unit 230 among the roads detected by the road detection process in the three-dimensional map space ( Step S503). FIG. 8 shows the arrangement position of the guidance object. Note that the shape of the guide object is not limited to the arrow graphic shown in FIG. 8, and for example, a polygonal line graphic obtained by removing the tip triangle from the arrow graphic may be used.

次に、映像重畳部250は、カメラ画面を投影面として案内オブジェクトに対して投影変換を行う(ステップS504)。投影処理において、案内オブジェクトが投影される投影面は、映像取得部240の案内映像用カメラ110で取得されるカメラ画面と一致するため、案内オブジェクトは実写映像上に写っている道路上(案内経路上)に重畳される(図9参照)。なお、実写映像に案内オブジェクトを重畳する際に、白線検知、道路端検知等の周知の画像認識技術を用いて、カメラに写っている道路の位置を検出し、案内オブジェクトの重畳位置を補正するようにしても構わない。   Next, the video superimposing unit 250 performs projection conversion on the guidance object using the camera screen as a projection plane (step S504). In the projection processing, the projection plane onto which the guide object is projected matches the camera screen acquired by the guide video camera 110 of the video acquisition unit 240, so that the guide object is on the road (guide route) shown on the live-action video. (See FIG. 9). When superimposing a guidance object on a live-action video, the position of the road reflected in the camera is detected using a known image recognition technique such as white line detection or road edge detection, and the superimposition position of the guidance object is corrected. It doesn't matter if you do.

上記のように、案内映像生成処理が終了し、案内映像が表示部130の画面に表示されると、注視状況判定部270は、表示部130の画面に向けられるドライバーの注視状況を判定する(ステップS405)。なお、このとき、注視状況判定部270は、注視状況として、注視時間を判定するものと仮定する。   As described above, when the guidance video generation process ends and the guidance video is displayed on the screen of the display unit 130, the gaze state determination unit 270 determines the gaze state of the driver directed to the screen of the display unit 130 ( Step S405). At this time, it is assumed that the gaze state determination unit 270 determines the gaze time as the gaze state.

図10(A)のグラフの注視時間とフレームレートとの関係を連続関数で示したように、フレームレート制御部270は、注視時間が多くなるに連れて、表示部130の画面に表示される案内映像のフレームレートを下げるように制御する(ステップS406)。表示部130は、フレームレート制御部270により制御されたフレームレートで案内映像を画面に表示する(ステップS407)。また、図10(B)のグラフの注視時間とフレームレートとの関係をステップ関数で示したように、注視時間が多くなるに連れて、表示部130の画面に表示する案内映像のフレームレートを段階的に下げるように制御してもよい。   As the relationship between the gaze time and the frame rate in the graph of FIG. 10A is indicated by a continuous function, the frame rate control unit 270 is displayed on the screen of the display unit 130 as the gaze time increases. Control is performed to reduce the frame rate of the guide video (step S406). The display unit 130 displays the guide video on the screen at the frame rate controlled by the frame rate control unit 270 (step S407). Further, as shown by the step function of the relationship between the gaze time and the frame rate in the graph of FIG. 10B, the frame rate of the guide video displayed on the screen of the display unit 130 is increased as the gaze time increases. You may control to lower in steps.

なお、注視状況判定部270は、注視状況として、所定時間当たりの注視回数を判定する構成としてもよい。この場合、フレームレート制御部270は、所定時間当たりの注視回数が多くなるに連れて、表示部130の画面に表示される案内映像のフレームレートを下げるように制御する構成とすればよい。   Note that the gaze situation determination unit 270 may be configured to determine the number of gazes per predetermined time as the gaze situation. In this case, the frame rate control unit 270 may be configured to control the frame rate of the guide video displayed on the screen of the display unit 130 as the number of gazes per predetermined time increases.

また、フレームレート制御部280は、地図格納部210から、走行情報として、走行中の道路の形状情報を取得した際に、道路形状がカーブ形状であった場合、フレームレートを下げるように制御してもよい。更に、フレームレート制御部280は、地図格納部210から、走行情報として、走行中の道路の種別情報を取得した際に、この道路の種別を考慮して、フレームレートを制御する構成としてもよい。このとき、例えば、図11に示すように、道路の種別のランクが最も低い細街路である場合、フレームレートを15fpsとする。また、次にランクの高い主要道路である場合、フレームレートを25fpsとし、最もランクの高い高速道路である場合、フレームレートを30fpsとする。このように、道路の種別のランクが低い程、フレームレートを下げるように制御してもよい。   The frame rate control unit 280 controls to reduce the frame rate when the road shape is a curve shape when the shape information of the road being traveled is acquired from the map storage unit 210 as the travel information. May be. Furthermore, the frame rate control unit 280 may be configured to control the frame rate in consideration of the type of the road when the type information of the road that is running is acquired as the running information from the map storage unit 210. . At this time, for example, as shown in FIG. 11, in the case of a narrow street with the lowest rank of road type, the frame rate is set to 15 fps. Also, if it is a main road with the next highest rank, the frame rate is 25 fps, and if it is the highest rank highway, the frame rate is 30 fps. In this manner, the frame rate may be controlled to decrease as the road type rank is lower.

このように、画面に向けられるドライバーの注視状況に基づいて、案内映像(動画)から拡大地図(静止画)に瞬時に切替えることなく、画面に表示される案内映像(動画)のフレームレートを制御する。従って、案内映像(動画)の本来のナビゲーション機能を果たせるナビゲーション装置を提供することができる。また、ドライバーが画面を注視することによって引き起こされる運転上の危険を回避することもできる。   In this way, the frame rate of the guide video (moving image) displayed on the screen is controlled without instantaneously switching from the guide video (moving image) to the enlarged map (still image) based on the driver's gaze situation directed at the screen. To do. Therefore, it is possible to provide a navigation device that can perform the original navigation function of the guide video (moving image). It is also possible to avoid driving hazards caused by the driver gazing at the screen.

なお、図12に示すように、更に、自車の走行状況を判定する走行状況判定部1200を備える構成としてもよい。このとき、フレームレート制御部280は、走行状況として、自車と前方車両との車間距離、或いは道路の混雑具合等を考慮して、フレームレートを制御する構成としてもよい。この場合、図13のグラフの車間距離とフレームレートとの関係を連続関数で示したように、車間距離が小さくなる程、フレームレートを下げるように制御する構成とすればよい。また、フレームレート制御部280は、道路が混雑している場合、フレームレートを下げるように制御してもよい。なお、自車と前方車両との車間距離の測定は、周知の技術、例えば、ミリ波センサや赤外線センサのセンシング手段を用いればよい。また、走行状況として、更に、自車の車速を考慮して、車速が大きくなればなる程、フレームレートを下げるように制御してもよい。   In addition, as shown in FIG. 12, it is good also as a structure provided with the driving condition determination part 1200 which determines the driving condition of the own vehicle further. At this time, the frame rate control unit 280 may be configured to control the frame rate in consideration of an inter-vehicle distance between the host vehicle and the preceding vehicle, road congestion, or the like as a traveling state. In this case, as shown in the continuous function of the relationship between the inter-vehicle distance and the frame rate in the graph of FIG. 13, the frame rate may be controlled to decrease as the inter-vehicle distance decreases. Further, the frame rate control unit 280 may perform control so as to decrease the frame rate when the road is congested. In addition, what is necessary is just to use the sensing means of a well-known technique, for example, a millimeter wave sensor, an infrared sensor, for the measurement of the distance between the own vehicle and the vehicle ahead. Further, as the traveling state, the vehicle speed of the host vehicle may be further taken into consideration, and the frame rate may be controlled to decrease as the vehicle speed increases.

このように、自車の走行状況に基づいて、案内映像(動画)のフレームレートを制御する。従って、実際の走行状況に忠実なナビゲーション機能を果たせるナビゲーション装置を提供することができる。例えば、危険な走行状況であれば、フレームレートを下げることにより、ドライバーが画面を注視することによって引き起こされる運転上の危険を回避することができる。   As described above, the frame rate of the guide video (moving image) is controlled based on the traveling state of the host vehicle. Therefore, it is possible to provide a navigation device that can perform a navigation function faithful to the actual driving situation. For example, in a dangerous driving situation, by reducing the frame rate, it is possible to avoid driving danger caused by the driver gazing at the screen.

なお、上記実施の形態では、注視状況に基づいてフレームレートが制御される場合、及び走行状況に基づいてフレームレートが制御される場合について説明したが、少なくとも注視状況に基づいてフレームレートが制御される構成とし、更に、走行状況も加味して、フレームレートが制御される構成としてもよい。   In the above embodiment, the case where the frame rate is controlled based on the gaze situation and the case where the frame rate is controlled based on the running situation have been described. However, the frame rate is controlled based on at least the gaze situation. In addition, the frame rate may be controlled in consideration of the driving situation.

以上のように本発明によれば、ドライバーの画面の注視時間や頻度、走行している道路の種別、前方車両との車間距離などの走行状況などから、運転に対する危険度を判定し、判定結果に基づいてフレームレートを適切に制御する。具体的には、危険度が高い場合にはフレームレートを下げることにより、案内映像(動画)を用いた分かり易いナビゲーション案内というメリットを保持すると共に、危険が予想される状況においては、それを回避することが可能となる。なお、危険度は、画面の注視時間や頻度、走行道路の種別、走行状況の少なくとも1つの要因をもとに判定されるのであればよい。   As described above, according to the present invention, the degree of risk for driving is determined based on the time and frequency of gaze on the driver's screen, the type of road on which the driver is driving, the driving situation such as the inter-vehicle distance from the preceding vehicle, and the determination result. The frame rate is appropriately controlled based on the above. Specifically, when the degree of danger is high, the frame rate is reduced to maintain the merit of easy-to-understand navigation guidance using guidance video (video) and avoid it in situations where danger is expected It becomes possible to do. The degree of risk may be determined based on at least one factor of the time and frequency of watching the screen, the type of road, and the driving situation.

上記実施の形態で説明した構成は、単に具体例を示すものであり、本願発明の技術的範囲を制限するものではない。本願の効果を奏する範囲において、任意の構成を採用することが可能である。   The configuration described in the above embodiment is merely a specific example and does not limit the technical scope of the present invention. Any configuration can be employed within the scope of the effects of the present application.

カーナビゲーション等の移動体機器として有用である。   It is useful as mobile equipment such as car navigation.

本発明の実施の形態に係るナビゲーション装置の全体構成を示す模式図The schematic diagram which shows the whole structure of the navigation apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係るナビゲーション装置の全体構成を示すブロック図The block diagram which shows the whole structure of the navigation apparatus which concerns on embodiment of this invention 視線検出部の構成を示す図The figure which shows the structure of a gaze detection part. 本発明の実施の形態に係るナビゲーション装置の動作を示すフロー図The flowchart which shows operation | movement of the navigation apparatus concerning embodiment of this invention. 案内映像生成処理を示すフロー図Flow chart showing guide video generation processing カメラの視野空間を示す模式図Schematic diagram showing the viewing space of the camera 3次元地図空間とカメラ視野空間を上方向から見た模式図Schematic view of 3D map space and camera view space from above 案内オブジェクトの配置位置を示す模式図Schematic diagram showing the placement position of the guidance object 案内映像を示す模式図Schematic diagram showing a guide video 注視状況とフレームレートとの対応関係を示す図Diagram showing correspondence between gaze status and frame rate 道路の種別のランクとフレームレートとの対応関係を示す図Diagram showing correspondence between rank of road type and frame rate 本発明の他の実施の形態に係るナビゲーション装置の全体構成を示すブロック図The block diagram which shows the whole structure of the navigation apparatus which concerns on other embodiment of this invention. 走行状況とフレームレートとの対応関係を示す図A diagram showing the correspondence between running conditions and frame rate

符号の説明Explanation of symbols

100 主装置
110 案内映像用カメラ
120 視線検出用カメラ
130 表示部
200 ナビゲーション装置
210 地図格納部
220 位置取得部
230 経路探索部
240 映像取得部
250 映像重畳部
260 視線検出部
261 瞳孔抽出部
262 角膜反射像抽出部
263 合焦判断部
270 注視状況判定部
280 フレームレート制御部
DESCRIPTION OF SYMBOLS 100 Main apparatus 110 Guide image camera 120 Eye-gaze detection camera 130 Display part 200 Navigation apparatus 210 Map storage part 220 Position acquisition part 230 Path | route search part 240 Image acquisition part 250 Image superimposition part 260 Eye-gaze detection part 261 Pupil extraction part 262 Corneal reflection Image extraction unit 263 Focus determination unit 270 Gaze state determination unit 280 Frame rate control unit

Claims (10)

自車位置近傍から案内点に至る自車前方の実写映像を取得し、取得した自車前方の実写映像に案内オブジェクトを重畳した案内映像を用いて、ナビゲーションするナビゲーション装置であって、
前記案内映像を表示する表示部と、
運転の危険度を判定する危険度判定部と、
前記危険度判定部の判定結果に基づいて、前記表示部が表示する案内映像のフレームレートを制御するフレームレート制御部とを備えるナビゲーション装置。
A navigation device that obtains a live-action image in front of the vehicle from the vicinity of the vehicle position to a guide point, and navigates using a guide image in which a guide object is superimposed on the acquired real-image image in front of the vehicle,
A display unit for displaying the guidance video;
A risk determination unit for determining the driving risk,
A navigation apparatus comprising: a frame rate control unit that controls a frame rate of a guide video displayed on the display unit based on a determination result of the risk determination unit.
前記危険度判定部は、前記表示部が表示する案内映像に向けられるユーザの視線に関する情報に基づいて、注視状況を判定する注視状況判定部を含み、フレームレート制御部は、前記注視状況判定部の判定結果に基づいて、前記表示部が表示する案内映像のフレームレートを制御することを特徴とする請求項1に記載のナビゲーション装置。   The risk level determination unit includes a gaze status determination unit that determines a gaze status based on information about a user's line of sight directed to the guide video displayed by the display unit, and a frame rate control unit includes the gaze status determination unit The navigation device according to claim 1, wherein a frame rate of the guide video displayed by the display unit is controlled based on the determination result. 前記注視状況判定部は、注視時間を判定し、前記フレームレート制御部は、注視時間が多いと判定された場合に、フレームレートを下げることを特徴とする請求項2に記載のナビゲーション装置。   The navigation device according to claim 2, wherein the gaze state determination unit determines a gaze time, and the frame rate control unit decreases the frame rate when it is determined that the gaze time is long. 前記注視状況判定部は、所定時間当たりの注視回数を判定し、前記フレームレート制御部は、所定時間当たりの注視回数が多いと判定された場合に、フレームレートを下げることを特徴とする請求項2に記載のナビゲーション装置。   The gaze state determination unit determines the number of gazes per predetermined time, and the frame rate control unit lowers the frame rate when it is determined that the number of gazes per predetermined time is large. 3. The navigation device according to 2. 前記危険度判定部は、自車の走行状況を判定する走行状況判定部を含み、前記フレームレート制御部は、前記走行状況判定部の判定結果に基づいて、前記表示部が表示する案内映像のフレームレートを制御することを特徴とする請求項1に記載のナビゲーション装置。   The risk determination unit includes a traveling state determination unit that determines a traveling state of the host vehicle, and the frame rate control unit is configured to display a guide video displayed on the display unit based on a determination result of the traveling state determination unit. The navigation apparatus according to claim 1, wherein the frame rate is controlled. 前記走行状況判定部は、自車が走行中の道路の形状がカーブ形状か否かを判定し、前記フレームレート制御部は、自車が走行中の道路の形状がカーブ形状である場合に、フレームレートを下げることを特徴とする請求項5に記載のナビゲーション装置。   The traveling state determination unit determines whether or not the shape of the road on which the vehicle is traveling is a curved shape, and the frame rate control unit determines that the shape of the road on which the vehicle is traveling is a curved shape. The navigation device according to claim 5, wherein the frame rate is lowered. 前記走行状況判定部は、自車が走行中の道路の種別のランクを判定し、前記フレームレート制御部は、自車が走行中の道路の種別のランクが低いと判定された場合に、フレームレートを下げることを特徴とする請求項5に記載のナビゲーション装置。   The traveling state determination unit determines the rank of the type of road on which the vehicle is traveling, and the frame rate control unit determines the frame when the rank of the type of road on which the vehicle is traveling is low. The navigation device according to claim 5, wherein the rate is lowered. 前記走行状況判定部は、自車と前方車両との車間距離を判定し、前記フレームレート制御部は、自車と前方車両との車間距離が小さいと判定された場合に、フレームレートを下げることを特徴とする請求項5に記載のナビゲーション装置。   The traveling state determination unit determines an inter-vehicle distance between the own vehicle and the preceding vehicle, and the frame rate control unit decreases the frame rate when it is determined that the inter-vehicle distance between the own vehicle and the preceding vehicle is small. The navigation device according to claim 5. 前記走行状況判定部は、自車が走行中の道路が混雑しているか否かを判定し、前記フレームレート制御部は、自車が走行中の道路が混雑している場合に、フレームレートを下げることを特徴とする請求項5に記載のナビゲーション装置。   The traveling state determination unit determines whether the road on which the vehicle is traveling is congested, and the frame rate control unit determines the frame rate when the road on which the vehicle is traveling is congested. The navigation device according to claim 5, wherein the navigation device is lowered. 前記走行状況判定部は、自車の車速を判定し、前記フレームレート制御部は、自車の車速が大きいと判定された場合に、フレームレートを下げることを特徴とする請求項5に記載のナビゲーション装置。

The said travel condition determination part determines the vehicle speed of the own vehicle, and the said frame rate control part reduces a frame rate, when it determines with the vehicle speed of the own vehicle being large. Navigation device.

JP2006037712A 2006-02-15 2006-02-15 Navigation device Pending JP2007218655A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006037712A JP2007218655A (en) 2006-02-15 2006-02-15 Navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006037712A JP2007218655A (en) 2006-02-15 2006-02-15 Navigation device

Publications (1)

Publication Number Publication Date
JP2007218655A true JP2007218655A (en) 2007-08-30

Family

ID=38496145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006037712A Pending JP2007218655A (en) 2006-02-15 2006-02-15 Navigation device

Country Status (1)

Country Link
JP (1) JP2007218655A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130050563A (en) * 2011-11-08 2013-05-16 (주)휴맥스 Apparatus and method for controlling video display in car video display device
WO2017045275A1 (en) * 2015-09-17 2017-03-23 百度在线网络技术(北京)有限公司 Method, device for navigation graph plotting and storage medium thereof
CN113135193A (en) * 2021-04-16 2021-07-20 阿波罗智联(北京)科技有限公司 Method, apparatus, storage medium, and program product for outputting warning information
WO2021176991A1 (en) * 2020-03-05 2021-09-10 ソニーグループ株式会社 Information processing device, video display system, and video display method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130050563A (en) * 2011-11-08 2013-05-16 (주)휴맥스 Apparatus and method for controlling video display in car video display device
KR101862777B1 (en) * 2011-11-08 2018-06-01 (주)휴맥스 Apparatus and method for controlling video display in car video display device
WO2017045275A1 (en) * 2015-09-17 2017-03-23 百度在线网络技术(北京)有限公司 Method, device for navigation graph plotting and storage medium thereof
US10724873B2 (en) 2015-09-17 2020-07-28 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for rendering navigation image and storage medium
WO2021176991A1 (en) * 2020-03-05 2021-09-10 ソニーグループ株式会社 Information processing device, video display system, and video display method
CN113135193A (en) * 2021-04-16 2021-07-20 阿波罗智联(北京)科技有限公司 Method, apparatus, storage medium, and program product for outputting warning information
CN113135193B (en) * 2021-04-16 2024-02-13 阿波罗智联(北京)科技有限公司 Method, device, storage medium and program product for outputting early warning information

Similar Documents

Publication Publication Date Title
US10156728B2 (en) Information provision device, information provision method, and recording medium
JP4886751B2 (en) In-vehicle display system and display method
JP6443236B2 (en) Virtual image presentation system, image projection apparatus, and virtual image presentation method
US9347786B2 (en) Intersection guide system, method, and program
US9739628B2 (en) Intersection guide system, method, and program
JP6695049B2 (en) Display device and display control method
US20100153000A1 (en) Navigation system
JP2009043003A (en) Driving support apparatus
WO2019224922A1 (en) Head-up display control device, head-up display system, and head-up display control method
US20190241070A1 (en) Display control device and display control method
JP6225379B2 (en) Vehicle information projection system
JP2011185951A (en) Navigation system
JP2008145364A (en) Route guiding device
JP6186905B2 (en) In-vehicle display device and program
JP2018020779A (en) Vehicle information projection system
JP4277678B2 (en) Vehicle driving support device
JP2005038225A (en) Lane follow-up device
JP2007218655A (en) Navigation device
JP7459883B2 (en) Display control device, head-up display device, and method
JP3968720B2 (en) Image display device for vehicle
JP4857159B2 (en) Vehicle driving support device
JP2007230491A (en) Visual sense information presentation device and visual sense information presentation method
JP2005313772A (en) Vehicular head-up display device
WO2022230995A1 (en) Display control device, head-up display device, and display control method
JP2020113066A (en) Video processing device, video processing method, and program