JP2023067985A - Information processing device, control method, program and storage medium - Google Patents

Information processing device, control method, program and storage medium Download PDF

Info

Publication number
JP2023067985A
JP2023067985A JP2023035208A JP2023035208A JP2023067985A JP 2023067985 A JP2023067985 A JP 2023067985A JP 2023035208 A JP2023035208 A JP 2023035208A JP 2023035208 A JP2023035208 A JP 2023035208A JP 2023067985 A JP2023067985 A JP 2023067985A
Authority
JP
Japan
Prior art keywords
road
system controller
display
information
dwc
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023035208A
Other languages
Japanese (ja)
Inventor
喬浩 鎌田
Takahiro Kamata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2023035208A priority Critical patent/JP2023067985A/en
Publication of JP2023067985A publication Critical patent/JP2023067985A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Road Repair (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device capable of suitably grasping the degree of submergence or the like in the case that the submergence or the like occurs in a road.
SOLUTION: A system controller 20 of a navigation device 1 detects a representative boundary position Pr between a water surface area Aw submerged on a road and a road area Ar on the road other than the water surface area Aw on the basis of a camera image Ic outputted by a camera 2. Then, the system controller 20 calculates water depth Dwc by referring to altitude information included in road shape data of map data 32 on the basis of a latitude and a longitude of the representative boundary position Pr.
SELECTED DRAWING: Figure 3
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、道路の状態を好適に把握するための技術に関する。 TECHNICAL FIELD The present invention relates to technology for appropriately grasping road conditions.

従来から、車両に設置されたカメラが出力する画像に基づき、道路の状態を認識する技術が知られている。例えば、特許文献1には、可視光のカメラ画像による画像処理により、路面状態を検出する技術が開示されている。 2. Description of the Related Art Conventionally, there has been known a technology for recognizing road conditions based on images output by cameras installed in vehicles. For example, Patent Literature 1 discloses a technique for detecting a road surface state by image processing using a visible light camera image.

特開2002-157676号公報JP-A-2002-157676

道路形状によっては、大雨により一部が冠水して通行が制限される場合がある。特許文献1の技術によれば、走行する道路が濡れているか否かを検知することが可能である一方で、上述のような冠水を検知する点については何ら開示されていない。 Depending on the shape of the road, heavy rain may partially submerge it and restrict traffic. According to the technique of Patent Document 1, while it is possible to detect whether or not the road on which the vehicle is traveling is wet, it does not disclose anything about detecting flooding as described above.

本発明は、上記のような課題を解決するためになされたものであり、道路に冠水等が発生している場合に、当該冠水等の程度を好適に把握することが可能な情報処理装置を提供することを主な目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve the problems described above, and provides an information processing apparatus capable of suitably grasping the degree of flooding when roads are flooded. The main purpose is to provide

請求項1に記載の発明は、情報処理装置であって、撮像装置又はセンサの出力結果に基づき、道路上において冠水又は積雪している第1範囲と当該第1範囲と異なる第2範囲との境界位置を検出する検出手段と、前記境界位置に基づいて、前記第1範囲における冠水又は積雪の深さを取得する取得手段と、を備えることを特徴とする。 According to a first aspect of the present invention, there is provided an information processing device, which is based on an output result of an imaging device or a sensor, and detects a first range on a road that is flooded or covered with snow and a second range that is different from the first range. It is characterized by comprising detection means for detecting a boundary position, and obtaining means for obtaining the depth of flooding or snow cover in the first range based on the boundary position.

請求項8に記載の発明は、情報処理装置が実行する制御方法であって、撮像装置又はセンサの出力結果に基づき、道路上において冠水又は積雪している第1範囲と当該第1範囲と異なる第2範囲との境界位置を検出する検出工程と、前記境界位置に基づいて、前記第1範囲における冠水又は積雪の深さを取得する取得工程と、を備えることを特徴とする。 According to an eighth aspect of the invention, there is provided a control method executed by an information processing device, in which a first range that is flooded or covered with snow on the road is different from the first range based on the output result of the imaging device or the sensor. The method is characterized by comprising a detection step of detecting a boundary position with a second range, and an obtaining step of obtaining the depth of flooding or snow cover in the first range based on the boundary position.

請求項9に記載の発明は、コンピュータが実行するプログラムであって、撮像装置又はセンサの出力結果に基づき、道路上において冠水又は積雪している第1範囲と当該第1範囲と異なる第2範囲との境界位置を検出する検出手段と、前記境界位置に基づいて、前記第1範囲における冠水又は積雪の深さを取得する取得手段として前記コンピュータを機能させることを特徴とする。 The invention according to claim 9 is a program executed by a computer, and based on the output result of the imaging device or the sensor, a first range that is flooded or covered with snow on the road and a second range that is different from the first range and detecting means for detecting a boundary position between and and acquiring means for acquiring the depth of flooding or snow cover in the first range based on the boundary position.

実施例に係る冠水警告システムの概略構成である。1 is a schematic configuration of a flood warning system according to an embodiment; ナビゲーション装置の概略構成を示す。1 shows a schematic configuration of a navigation device; 冠水警告処理の概要を示すフローチャートである。4 is a flowchart showing an overview of flood warning processing; 境界検出処理の手順を示すフローチャートである。4 is a flow chart showing a procedure of boundary detection processing; 道路領域及び水面領域が検出されたカメラ画像を示す。4 shows a camera image in which a road area and a water surface area have been detected; 水深算出処理の手順を示すフローチャートである。4 is a flowchart showing a procedure of water depth calculation processing; 道路形状データに基づくデータ点を明示した冠水部の断面図を示す。FIG. 2 shows a cross-sectional view of a flooded area with data points based on road geometry data; 冠水部を検出した場合のディスプレイの第1表示例を示す。4 shows a first display example of the display when a submerged portion is detected; 冠水部を検出した場合のディスプレイの第2表示例を示す。FIG. 10 shows a second display example of the display when a submerged portion is detected; FIG. 冠水部を検出した場合のディスプレイの第3表示例を示す。FIG. 11 shows a third display example of the display when a submerged portion is detected; FIG. 冠水部を検出した場合のディスプレイの第4表示例を示す。FIG. 11 shows a fourth display example of the display when a submerged portion is detected; FIG. 変形例に係る冠水警告システムの概略構成である。It is a schematic configuration of a flood warning system according to a modification.

本発明の好適な実施形態によれば、情報処理装置は、撮像装置又はセンサの出力結果に基づき、道路上において冠水又は積雪している第1範囲と当該第1範囲と異なる第2範囲との境界位置を検出する検出手段と、前記境界位置に基づいて、前記第1範囲における冠水又は積雪の深さを取得する取得手段と、を備えることを特徴とする。 According to a preferred embodiment of the present invention, the information processing device divides the road between a first range that is flooded or covered with snow and a second range that is different from the first range, based on the output result of the imaging device or the sensor. It is characterized by comprising detection means for detecting a boundary position, and obtaining means for obtaining the depth of flooding or snow cover in the first range based on the boundary position.

上記情報処理装置は、検出手段と、取得手段とを備える。検出手段は、撮像装置又はセンサの出力結果に基づき、道路上において冠水又は積雪している第1範囲と当該第1範囲と異なる第2範囲との境界位置を検出する。取得手段は、検出手段が検出した境界位置に基づいて、第1範囲における冠水又は積雪の深さを取得する。この態様によれば、情報処理装置は、道路上に冠水又は積雪している部分が存在する場合に、冠水又は積雪の程度を好適に把握することができる。 The information processing apparatus includes detection means and acquisition means. The detection means detects a boundary position between a first range that is flooded or covered with snow on the road and a second range different from the first range, based on the output result of the imaging device or the sensor. The acquiring means acquires the depth of flooding or snow cover in the first range based on the boundary position detected by the detecting means. According to this aspect, the information processing device can preferably grasp the degree of flooding or snowfall when there is a flooded or snow-covered portion on the road.

上記情報処理装置の一態様では、情報処理装置は、道路の位置情報及び標高情報を記憶する記憶手段をさらに備え、前記取得手段は、前記境界位置に基づき、前記境界位置の標高である第1標高情報と、前記第1範囲における最も標高が低い地点の標高である第2標高情報とを取得する標高情報取得手段と、前記第1標高情報と、前記第2標高情報とに基づいて、前記深さを算出する深さ算出手段と、を備える。情報処理装置は、この態様により、冠水面又は積雪面の標高を示す第1標高情報と冠水又は積雪の最深部の標高を示す第2標高情報とを取得して冠水又は積雪の深さを的確に算出することができる。 In one aspect of the information processing apparatus, the information processing apparatus further includes storage means for storing position information and altitude information of the road, and the acquisition means obtains a first altitude of the boundary position based on the boundary position. Altitude information acquisition means for acquiring altitude information and second altitude information that is the altitude of the point with the lowest altitude in the first range; Based on the first altitude information and the second altitude information, the and depth calculation means for calculating the depth. According to this aspect, the information processing device obtains the first altitude information indicating the altitude of the flooded surface or the snow covered surface and the second altitude information indicating the altitude of the deepest part of the flooded or snowed surface, and accurately determines the depth of the flooded or snowed surface. can be calculated to

上記情報処理装置の他の一態様では、前記検出手段は、前記出力結果に基づき、前記撮像装置又はセンサの検出範囲内での座標系で表された前記境界位置の相対座標を算出し、前記標高情報取得手段は、前記相対座標を前記道路の位置情報と同一の座標系に変換した絶対座標に基づき、前記第1標高情報を取得する。この態様により、情報処理装置は、撮像装置又はセンサにより検出した境界位置の絶対座標に基づき記憶手段に記憶された標高情報を参照し、第1標高情報を好適に取得することができる。 In another aspect of the information processing apparatus, the detection means calculates relative coordinates of the boundary position represented by a coordinate system within a detection range of the imaging device or sensor based on the output result, and The altitude information acquiring means acquires the first altitude information based on absolute coordinates obtained by converting the relative coordinates into the same coordinate system as the road position information. According to this aspect, the information processing device can refer to the altitude information stored in the storage unit based on the absolute coordinates of the boundary position detected by the imaging device or the sensor, and can preferably acquire the first altitude information.

上記情報処理装置の他の一態様では、情報処理装置は、前記深さが所定値以上である場合に、前記第1範囲の通行を制限する情報を表示手段又は音声出力手段の少なくとも一方により出力する出力制御手段をさらに備える。この態様により、情報処理装置は、通行ができない又は通行が安全上好ましくない程度の冠水または積雪部分が存在する場合などに、好適に通行を制限することができる。 In another aspect of the information processing device, the information processing device outputs information restricting traffic in the first range from at least one of display means and audio output means when the depth is equal to or greater than a predetermined value. It further comprises output control means for controlling. According to this aspect, the information processing device can appropriately restrict passage when there is a flooded or snow-covered portion that is impassable or unsafe to pass.

上記情報処理装置の他の一態様では、前記出力制御手段は、前記表示手段に出力する場合、前記第1範囲を含む道路を道路沿いに切断して前記冠水又は積雪の部分を含む断面画像を前記表示手段に表示させる。この態様によっても、情報処理装置は、冠水または積雪が発生した道路の状況を好適に観察者に把握させることができる。 In another aspect of the information processing apparatus, when outputting to the display means, the output control means cuts the road including the first range along the road to display a cross-sectional image including the flooded or snow covered portion. Display on the display means. Also in this aspect, the information processing device can allow the observer to preferably grasp the condition of the road that is flooded or covered with snow.

上記情報処理装置の他の一態様では、前記出力制御手段は、前記表示手段に出力する場合、撮像装置が出力する画像における冠水又は積雪の領域に、前記深さに応じて表示態様が異なる画像を重ねて前記表示手段に表示させる。この態様により、情報処理装置は、冠水または積雪の深さの分布を好適に観察者に把握させることができる。 In another aspect of the information processing apparatus, the output control means, when outputting to the display means, displays an image that is displayed in different display modes according to the depth in the area of flooded or covered snow in the image output by the imaging device. are superimposed and displayed on the display means. According to this aspect, the information processing device can allow the observer to preferably grasp the distribution of the depth of flooding or snow cover.

上記情報処理装置の他の一態様では、前記撮像装置が撮影した前記第1範囲を含む道路の画像を、前記第1範囲の形成前の前記道路の画像と並べて前記表示手段に表示させる。この態様により、情報処理装置は、冠水または積雪の発生前後での道路状況の比較を可能にし、冠水または積雪の態様をより直感的に観察者に把握させることができる。 In another aspect of the information processing apparatus, the image of the road including the first range captured by the imaging device is displayed on the display means side by side with the image of the road before the formation of the first range. This aspect enables the information processing device to compare the road conditions before and after the occurrence of flooding or snow cover, and allows the observer to more intuitively grasp the aspect of flooding or snow cover.

本発明に係る他の好適な実施形態では、情報処理装置が実行する制御方法であって、撮像装置又はセンサの出力結果に基づき、道路上において冠水又は積雪している第1範囲と当該第1範囲と異なる第2範囲との境界位置を検出する検出工程と、前記境界位置に基づいて、前記第1範囲における冠水又は積雪の深さを取得する取得工程と、を備える。情報処理装置は、この制御方法を実行することで、道路上に冠水又は積雪している部分が存在する場合に、冠水又は積雪の程度を好適に把握することができる。 According to another preferred embodiment of the present invention, there is provided a control method executed by an information processing device, in which a first range flooded or covered with snow on a road and the first A detection step of detecting a boundary position between the range and a second range different from the range, and an obtaining step of obtaining the depth of flooding or snow cover in the first range based on the boundary position. By executing this control method, the information processing apparatus can appropriately grasp the degree of flooding or snow when there is a portion of the road that is flooded or covered with snow.

本発明に係るさらに別の実施形態では、コンピュータが実行するプログラムであって、撮像装置又はセンサの出力結果に基づき、道路上において冠水又は積雪している第1範囲と当該第1範囲と異なる第2範囲との境界位置を検出する検出手段と、前記境界位置に基づいて、前記第1範囲における冠水又は積雪の深さを取得する取得手段として前記コンピュータを機能させる。コンピュータは、このプログラムを実行することで、道路上に冠水又は積雪している部分が存在する場合に、冠水又は積雪の程度を好適に把握することができる。好適には、このプログラムは、記憶媒体に記憶される。 In still another embodiment of the present invention, a computer-executed program, which is based on an output result of an imaging device or a sensor, a first range of flooded or snow-covered roads and a different range from the first range. The computer is caused to function as detection means for detecting a boundary position between the two ranges and acquisition means for acquiring the depth of flooding or snow cover in the first range based on the boundary position. By executing this program, the computer can preferably grasp the degree of flooding or snow cover when there is a flooded or snow covered part on the road. Preferably, this program is stored in a storage medium.

以下、図面を参照して本発明の好適な実施例について説明する。 Preferred embodiments of the present invention will be described below with reference to the drawings.

[冠水警告システムの構成]
図1は、本実施例に係る冠水警告システムの概略構成である。冠水警告システムは、道路上に形成された冠水部分(「冠水部WC」とも呼ぶ。)を検出して警告を行うシステムであって、ナビゲーション装置1と、カメラ2とを有する。
[Configuration of flood warning system]
FIG. 1 is a schematic configuration of a flood warning system according to this embodiment. The flood warning system is a system that detects a flooded portion formed on a road (also called a “flooded portion WC”) and issues a warning, and includes a navigation device 1 and a camera 2 .

ナビゲーション装置1は、車両と共に移動し、車両の前方方向に向けられたカメラ2と電気的に接続している。そして、ナビゲーション装置1は、カメラ2から受信した画像(「カメラ画像Ic」とも呼ぶ。)に基づき、冠水部WCの有無の判定及び冠水の水深(「水深Dwc」とも呼ぶ。)の算出を行う。水深Dwcの算出では、ナビゲーション装置1は、図1に示すように、冠水部WCにおける最も標高が低い部分である最深部「Lwc」と、冠水部WCの水面と道路との境界「Bwc」との標高差を水深Dwcとして算出する。そして、ナビゲーション装置1は、算出した水深Dwcに応じた冠水部WCに対する警告表示を行う。 A navigation device 1 moves with the vehicle and is electrically connected to a camera 2 directed forward of the vehicle. Then, the navigation device 1 determines whether or not there is a submerged portion WC and calculates the water depth of the submergence (also referred to as a "water depth Dwc") based on the image received from the camera 2 (also referred to as a "camera image Ic"). . In calculating the water depth Dwc, the navigation device 1, as shown in FIG. is calculated as the water depth Dwc. Then, the navigation device 1 performs warning display for the submerged area WC according to the calculated water depth Dwc.

[ナビゲーション装置の構成]
図2は、本発明における表示装置が適用されたナビゲーション装置1の概略構成を示す。
[Configuration of navigation device]
FIG. 2 shows a schematic configuration of a navigation device 1 to which the display device of the present invention is applied.

図2に示すように、ナビゲーション装置1は、自立測位装置10、GPS受信機18、システムコントローラ20、データ記憶ユニット31、通信装置38、表示ユニット40、音声出力ユニット50及び入力装置60を備える。 As shown in FIG. 2, the navigation device 1 comprises an autonomous positioning device 10, a GPS receiver 18, a system controller 20, a data storage unit 31, a communication device 38, a display unit 40, an audio output unit 50 and an input device 60.

自立測位装置10は、加速度センサ11、角速度センサ12及び距離センサ13を備える。加速度センサ11は、例えば圧電素子からなり、車両の加速度を検出し、加速度データを出力する。角速度センサ12は、例えば振動ジャイロからなり、車両の方向変換時における車両の角速度を検出し、角速度データ及び相対方位データを出力する。距離センサ13は、車両の車輪の回転に伴って発生されているパルス信号からなる車速パルスを計測する。 The self-supporting positioning device 10 has an acceleration sensor 11 , an angular velocity sensor 12 and a distance sensor 13 . The acceleration sensor 11 is composed of, for example, a piezoelectric element, detects acceleration of the vehicle, and outputs acceleration data. The angular velocity sensor 12 is, for example, a vibrating gyro, detects the angular velocity of the vehicle when the vehicle changes direction, and outputs angular velocity data and relative azimuth data. The distance sensor 13 measures a vehicle speed pulse, which is a pulse signal generated as the wheels of the vehicle rotate.

GPS受信機18は、複数のGPS衛星から、測位用データを含む下り回線データを搬送する電波19を受信する。測位用データは、緯度及び経度情報等から車両の絶対的な位置を検出するために用いられる。 The GPS receiver 18 receives radio waves 19 carrying downlink data including positioning data from a plurality of GPS satellites. The positioning data is used to detect the absolute position of the vehicle from latitude and longitude information.

システムコントローラ20は、インタフェース21、CPU22、ROM23及びRAM24を含んでおり、ナビゲーション装置1全体の制御を行う。本実施例では、システムコントローラ20は、後述する冠水警告処理を行う。システムコントローラ20は、本発明における「検出手段」、「取得手段」、「標高情報取得手段」、「深さ算出手段」、「出力制御手段」及び本発明におけるプログラムを実行するコンピュータの一例である。 The system controller 20 includes an interface 21, a CPU 22, a ROM 23 and a RAM 24, and controls the navigation device 1 as a whole. In this embodiment, the system controller 20 performs flood warning processing, which will be described later. The system controller 20 is an example of the "detection means", "acquisition means", "elevation information acquisition means", "depth calculation means", and "output control means" in the present invention and a computer that executes the program in the present invention. .

インタフェース21は、加速度センサ11、角速度センサ12及び距離センサ13並びにGPS受信機18とのインタフェース動作を行う。そして、これらから、車速パルス、加速度データ、相対方位データ、角速度データ、GPS測位データ、絶対方位データ等をシステムコントローラ20に入力する。CPU22は、システムコントローラ20全体を制御する。ROM23は、システムコントローラ20を制御する制御プログラム等が格納された図示しない不揮発性メモリ等を有する。RAM24は、入力装置60を介して使用者により予め設定された経路データ等の各種データを読み出し可能に格納したり、CPU22に対してワーキングエリアを提供したりする。 The interface 21 performs interface operations with the acceleration sensor 11 , the angular velocity sensor 12 , the distance sensor 13 and the GPS receiver 18 . From these, the vehicle speed pulse, acceleration data, relative direction data, angular velocity data, GPS positioning data, absolute direction data, etc. are input to the system controller 20 . The CPU 22 controls the system controller 20 as a whole. The ROM 23 has a non-illustrated non-volatile memory or the like storing a control program or the like for controlling the system controller 20 . The RAM 24 readablely stores various data such as route data set in advance by the user through the input device 60 and provides a working area for the CPU 22 .

システムコントローラ20、データ記憶ユニット31、表示ユニット40、音声出力ユニット50及び入力装置60は、バスライン30を介して相互に接続されている。 The system controller 20 , data storage unit 31 , display unit 40 , audio output unit 50 and input device 60 are interconnected via bus line 30 .

データ記憶ユニット31は、例えば、HDDなどの記憶媒体などにより構成され、地図データ32などのナビゲーション処理に用いられる各種データを記憶する。地図データ32は、道路に相当するリンクと、道路の接続部分(交差点)に相当するノードとにより表された道路データや、各施設に関する施設情報などを含む。道路データには、各道路の形状に関する道路形状データが含まれており、道路形状データは、例えば、道路上での所定間隔ごとの標高を示す標高情報を含む。データ記憶ユニット31は、本発明における「記憶手段」の一例である。 The data storage unit 31 is configured by, for example, a storage medium such as an HDD, and stores various data used for navigation processing such as map data 32 . The map data 32 includes road data represented by links corresponding to roads and nodes corresponding to connecting portions (intersections) of roads, facility information about each facility, and the like. The road data includes road shape data relating to the shape of each road, and the road shape data includes, for example, altitude information indicating altitudes at predetermined intervals on the road. The data storage unit 31 is an example of "storage means" in the present invention.

通信装置38は、VICS(登録商標、Vehicle Information Communication System)センタから配信される道路交通情報、その他の情報を受信する。なお、通信装置38は、システムコントローラ20の制御に基づき、通信網を介して通信可能なサーバから、地図データ32としてデータ記憶ユニット31に記憶させる情報(例えば道路形状データ等)を受信してもよい。 The communication device 38 receives road traffic information and other information delivered from a VICS (registered trademark, Vehicle Information Communication System) center. Under the control of the system controller 20, the communication device 38 may receive information (for example, road shape data, etc.) to be stored in the data storage unit 31 as the map data 32 from a server that can communicate via a communication network. good.

表示ユニット40は、システムコントローラ20の制御の下、各種表示データをディスプレイなどの表示装置に表示する。具体的には、システムコントローラ20は、データ記憶ユニット31から地図データを読み出す。表示ユニット40は、システムコントローラ20によってデータ記憶ユニット31から読み出された地図データに基づく画像を、ディスプレイなどの表示画面上に表示する。なお、本実施例では、表示ユニット40は、カメラ2から取得したカメラ画像Icを表示し、カメラ画像Ic上に運転を補助するための画像を重畳して表示する。表示ユニット40は、バスライン30を介してCPU22から送られる制御データに基づいて表示ユニット40全体の制御を行うグラフィックコントローラ41と、VRAM(Video RAM)等のメモリからなり即時表示可能な画像情報を一時的に記憶するバッファメモリ42と、グラフィックコントローラ41から出力される画像データに基づいて、液晶、CRT(Cathode Ray Tube)等のディスプレイ44を表示制御する表示制御部43と、ディスプレイ44とを備える。ディスプレイ44は、例えば対角5~10インチ程度の液晶表示装置等からなり、車内のフロントパネル付近に装着される。ディスプレイ44は、本発明における「表示手段」の一例である。 The display unit 40 displays various display data on a display device such as a display under the control of the system controller 20 . Specifically, the system controller 20 reads map data from the data storage unit 31 . The display unit 40 displays an image based on the map data read from the data storage unit 31 by the system controller 20 on a display screen such as a display. In this embodiment, the display unit 40 displays the camera image Ic obtained from the camera 2, and superimposes an image for assisting driving on the camera image Ic. The display unit 40 consists of a graphic controller 41 for controlling the entire display unit 40 based on control data sent from the CPU 22 via the bus line 30, and a memory such as a VRAM (Video RAM) to display immediately displayable image information. Buffer memory 42 for temporary storage, display control unit 43 for controlling display 44 such as liquid crystal or CRT (Cathode Ray Tube) based on image data output from graphic controller 41, and display 44. . The display 44 is, for example, a liquid crystal display device or the like having a diagonal size of about 5 to 10 inches, and is mounted near the front panel in the vehicle. The display 44 is an example of "display means" in the present invention.

音声出力ユニット50は、システムコントローラ20の制御の下、RAM24等からバスライン30を介して送られる音声デジタルデータのD/A変換を行うD/Aコンバータ51と、D/Aコンバータ51から出力される音声アナログ信号を増幅する増幅器(AMP)52と、増幅された音声アナログ信号を音声に変換して車内に出力するスピーカ53とを備えて構成されている。スピーカ53は、本発明における「音声出力手段」の一例である。 The audio output unit 50, under the control of the system controller 20, is a D/A converter 51 that performs D/A conversion of audio digital data sent from the RAM 24 or the like via the bus line 30, and an output from the D/A converter 51. and a speaker 53 for converting the amplified audio analog signal into audio and outputting it to the inside of the vehicle. The speaker 53 is an example of "audio output means" in the present invention.

入力装置60は、各種コマンドやデータを入力するための、キー、スイッチ、ボタン、リモコン、音声入力装置等から構成されている。入力装置60は、車内に搭載された当該車載用電子システムの本体のフロントパネルやディスプレイ44の周囲に配置される。また、ディスプレイ44がタッチパネル方式である場合には、ディスプレイ44の表示画面上に設けられたタッチパネルも入力装置60として機能する。 The input device 60 is composed of keys, switches, buttons, a remote control, a voice input device, etc. for inputting various commands and data. The input device 60 is arranged around the front panel and the display 44 of the main body of the in-vehicle electronic system installed in the vehicle. Moreover, when the display 44 is of a touch panel type, the touch panel provided on the display screen of the display 44 also functions as the input device 60 .

[冠水警告処理]
次に、システムコントローラ20が実行する冠水警告処理について説明する。
[Flood warning process]
Next, the flood warning process executed by the system controller 20 will be described.

(1)処理概要
図3は、本実施例における冠水警告処理の概要を示すフローチャートである。システムコントローラ20は、図3に示すフローチャートを繰り返し実行する。
(1) Processing overview
FIG. 3 is a flow chart showing an overview of flood warning processing in this embodiment. The system controller 20 repeatedly executes the flowchart shown in FIG.

まず、システムコントローラ20は、カメラ画像Ic上で冠水部WCの有無を判定し、カメラ画像Ic上で冠水部WCを検出した場合に水面境界Bwcの絶対的な位置座標(「境界絶対座標」とも呼ぶ。)を算出する処理である境界位置検出処理を実行する(ステップS101)。本実施例では、システムコントローラ20は、境界絶対座標として、水面境界Bwcの代表点の緯度及び経度を算出するものとする。境界位置検出処理の詳細については、図4及び図5を参照して後述する。 First, the system controller 20 determines the presence or absence of the submerged portion WC on the camera image Ic. ) is executed (step S101). In this embodiment, the system controller 20 calculates the latitude and longitude of the representative point of the water surface boundary Bwc as boundary absolute coordinates. Details of the boundary position detection process will be described later with reference to FIGS. 4 and 5. FIG.

次に、システムコントローラ20は、ステップS101の境界位置検出処理において冠水部WCを検出したか否か判定する(ステップS102)。そして、システムコントローラ20は、冠水部WCを検出できなかったと判断した場合(ステップS102;No)、ステップS105へ処理を進める。 Next, the system controller 20 determines whether or not the submerged portion WC is detected in the boundary position detection process of step S101 (step S102). Then, when the system controller 20 determines that the submerged portion WC could not be detected (step S102; No), the process proceeds to step S105.

一方、システムコントローラ20は、冠水部WCを検出したと判断した場合(ステップS102;Yes)、水深Dwcを算出する処理である水深算出処理を実行する(ステップS103)。水深算出処理では、システムコントローラ20は、地図データ32に含まれる道路形状データの標高情報から、ステップS101で算出した境界値絶対座標に対応する標高情報及び最深部Lwcに対応する標高情報をそれぞれ抽出することで、水深Dwcを算出する。境界値絶対座標に対応する標高情報は、本発明における「第1標高情報」の一例であり、最深部Lwcに対応する標高情報は、本発明における「第2標高情報」の一例である。水深算出処理の詳細については、図6及び図7を参照して後述する。 On the other hand, when the system controller 20 determines that the submerged portion WC has been detected (step S102; Yes), it executes water depth calculation processing for calculating the water depth Dwc (step S103). In the water depth calculation process, the system controller 20 extracts the altitude information corresponding to the boundary value absolute coordinates calculated in step S101 and the altitude information corresponding to the deepest part Lwc from the altitude information of the road shape data included in the map data 32. By doing so, the water depth Dwc is calculated. The altitude information corresponding to the boundary value absolute coordinates is an example of "first altitude information" in the present invention, and the altitude information corresponding to the deepest portion Lwc is an example of "second altitude information" in the present invention. Details of the water depth calculation process will be described later with reference to FIGS.

その後、システムコントローラ20は、算出した水深Dwcに応じた表示を行う(ステップS104)。この場合、システムコントローラ20は、例えば、カメラ画像Icをディスプレイ44に表示すると共に、カメラ画像Icに表示された冠水部WCの水深Dwc及び当該冠水部WCの通行の可否などを示す画像を、カメラ画像Icに重ねて表示する。ステップS104の表示例については、「(4)表示例」のセクションで詳しく説明する。 After that, the system controller 20 performs display according to the calculated water depth Dwc (step S104). In this case, for example, the system controller 20 displays the camera image Ic on the display 44, and displays an image indicating the water depth Dwc of the submerged area WC displayed in the camera image Ic and whether or not the submerged area WC is passable. It is displayed superimposed on the image Ic. A display example of step S104 will be described in detail in the section "(4) Display example".

次に、システムコントローラ20は、表示処理等に対する停止命令があるか否か判定する(ステップS105)。そして、システムコントローラ20は、停止命令を検知した場合(ステップS105;Yes)、フローチャートの処理を終了する。一方、システムコントローラ20は、停止命令を検知しない場合(ステップS105;No)、再びステップS101へ処理を戻す。 Next, the system controller 20 determines whether or not there is a stop command for the display process or the like (step S105). Then, when the system controller 20 detects the stop command (step S105; Yes), the process of the flowchart ends. On the other hand, when the system controller 20 does not detect a stop command (step S105; No), the process returns to step S101 again.

(2)境界位置検出処理
図4は、図3のステップS101で実行される境界位置検出処理の手順を示すフローチャートである。
(2) Boundary position detection processing
FIG. 4 is a flow chart showing the procedure of the boundary position detection process executed in step S101 of FIG.

まず、システムコントローラ20は、カメラ画像Icをカメラ2から取得する(ステップS201)。次に、システムコントローラ20は、取得したカメラ画像Icから、公知の画像認識処理に基づき、道路を構成する領域(「道路領域Ar」とも呼ぶ。)の抽出処理を行う(ステップS202)。さらに、システムコントローラ20は、公知の画像認識処理に基づき、カメラ画像Icから水面を構成する領域(「水面領域Aw」とも呼ぶ。)の抽出処理を行う(ステップS203)。この場合、システムコントローラ20は、例えば、水面領域Awでは反射率が高くなることを勘案し、反射率が相対的に高く、かつ、道路が存在すると推定される範囲に形成された所定画素数以上の連結領域を、水面領域Awとして抽出する。 First, the system controller 20 acquires the camera image Ic from the camera 2 (step S201). Next, the system controller 20 extracts an area forming a road (also referred to as a "road area Ar") from the acquired camera image Ic based on known image recognition processing (step S202). Further, the system controller 20 extracts an area forming the water surface (also referred to as "water surface area Aw") from the camera image Ic based on known image recognition processing (step S203). In this case, the system controller 20, for example, takes into account that the reflectance is high in the water surface area Aw, and the reflectance is relatively high, and more than a predetermined number of pixels formed in the range where it is estimated that the road exists is extracted as the water surface area Aw.

次に、システムコントローラ20は、カメラ画像Icから水面領域Awを抽出できたか否か判定する(ステップS204)。そして、システムコントローラ20は、カメラ画像Icから水面領域Awを抽出できた場合(ステップS204;Yes)、ステップS205へ処理を進める。一方、システムコントローラ20は、水面領域Awを抽出できなかった場合(ステップS204;No)、冠水部WCが検出できなかったと判断し、フローチャートの処理を終了する。 Next, the system controller 20 determines whether or not the water surface area Aw has been extracted from the camera image Ic (step S204). When the system controller 20 can extract the water surface area Aw from the camera image Ic (step S204; Yes), the process proceeds to step S205. On the other hand, if the water surface area Aw could not be extracted (step S204; No), the system controller 20 determines that the submerged portion WC could not be detected, and terminates the processing of the flowchart.

次に、システムコントローラ20は、道路領域Arと水面領域Awとの境界の代表点(「代表境界点Pr」とも呼ぶ。)のカメラ画像Ic内での2次元の相対座標を算出する(ステップS205)。この場合、例えば、システムコントローラ20は、道路の区画線等に沿った道路領域Arの仮想的な中心線を特定し、特定した中心線と水面領域との交点のカメラ画像Ic内の座標を、代表境界点Prの相対座標として求める。ステップS205の具体例については、図5を参照して詳しく説明する。上述の代表境界点Prの相対座標は、本発明における「境界位置の相対座標」の一例である。 Next, the system controller 20 calculates the two-dimensional relative coordinates in the camera image Ic of the representative point of the boundary between the road area Ar and the water surface area Aw (also referred to as "representative boundary point Pr") (step S205). ). In this case, for example, the system controller 20 specifies the virtual centerline of the road area Ar along the road division lines, etc., and the coordinates in the camera image Ic of the intersection of the specified centerline and the water surface area are Obtained as relative coordinates of the representative boundary point Pr. A specific example of step S205 will be described in detail with reference to FIG. The above-described relative coordinates of the representative boundary point Pr are an example of "relative coordinates of the boundary position" in the present invention.

そして、システムコントローラ20は、GPS受信機18等の出力に基づく現在位置情報及び自立測位装置10等の出力に基づく車両の進行方向の情報を取得する(ステップS206)。その後、システムコントローラ20は、ステップS206で取得した現在位置情報及び進行方向の情報に基づき、代表境界点Prに対応する緯度及び経度である境界絶対座標を算出する(ステップS207)。例えば、システムコントローラ20は、車両の進行方向ごとにカメラ画像Ic内の相対座標と現在位置に対する緯度及び経度の差分とを対応付けたマップ又は式等を予め記憶し、当該マップ又は式等を参照して現在位置からの緯度及び経度の差分を特定し、現在位置情報が示す緯度及び経度に加算することで、境界絶対座標を算出する。 Then, the system controller 20 acquires the current position information based on the output of the GPS receiver 18 and the like and information on the direction of travel of the vehicle based on the output of the self-supporting positioning device 10 and the like (step S206). After that, the system controller 20 calculates boundary absolute coordinates, which are the latitude and longitude corresponding to the representative boundary point Pr, based on the current position information and the traveling direction information acquired in step S206 (step S207). For example, the system controller 20 pre-stores a map or formula that associates the relative coordinates in the camera image Ic with the difference in latitude and longitude with respect to the current position for each traveling direction of the vehicle, and refers to the map or formula. Then, the difference in latitude and longitude from the current position is specified and added to the latitude and longitude indicated by the current position information to calculate the boundary absolute coordinates.

図5は、道路領域Ar及び水面領域Awが検出されたカメラ画像Icを示す。図5の例では、システムコントローラ20は、カメラ画像Icに対する公知の画像認識処理に基づき、図4のステップS202で道路領域Arを抽出し、ステップS203で水面領域Awを抽出する。その後、システムコントローラ20は、道路領域Arの中心線が区画線(白線)上であるとみなし、区画線と水面領域Awとの交点のカメラ画像Ic内の相対座標を、代表境界点Prの相対座標として抽出する。その後、システムコントローラ20は、現在位置情報及び車両の進行方向の情報に基づき、代表境界点Prの相対座標を緯度及び経度により表した座標を、境界絶対座標として算出する。 FIG. 5 shows the camera image Ic in which the road area Ar and the water surface area Aw are detected. In the example of FIG. 5, the system controller 20 extracts the road area Ar in step S202 of FIG. 4, and extracts the water surface area Aw in step S203, based on known image recognition processing for the camera image Ic. After that, the system controller 20 assumes that the center line of the road area Ar is on the lane marking (white line), and the relative coordinates in the camera image Ic of the intersection of the lane marking and the water surface area Aw are calculated relative to the representative boundary point Pr. Extract as coordinates. After that, the system controller 20 calculates the coordinates representing the relative coordinates of the representative boundary point Pr in terms of latitude and longitude as boundary absolute coordinates, based on the current position information and the information on the traveling direction of the vehicle.

なお、水面領域Awは本発明における「第1範囲」の一例であり、道路領域Arは本発明における「第2範囲」の一例である。また、代表境界点Prは本発明における「境界位置」の一例であり、境界絶対座標は本発明における「絶対座標」の一例である。 The water surface area Aw is an example of the "first range" in the present invention, and the road area Ar is an example of the "second range" in the present invention. Also, the representative boundary point Pr is an example of the "boundary position" in the present invention, and the boundary absolute coordinates are an example of the "absolute coordinate" in the present invention.

(3)水深算出処理
図6は、水深算出処理の手順を示すフローチャートである。
(3) Water depth calculation processing
FIG. 6 is a flow chart showing the procedure of water depth calculation processing.

まず、システムコントローラ20は、地図データ32に含まれる緯度及び経度ごとの標高を示した道路形状データを参照し、境界位置検出処理で算出した緯度及び経度により表された境界絶対座標に対応する標高「H1」を算出する(ステップS301)。この場合、例えば、システムコントローラ20は、標高が登録された地点間の緯度及び経度の標高を線形補間などの公知の補間処理に基づき適宜補間することで、境界絶対座標に対応する標高を算出する。他の例では、システムコントローラ20は、道路形状データに標高が登録された緯度及び経度のうち、境界絶対座標に最も近い緯度及び経度に対応する標高を、標高H1として定める。この場合、好適には、システムコントローラ20は、水深Dwcの過小評価を避けるため、境界絶対座標に最も近い所定個数(例えば4個)分の標高のうち、最も高い標高を標高H1として定めてもよい。 First, the system controller 20 refers to the road shape data indicating the elevation for each latitude and longitude included in the map data 32, and calculates the elevation corresponding to the boundary absolute coordinates represented by the latitude and longitude calculated in the boundary position detection process. "H1" is calculated (step S301). In this case, for example, the system controller 20 calculates the altitude corresponding to the boundary absolute coordinates by appropriately interpolating the altitudes of the latitude and longitude between the points whose altitudes are registered based on known interpolation processing such as linear interpolation. . In another example, the system controller 20 determines, as the altitude H1, the altitude corresponding to the latitude and longitude closest to the boundary absolute coordinates among the latitudes and longitudes registered in the road shape data. In this case, in order to avoid underestimation of the water depth Dwc, the system controller 20 preferably determines the highest altitude among a predetermined number (for example, four) of altitudes closest to the boundary absolute coordinates as the altitude H1. good.

次に、システムコントローラ20は、図4のステップS203で抽出した水面領域Aw内の緯度経度を、代表境界点の境界絶対座標の算出方法と同様に算出する。そして、システムコントローラ20は、道路形状データから水面領域Aw内の緯度及び経度に対応する各標高を抽出することで、最深部Lwcの標高「H2」を算出する(ステップS302)。この場合、例えば、システムコントローラ20は、道路形状データから抽出した水面領域Aw内の緯度及び経度に対応する各標高のうち、最も低い標高を標高H2として算出する。他の例では、システムコントローラ20は、道路形状データから抽出した水面領域Aw内の緯度、経度及び標高を示す3次元座標点(「データ点」とも呼ぶ。)に基づく曲線又は曲面を算出し、当該曲線又は曲面における標高の最小値を、標高H2として算出してもよい。 Next, the system controller 20 calculates the latitude and longitude within the water surface area Aw extracted in step S203 of FIG. 4 in the same manner as the boundary absolute coordinates of the representative boundary points. Then, the system controller 20 extracts each altitude corresponding to the latitude and longitude within the water surface area Aw from the road shape data, thereby calculating the altitude "H2" of the deepest portion Lwc (step S302). In this case, for example, the system controller 20 calculates the lowest altitude as the altitude H2 among the altitudes corresponding to the latitude and longitude in the water surface area Aw extracted from the road shape data. In another example, the system controller 20 calculates a curve or curved surface based on three-dimensional coordinate points (also referred to as “data points”) indicating latitude, longitude and altitude in the water surface area Aw extracted from the road shape data, The minimum value of altitude on the curve or curved surface may be calculated as the altitude H2.

そして、システムコントローラ20は、ステップS301で算出した標高H1と、ステップS302で算出した標高H2とに基づき、水深Dwcを算出する(ステップS303)。具体的には、システムコントローラ20は、標高H1から標高H2を減算した値を、水深Dwcとして算出する。 Then, the system controller 20 calculates the water depth Dwc based on the altitude H1 calculated in step S301 and the altitude H2 calculated in step S302 (step S303). Specifically, the system controller 20 calculates the water depth Dwc by subtracting the altitude H2 from the altitude H1.

図7は、道路形状データに基づく上述のデータ点を明示した冠水部WCの断面図を示す。図7の例では冠水部WC近傍のデータ点P1~P6が示されている。この場合、システムコントローラ20は、図6のステップS301で算出すべき代表境界点Prでの標高H1を、例えば、代表境界点Prの緯度及び経度(即ち境界絶対座標)に最も近いデータ点P1の標高に定める。他の例では、システムコントローラ20は、境界絶対座標に最も近い2つのデータ点P1、P2を結ぶ補間線を仮想的に求め、当該補間線により定まる境界絶対座標での標高を、標高H1として定めてもよい。 FIG. 7 shows a cross-sectional view of the flooded area WC demonstrating the above data points based on the road geometry data. In the example of FIG. 7, data points P1 to P6 near the flooded area WC are shown. In this case, the system controller 20 calculates the altitude H1 at the representative boundary point Pr to be calculated in step S301 of FIG. Determined by altitude. In another example, the system controller 20 virtually obtains an interpolation line connecting two data points P1 and P2 closest to the boundary absolute coordinates, and defines the altitude at the boundary absolute coordinates determined by the interpolation line as the altitude H1. may

同様に、システムコントローラ20は、図6のステップS302で算出すべき最深部Lwcでの標高H2を、例えば、冠水部WC内のデータ点P2~P6のうち最も低い標高に対応するデータ点P5が示す標高に定める。このように、システムコントローラ20は、地図データ32の道路形状データに登録された標高情報に基づき、標高H1、H2を求め、好適に水深Dwcを算出することができる。 Similarly, the system controller 20 determines the altitude H2 at the deepest portion Lwc to be calculated in step S302 of FIG. Set at the indicated altitude. In this way, the system controller 20 can obtain the altitudes H1 and H2 based on the altitude information registered in the road shape data of the map data 32, and can suitably calculate the water depth Dwc.

(4)表示例
次に、図8~図11を参照してディスプレイ44による具体的な表示例(第1~第4表示例)について説明する。
(4) Display example
Next, specific display examples (first to fourth display examples) on the display 44 will be described with reference to FIGS. 8 to 11. FIG.

図8(A)、(B)は、冠水部WCを検出した場合のディスプレイ44の第1表示例である。図8(A)、(B)の例では、システムコントローラ20は、カメラ2から取得したカメラ画像Icに重ねて、検出した冠水部WCに対する警告を示す警告画像8A、8Bを表示させている。 FIGS. 8A and 8B are first display examples of the display 44 when the submerged portion WC is detected. In the examples of FIGS. 8A and 8B, the system controller 20 superimposes the camera image Ic acquired from the camera 2 and displays warning images 8A and 8B that warn of the detected flooded area WC.

図8(A)、(B)の例では、システムコントローラ20は、水深Dwcに対する第1及び第2閾値を予め記憶しておき、水深Dwcと第1及び第2閾値との比較結果に応じて異なる内容の警告画像8A、8Bを表示させている。ここで、第1閾値は、検出した冠水部WCを通過するのに徐行運転が必要か否かを判定するための閾値(例えば3cm)であり、第2閾値は、検出した冠水部WCを通過可能であるか否かを判定するための水深Dwcに対する閾値(例えば30cm)とする。 In the examples of FIGS. 8A and 8B, the system controller 20 pre-stores first and second thresholds for the water depth Dwc, and according to the result of comparison between the water depth Dwc and the first and second thresholds, Warning images 8A and 8B with different contents are displayed. Here, the first threshold is a threshold (for example, 3 cm) for determining whether slow driving is necessary to pass through the detected submerged area WC, and the second threshold is a threshold for passing through the detected submerged area WC. A threshold value (for example, 30 cm) for the water depth Dwc for determining whether or not it is possible.

具体的に、図8(A)の例では、システムコントローラ20は、算出した水深Dwc(ここでは15cm)が第1閾値よりも大きく、かつ、第2閾値未満であることから、車両の徐行運転が必要であると判断する。よって、この場合、システムコントローラ20は、検出した水深Dwc及び徐行運転すべき旨を示した警告画像8Aを、カメラ画像Icに重畳して表示させている。なお、システムコントローラ20は、警告画像8Aを、水面領域Awと車両側において隣接する道路領域Ar上に重ねることで、路面標示と同様に運転者に視認させている。 Specifically, in the example of FIG. 8A, the system controller 20 determines that the calculated water depth Dwc (here, 15 cm) is greater than the first threshold value and less than the second threshold value. is necessary. Therefore, in this case, the system controller 20 superimposes the detected water depth Dwc and a warning image 8A indicating that the vehicle should be driven slowly on the camera image Ic. The system controller 20 superimposes the warning image 8A on the road area Ar adjacent to the water surface area Aw on the vehicle side so that the driver can see the warning image 8A in the same manner as the road marking.

一方、図8(B)の例では、システムコントローラ20は、算出した水深Dwc(ここでは50cm)が第2閾値よりも大きいことから、冠水部WCを車両が通過できないと判断する。よって、この場合、システムコントローラ20は、検出した水深Dwcと共に通行止めである旨を示した警告画像8Bを、カメラ画像Icに重畳して表示させている。 On the other hand, in the example of FIG. 8B, the system controller 20 determines that the vehicle cannot pass through the flooded area WC because the calculated water depth Dwc (here, 50 cm) is greater than the second threshold. Therefore, in this case, the system controller 20 displays the detected water depth Dwc and a warning image 8B indicating that the road is closed, superimposed on the camera image Ic.

このように、図8(A)、(B)の例によれば、システムコントローラ20は、検出した冠水部WCの水深Dwcに応じて冠水部WCの通行の可否等を好適に通知することができる。なお、図8(A)、(B)の例では、システムコントローラ20は、第1及び第2閾値を用いたが、これに代えて、水深Dwcが第2閾値未満の場合には車両の徐行運転が必要であると判断し、水深Dwcが第2閾値以上の場合に車両の通行が不可であると判断してもよい。即ち、システムコントローラ20は、1つの閾値のみを用いて警告画像の表示内容を決定してもよい。 As described above, according to the examples of FIGS. 8A and 8B, the system controller 20 can appropriately notify whether or not the submerged area WC is passable according to the detected water depth Dwc of the submerged area WC. can. In the examples of FIGS. 8A and 8B, the system controller 20 uses the first and second threshold values, but instead of this, when the water depth Dwc is less than the second threshold value, the vehicle slows down. It may be determined that driving is necessary, and that vehicles cannot pass when the water depth Dwc is equal to or greater than the second threshold. That is, the system controller 20 may determine the display content of the warning image using only one threshold.

図9は、冠水部WCを検出した場合のディスプレイ44の第2表示例である。図9の例では、システムコントローラ20は、カメラ2から取得したカメラ画像Icに重ねて、検出した冠水部WCに対する警告を示す警告画像8Cと、水深Dwcに応じた色分け画像9A、9Bとを表示させている。 FIG. 9 shows a second display example of the display 44 when the submerged portion WC is detected. In the example of FIG. 9, the system controller 20 superimposes on the camera image Ic acquired from the camera 2 a warning image 8C indicating a warning against the detected flooded area WC, and color-coded images 9A and 9B corresponding to the water depth Dwc. I am letting

図9の例では、システムコントローラ20は、例えば、図8(A)、(B)の例と同様に第1及び第2閾値を設け、水深Dwcが第1閾値以上であって第2閾値未満となる水面領域Awに対して所定色(例えば黄色)の色分け画像9Aを重ね、水深Dwcが第2閾値以上となる水面領域Awに対して色分け画像9Aよりも目立つ色(例えばオレンジ)の色分け画像9Bを重ねて表示する。そして、システムコントローラ20は、通行が不可である旨及び検出した水深Dwcを示した警告画像8cを、色分け画像9Bに対応付けて表示させている。この態様によれば、システムコントローラ20は、運転者に対して冠水部WCの深さの分布を明示すると共に、冠水部WCの通行の可否を好適に通知することができる。 In the example of FIG. 9, the system controller 20 sets first and second thresholds, for example, in the same manner as in the examples of FIGS. A color-coded image 9A of a predetermined color (eg, yellow) is superimposed on the water surface region Aw where the water depth Dwc is equal to or greater than the second threshold, and a color-coded image 9A of a color (eg, orange) that is more conspicuous than the color-coded image 9A is superimposed on the water surface region Aw where the water depth Dwc is equal to or greater than the second threshold value. 9B is superimposed and displayed. Then, the system controller 20 displays a warning image 8c indicating that passage is prohibited and the detected water depth Dwc in association with the color-coded image 9B. According to this aspect, the system controller 20 can clearly show the depth distribution of the submerged area WC to the driver and suitably notify the driver of whether or not the submerged area WC is passable.

図10は、冠水部WCを検出した場合のディスプレイ44の第3表示例である。図10の例では、システムコントローラ20は、走行中の道路及び当該道路上で検出した冠水部WCの車両の進行方向に沿った断面図を、道路形状データを参照してグラフィック表示している。また、図10の例では、システムコントローラ20は、第1及び第2表示例と同様に、第1及び第2閾値と検出した水深Dwcとの比較を行い、水深Dwc(ここでは50cm)が第2閾値以上であると判断する。よって、この場合、システムコントローラ20は、断面表示した冠水部WCの通行が不可である旨及び算出した水深Dwcを示した警告画像8Dを表示させている。第3表示例においてディスプレイ44が表示する画像は、本発明における「断面画像」の一例である。 FIG. 10 shows a third display example of the display 44 when the submerged portion WC is detected. In the example of FIG. 10, the system controller 20 graphically displays the cross-sectional view of the road on which the vehicle is traveling and the submerged area WC detected on the road along the traveling direction of the vehicle with reference to the road shape data. Further, in the example of FIG. 10, the system controller 20 compares the detected water depth Dwc with the first and second threshold values in the same manner as in the first and second display examples, and the water depth Dwc (here, 50 cm) is the first value. 2 It is judged that it is more than threshold. Therefore, in this case, the system controller 20 displays a warning image 8D indicating that passage through the submerged area WC displayed in cross section is prohibited and the calculated water depth Dwc. The image displayed by the display 44 in the third display example is an example of the "cross-sectional image" in the present invention.

図11は、冠水部WCを検出した場合のディスプレイ44の第4表示例である。図11の例では、システムコントローラ20は、ディスプレイ44上において、カメラ画像Icに第2表示例と同様に警告画像8C及び色分け画像9A、9Bを重ねた左画面7Aと、冠水部WCが形成される前に左画面7Aに表示されたカメラ画像Icと略同一位置から撮影された画像を表示する右画面7Bとの2画面表示を行っている。 FIG. 11 shows a fourth display example of the display 44 when the submerged portion WC is detected. In the example of FIG. 11, the system controller 20 forms a left screen 7A in which a warning image 8C and color-coded images 9A and 9B are superimposed on the camera image Ic in the same manner as in the second display example, and a submerged portion WC. A two-screen display is performed with the camera image Ic displayed on the left screen 7A before moving and the right screen 7B displaying an image photographed from substantially the same position.

この場合、システムコントローラ20は、左画面7Aを、図9で説明した第2表示例と同様に表示すると共に、右画面7Bに表示すべき画像を、車両から撮影された画像のデータベースを有する図示しないサーバ装置から受信する。この場合、システムコントローラ20は、例えば、自立測位装置10やGPS受信機18の出力に基づく車両の位置情報及び進行方向の情報をサーバ装置に送信することで、車両の位置情報が示す位置及び進行方向の情報が示す方向に対応付けられた撮影画像をサーバ装置から受信する。なお、この場合、例えば、ナビゲーション装置1を搭載する車両を含む各車両は、冠水部WCを検出しなかったときのカメラ画像Icを現在位置情報及び進行方向の情報と関連付けてサーバ装置に送信することで、サーバ装置は、撮影時の車両の位置及び進行方向と対応付けた撮影画像のデータベースを生成及び更新する。なお、図11の例では、システムコントローラ20は、左画面7Aに第2表示例に基づく画像を表示させたが、これに代えて、左画面7Aに第1表示例又は第3表示例に基づく画像を表示させてもよい。 In this case, the system controller 20 displays the left screen 7A in the same manner as in the second display example described with reference to FIG. received from a server device that does not In this case, the system controller 20, for example, transmits the vehicle position information and traveling direction information based on the outputs of the self-supporting positioning device 10 and the GPS receiver 18 to the server device, thereby determining the position and traveling direction indicated by the vehicle position information. A captured image associated with the direction indicated by the direction information is received from the server device. In this case, each vehicle including the vehicle equipped with the navigation device 1, for example, associates the camera image Ic when the submerged portion WC is not detected with the current position information and the traveling direction information and transmits it to the server device. Thus, the server device generates and updates a database of photographed images associated with the position and traveling direction of the vehicle at the time of photographing. In the example of FIG. 11, the system controller 20 causes the left screen 7A to display an image based on the second display example. An image may be displayed.

以上説明したように、本実施例に係るナビゲーション装置1のシステムコントローラ20は、カメラ2が出力するカメラ画像Icに基づき、道路上において冠水している水面領域Awと当該水面領域Aw以外の道路上の道路領域Arとの代表境界位置Prを検出する。そして、システムコントローラ20は、代表境界位置Prの緯度及び経度に基づいて、地図データ32の道路形状データに含まれる標高情報を参照することで、水深Dwcを算出する。これにより、ナビゲーション装置1は、道路上に冠水部WCが存在する場合に、冠水の程度を好適に把握して的確な警告表示を行うことができる。 As described above, the system controller 20 of the navigation device 1 according to the present embodiment, based on the camera image Ic output by the camera 2, detects the flooded water surface area Aw on the road and the road other than the water surface area Aw. A representative boundary position Pr with the road area Ar is detected. Then, the system controller 20 calculates the water depth Dwc by referring to the altitude information included in the road shape data of the map data 32 based on the latitude and longitude of the representative boundary position Pr. As a result, the navigation device 1 can appropriately grasp the degree of flooding and perform an appropriate warning display when there is a flooded portion WC on the road.

[変形例]
以下、実施例の各変形例について説明する。なお、これらの各変形例は、組み合わせて上述の実施例に適用してもよい。
[Modification]
Each modification of the embodiment will be described below. In addition, each of these modifications may be combined and applied to the above embodiment.

(変形例1)
実施例においてナビゲーション装置1が実行した境界位置検出処理及び水深算出処理等を、ナビゲーション装置1とネットワークを介して通信を行うサーバ装置が実行してもよい。
(Modification 1)
A server device that communicates with the navigation device 1 via a network may execute the boundary position detection processing, water depth calculation processing, and the like, which are executed by the navigation device 1 in the embodiment.

図12は、変形例に係る冠水警告システムの構成を示す。図12の例では、冠水警告システムは、ナビゲーション装置1と、カメラ2と、道路形状データを含む地図データ32Aを有するサーバ装置3とを有する。 FIG. 12 shows the configuration of a flood warning system according to a modification. In the example of FIG. 12, the flood warning system has a navigation device 1, a camera 2, and a server device 3 having map data 32A including road shape data.

図12の構成例では、ナビゲーション装置1は、所定間隔ごとに、カメラ2から取得したカメラ画像Icと、自立測位装置10とGPS受信機18との出力又は当該出力に基づき生成した車両の位置情報及び進行方向の情報とを、サーバ装置3へ送信する。この場合、サーバ装置3は、受信したカメラ画像Icと車両の位置情報及び進行方向の情報とに基づき図4に示す境界位置検出処理を行い、冠水部WCを検出した場合には図6に示す水深算出処理をさらに実行する。そして、サーバ装置3は、水深算出処理において水深Dwcを算出した場合、算出した水深Dwcの情報及びナビゲーション装置1が図8~図11等に示した冠水部WCに対する警告表示を行うのに必要な情報を、ナビゲーション装置1へ送信する。そして、この場合、ナビゲーション装置1は、サーバ装置3から受信した情報に基づき、図8~図11等に示した表示を行う。 In the configuration example of FIG. 12 , the navigation device 1 has the camera image Ic acquired from the camera 2 and the output of the self-positioning device 10 and the GPS receiver 18 or the vehicle position information generated based on the output at predetermined intervals. and information on the direction of travel are transmitted to the server device 3 . In this case, the server device 3 performs the boundary position detection processing shown in FIG. 4 based on the received camera image Ic, vehicle position information, and traveling direction information. A water depth calculation process is further executed. When the server device 3 calculates the water depth Dwc in the water depth calculation process, the server device 3 provides the information of the calculated water depth Dwc and the information necessary for the navigation device 1 to perform the warning display for the submerged area WC shown in FIGS. Information is sent to the navigation device 1 . In this case, based on the information received from the server device 3, the navigation device 1 performs the displays shown in FIGS. 8 to 11 and the like.

ここで、サーバ装置3は、上述した第1及び第2閾値と水深Dwcとの比較による冠水部WCの徐行運転の要否や通行可否に関する判定を行い、カメラ画像Icに上述の判定結果に基づく警告画像等を重ねた画像を、ナビゲーション装置1へ送信してもよい。この場合、ナビゲーション装置1は、サーバ装置3から受信した画像をディスプレイ44に表示させる。 Here, the server device 3 determines whether or not slow driving in the submerged area WC is necessary and whether or not passage is possible by comparing the above-described first and second threshold values with the water depth Dwc. You may transmit the image which superimposed the image etc. to the navigation apparatus 1. FIG. In this case, the navigation device 1 causes the display 44 to display the image received from the server device 3 .

また、サーバ装置3は、水深算出処理において算出した水深Dwcの情報及び冠水部WCの位置情報を記憶部に蓄積し、他の車両のナビゲーション装置に送信してもよい。この場合、冠水部WCに関する情報をサーバ装置3から受信したナビゲーション装置は、例えば、冠水部WCが形成された道路を通らない案内ルートを設定する処理を行ったり、地図上に冠水部WCが形成されている位置及びその水深Dwcを表示させたりしてもよい。 Further, the server device 3 may store the information of the water depth Dwc and the position information of the submerged area WC calculated in the water depth calculation process in the storage unit, and may transmit the information to the navigation devices of other vehicles. In this case, the navigation device that has received the information about the flooded area WC from the server device 3, for example, performs a process of setting a guidance route that does not pass through the road on which the flooded area WC is formed, or performs a process of setting a guidance route that does not pass through the road on which the flooded area WC is formed. You may display the position and the water depth Dwc which are carried out.

このように、本変形例の構成例によっても、ナビゲーション装置1は、冠水部WCが存在する場合の徐行運転の要否や通行可否に関する情報を好適に運転者に通知することができる。本変形例では、サーバ装置3は、本発明における「情報処理装置」の一例であり、サーバ装置3のCPUなどは、本発明における「検出手段」、「取得手段」、「標高情報取得手段」、「深さ算出手段」及び本発明におけるプログラムを実行するコンピュータの一例である。 In this way, even with the configuration example of this modified example, the navigation device 1 can suitably notify the driver of information regarding whether or not to drive slowly and whether or not the vehicle can pass when there is a submerged area WC. In this modified example, the server device 3 is an example of the "information processing device" in the present invention, and the CPU of the server device 3 is equivalent to the "detecting means", the "acquisition means", and the "altitude information acquisition means" in the present invention. , “depth calculation means” and a computer that executes the program in the present invention.

(変形例2)
ナビゲーション装置1は、カメラ2から取得したカメラ画像Icに基づき、冠水部WCを検出する代わりに、車両前方の道路上を対象範囲に含む赤外線センサやレーザレンジセンサ(ライダ)などの外界センサの出力に基づき、冠水部WCを検出してもよい。この場合であっても、ナビゲーション装置1は、冠水部WCの水面と冠水していない道路面との温度の違いやレーザの反射率の違い等に基づき、センサの検出対象範囲から、道路領域Ar及び水面領域Awの抽出を行い、代表境界点Prを検出する。このように、ナビゲーション装置1は、カメラ2以外の外界センサの出力によっても、冠水部WCの検出及び水深Dwcの算出を好適に行うことができる。
(Modification 2)
Based on the camera image Ic acquired from the camera 2, instead of detecting the flooded area WC, the navigation device 1 detects the output of an external sensor such as an infrared sensor or a laser range sensor (lidar) whose target range is the road in front of the vehicle. , the submerged portion WC may be detected. Even in this case, the navigation device 1 detects the road area Ar And the water surface area Aw is extracted, and the representative boundary point Pr is detected. In this way, the navigation device 1 can suitably detect the submerged area WC and calculate the water depth Dwc using the output of an external sensor other than the camera 2 .

(変形例3)
ナビゲーション装置1は、道路上に形成された冠水部WCを検出するのに代えて、又はこれに加えて、道路上での積雪部分を検出してもよい。
(Modification 3)
The navigation device 1 may detect a snow-covered portion on the road instead of or in addition to detecting the flooded portion WC formed on the road.

この場合、ナビゲーション装置1は、図3、図4、図6の各フローチャートを実施例と同様に実行することで、積雪部分の積雪の深さを推定し、推定した積雪の深さに応じた警告表示などを行う。なお、図4のフローチャートのステップS203では、システムコントローラ20は、水面領域AWをカメラ画像Icから抽出するのに代えて、積雪部分の領域をカメラ画像Icから抽出する。本変形例によれば、システムコントローラ20は、道路上の積雪部分を検出し、通行可否等に関する情報を好適に運転者に通知することができる。 In this case, the navigation device 1 executes the flowcharts of FIGS. 3, 4, and 6 in the same manner as in the embodiment to estimate the snow depth of the snow-covered portion, and adjust the depth of the snow cover according to the estimated snow depth. Displays warnings, etc. It should be noted that in step S203 of the flowchart in FIG. 4, the system controller 20 extracts the area of the snow-covered portion from the camera image Ic instead of extracting the water surface area AW from the camera image Ic. According to this modified example, the system controller 20 can detect a snow-covered portion of the road and suitably notify the driver of information regarding whether or not the road is passable.

(変形例4)
システムコントローラ20は、水深Dwcに応じた警告画像等をカメラ画像Icに重ねて表示する代わりに、又はこれに加えて、水深Dwcに応じた音声出力ユニット50による音声出力を行ってもよい。
(Modification 4)
The system controller 20 may perform audio output by the audio output unit 50 according to the water depth Dwc instead of or in addition to displaying the warning image or the like corresponding to the water depth Dwc superimposed on the camera image Ic.

この場合、例えば、システムコントローラ20は、図8(A)の例では、警告画像8Aの表示に代えて、又はこれに加えて、前方の冠水部WCの水深Dwcが15cmである旨及び徐行が必要である旨を音声出力する。また、システムコントローラ20は、図8(B)の例では、警告画像8Bの表示に代えて、又はこれに加えて、前方の冠水部WCの水深Dwcが50cmである旨及び通行ができない旨を音声出力する。このように、本変形例によっても、ナビゲーション装置1は、冠水部WCが存在する場合の徐行運転の要否や通行可否に関する情報を好適に運転者に通知することができる。 In this case, for example, in the example of FIG. 8(A), the system controller 20, in place of or in addition to the display of the warning image 8A, indicates that the water depth Dwc of the flooded area WC ahead is 15 cm and that slowing down is indicated. Voice output to the effect that it is necessary. Further, in the example of FIG. 8(B), instead of displaying the warning image 8B or in addition to this, the system controller 20 indicates that the water depth Dwc of the flooded area WC in front is 50 cm and that passage is not possible. Output audio. Thus, according to this modified example, the navigation device 1 can also suitably notify the driver of information regarding whether or not to drive slowly and whether or not the vehicle can pass when there is a submerged area WC.

また、システムコントローラ20は、水深Dwcに応じた警告画像等をカメラ画像Icに重ねてディスプレイ44に表示するのに代えて、図示しないヘッドアップディスプレイにより、水深Dwcに応じた警告画像等を前方風景に重ねて運転者に表示させてもよい。この場合、例えば、ナビゲーション装置1は、車両のフロントウィンドウ又は車室内に設けられたコンバイナに光を出射する光源部と電気的に接続し、光源部の出射を制御することで、水深Dwcに応じた警告画像等を虚像として表示させる。この態様によっても、ナビゲーション装置1は、冠水部WCが存在する場合の徐行運転の要否や通行可否に関する情報を好適に運転者に通知することができる。 In addition, instead of superimposing a warning image or the like corresponding to the water depth Dwc on the display 44 and displaying the warning image or the like corresponding to the water depth Dwc on the display 44, the system controller 20 displays a warning image or the like corresponding to the water depth Dwc using a head-up display (not shown). may be superimposed on and displayed to the driver. In this case, for example, the navigation device 1 is electrically connected to a light source that emits light to the front window of the vehicle or a combiner provided in the interior of the vehicle, and controls the emission of the light source so that the light is emitted according to the water depth Dwc. A warning image or the like is displayed as a virtual image. With this aspect as well, the navigation device 1 can suitably notify the driver of information regarding whether or not to drive slowly and whether or not the vehicle can pass when there is a submerged area WC.

(変形例5)
ナビゲーション装置1は、ナビゲーション装置1が車両を自動制御する自動運転機能を有する場合などでは、冠水部WCを検出した場合に、警告を出力する代わりに、自動運転に検出した冠水部WC及び水深Dwcの情報を自動運転に使用してもよい。例えば、ナビゲーション装置1は、水深Dwcが第1閾値以上第2閾値未満の場合には検出した冠水部WCを徐行運転により通過し、水深Dwcが第2閾値以上の場合には車両の停止などを行う。
(Modification 5)
In the case where the navigation device 1 has an automatic driving function for automatically controlling the vehicle, the navigation device 1 detects the submerged part WC instead of outputting a warning when the submerged part WC is detected, and automatically detects the submerged part WC and the water depth Dwc. information may be used for automated driving. For example, when the water depth Dwc is greater than or equal to a first threshold and less than a second threshold, the navigation device 1 drives slowly through the detected flooded area WC, and when the water depth Dwc is greater than or equal to the second threshold, the vehicle is stopped. conduct.

1 ナビゲーション装置
2 カメラ
3 サーバ装置
10 自立測位装置
12 GPS受信機
20 システムコントローラ
22 CPU
31 データ記憶ユニット
38 通信装置
40 表示ユニット
44 ディスプレイ
50 音声出力ユニット
60 入力装置
REFERENCE SIGNS LIST 1 navigation device 2 camera 3 server device 10 self-supporting positioning device 12 GPS receiver 20 system controller 22 CPU
31 data storage unit 38 communication device 40 display unit 44 display 50 audio output unit 60 input device

Claims (1)

撮像装置又はセンサの出力結果に基づき、道路上において冠水又は積雪している第1範囲と当該第1範囲と異なる第2範囲との境界位置を検出する検出手段と、
前記境界位置に基づいて、前記第1範囲における冠水又は積雪の深さを取得する取得手段と、
を備える情報処理装置。
detection means for detecting a boundary position between a first range covered with water or snow on the road and a second range different from the first range, based on the output result of the imaging device or the sensor;
acquisition means for acquiring the depth of flooding or snow coverage in the first range based on the boundary position;
Information processing device.
JP2023035208A 2016-07-29 2023-03-08 Information processing device, control method, program and storage medium Pending JP2023067985A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023035208A JP2023067985A (en) 2016-07-29 2023-03-08 Information processing device, control method, program and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016150252A JP2018018424A (en) 2016-07-29 2016-07-29 Information processing device, control method, program and storage medium
JP2021092160A JP2021152917A (en) 2016-07-29 2021-06-01 Information processing device, control method, program and storage medium
JP2023035208A JP2023067985A (en) 2016-07-29 2023-03-08 Information processing device, control method, program and storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021092160A Division JP2021152917A (en) 2016-07-29 2021-06-01 Information processing device, control method, program and storage medium

Publications (1)

Publication Number Publication Date
JP2023067985A true JP2023067985A (en) 2023-05-16

Family

ID=61075304

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016150252A Pending JP2018018424A (en) 2016-07-29 2016-07-29 Information processing device, control method, program and storage medium
JP2021092160A Pending JP2021152917A (en) 2016-07-29 2021-06-01 Information processing device, control method, program and storage medium
JP2023035208A Pending JP2023067985A (en) 2016-07-29 2023-03-08 Information processing device, control method, program and storage medium

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2016150252A Pending JP2018018424A (en) 2016-07-29 2016-07-29 Information processing device, control method, program and storage medium
JP2021092160A Pending JP2021152917A (en) 2016-07-29 2021-06-01 Information processing device, control method, program and storage medium

Country Status (1)

Country Link
JP (3) JP2018018424A (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7101112B2 (en) * 2018-12-27 2022-07-14 太陽誘電株式会社 Water level measurement system, information processing device and water level measurement method
JP7132137B2 (en) * 2019-01-24 2022-09-06 トヨタ自動車株式会社 Information processing device, information processing system, program, and information processing method
US11220269B2 (en) * 2019-04-02 2022-01-11 International Business Machines Corporation Fording depth estimation
JP7165110B2 (en) * 2019-09-24 2022-11-02 東芝情報システム株式会社 road information distribution system, road information distribution device, road information distribution program
WO2021234837A1 (en) * 2020-05-20 2021-11-25 三菱電機株式会社 Flooding detection device and flooding detection method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2904531B2 (en) * 1990-02-20 1999-06-14 株式会社オプテック Snowfall measurement device
JP2004341795A (en) * 2003-05-15 2004-12-02 Toyota Motor Corp Road traffic information system, submersion detector, navigation system and vehicle
JP2011226961A (en) * 2010-04-21 2011-11-10 Nakanihon Highway Engineering Nagoya Kk Neutralization depth measuring method and neutralization determining method
JP5817303B2 (en) * 2011-08-03 2015-11-18 富士通株式会社 Flood monitoring system
JP2016062113A (en) * 2014-09-12 2016-04-25 株式会社建設技術研究所 Puddle distribution prediction system, puddle distribution measurement device and puddle distribution prediction program

Also Published As

Publication number Publication date
JP2018018424A (en) 2018-02-01
JP2021152917A (en) 2021-09-30

Similar Documents

Publication Publication Date Title
JP2023067985A (en) Information processing device, control method, program and storage medium
JP5473304B2 (en) Remote location image display device, remote control device, vehicle control device, remote control system, remote control method, remote control program, vehicle control program, remote location image display method, remote location image display program
EP2881710B1 (en) Camera parameter computation device, navigation system, and camera parameter computation method
EP2372309B1 (en) Vehicle position detection system
US8791996B2 (en) Image processing system and position measurement system
EP2372308B1 (en) Image processing system and vehicle control system
JP5808369B2 (en) Overhead image generation device, overhead image generation method, and overhead image generation program
EP3489928A1 (en) Traveling road boundary estimation apparatus and traveling assistance system using same
KR101214582B1 (en) Image editing system with increasing understanding of aerial images
US20160257307A1 (en) Detailed map format for autonomous driving
CN102222236A (en) Image processing system and position measurement system
JP2005098853A (en) Map data updating method and map data updating apparatus
EP3900997A1 (en) Method of and system for controlling operation of self-driving car
JP2020097399A (en) Display control device and display control program
JP2009075933A (en) Position calculation device in branched road, position calculation method in branched road, and position calculation program in branched road
US20170120819A1 (en) Information display control system and method of controlling display of information
JP2011052960A (en) Navigation device
JP2007257299A (en) Vehicle external recognition system
US8666655B2 (en) Systems and methods for navigation
JP2016162424A (en) Estimation device, estimation method, and program
KR101588787B1 (en) Method for determining lateral distance of forward vehicle and head up display system using the same
WO2004048895A1 (en) Moving body navigate information display method and moving body navigate information display device
EP3339808B1 (en) Positioning objects in an augmented reality display
KR101439410B1 (en) navigation system and method for displaying three-dimensional crossroad thereof
JP2017117105A (en) Visibility determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240305