JP2017120238A - Navigation information providing system and navigation information providing device - Google Patents

Navigation information providing system and navigation information providing device Download PDF

Info

Publication number
JP2017120238A
JP2017120238A JP2015257498A JP2015257498A JP2017120238A JP 2017120238 A JP2017120238 A JP 2017120238A JP 2015257498 A JP2015257498 A JP 2015257498A JP 2015257498 A JP2015257498 A JP 2015257498A JP 2017120238 A JP2017120238 A JP 2017120238A
Authority
JP
Japan
Prior art keywords
image
lane
vehicle
camera
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015257498A
Other languages
Japanese (ja)
Other versions
JP6723744B2 (en
Inventor
山田 哲
Satoru Yamada
哲 山田
三田 勝史
Katsushi Mita
勝史 三田
難波 利行
Toshiyuki Nanba
利行 難波
勝彦 岡部
Katsuhiko Okabe
勝彦 岡部
五策 寺林
Gosaku Terabayashi
五策 寺林
井上 岳
Takeshi Inoue
岳 井上
重則 藤巻
Shigenori Fujimaki
重則 藤巻
朋子 尾崎
Tomoko Ozaki
朋子 尾崎
森 一夫
Kazuo Mori
一夫 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Asia Air Survey Co Ltd
Original Assignee
Toyota Motor Corp
Asia Air Survey Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Asia Air Survey Co Ltd filed Critical Toyota Motor Corp
Priority to JP2015257498A priority Critical patent/JP6723744B2/en
Publication of JP2017120238A publication Critical patent/JP2017120238A/en
Application granted granted Critical
Publication of JP6723744B2 publication Critical patent/JP6723744B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a navigation information providing system that enables a driver to easily learn a lane to a destination and easily learn the situation ahead of a vehicle even when another vehicle is in front of the vehicle.SOLUTION: A navigation information providing system is mounted in each of the vehicles 10 (10a, 10b,...), receives vehicle information Ji including the terminal number from a navigation terminal 14 with an on-vehicle camera, number of a camera recognition self-driving lane, current position, destination, and image photographed by the on-vehicle camera, and transmits transmission data SDJi generated on the basis of the vehicle information Ji (color displaying the lane leading to the destination, arrow display of the direction of travel, arrow display of lane change, and changed portion) from a data center 100 to the navigation terminal 14 with an on-vehicle camera.SELECTED DRAWING: Figure 1

Description

本発明は、ナビ情報提供システムに関する。   The present invention relates to a navigation information providing system.

近年のナビゲーション端末は、直感的に見やすこという理由等により任意の視点から眺めたナビゲーション地図を三次元表示するものがある。   Some recent navigation terminals display a navigation map viewed from an arbitrary viewpoint in a three-dimensional manner for reasons such as intuitive viewing.

例えば特許文献1の地図表示装置には、「地図構成物の三次元データのうち、地図構成物の地表面における2次元データを基に、所定地点を中心としたときに得られる投影図を表示する。ここで、GPSで取得した現在位置から所定距離だけ離れた車外の上空に対応する三次元座標系上の位置に視点位置を設定する」と記載している(段落0065参照)。   For example, the map display device of Patent Document 1 displays “a projection view obtained when a predetermined point is the center based on two-dimensional data on the ground surface of a map component among the three-dimensional data of the map component. Here, the viewpoint position is set at a position on the three-dimensional coordinate system corresponding to the sky outside the vehicle that is a predetermined distance away from the current position acquired by GPS (see paragraph 0065).

つまり、特許文献1の地図表示装置は、GPSで取得した現在位置を基準にして概ね運転者が見える範囲を想定して建物、道路、交差点等を表示している。   In other words, the map display device of Patent Document 1 displays buildings, roads, intersections, and the like assuming a range that the driver can generally see based on the current position acquired by GPS.

また、特許文献2のカーナビゲーションシステムは、カメラで撮影した実写真画像とCG画像とを組み合わせた直感的に分かりやすいナビゲーション画面を提供するものである。   In addition, the car navigation system disclosed in Patent Document 2 provides an intuitively easy-to-understand navigation screen that combines a real photo image taken with a camera and a CG image.

そして、このナビゲーション装置には、カメラで撮影した実写画像の道路に車両の現在位置Pを示す記号が表示されている(図5参照)。   In this navigation device, a symbol indicating the current position P of the vehicle is displayed on the road of the photographed image taken by the camera (see FIG. 5).

特許第3766657号公報Japanese Patent No. 3766657 特開平11−108684号公報JP-A-11-108684

しかしながら、首都圏の高速道路の入り口付近は、高速道路に入るレーンと一般道とが並行に並んでいる場合がある。   However, in the vicinity of the entrance of the expressway in the metropolitan area, a lane entering the expressway and a general road may be arranged in parallel.

ところが、特許文献1の地図表示装置は、GPSで取得した現在位置を基準にして概ね運転者が見える範囲を想定して建物、道路、交差点等を含む三次元画像を表示している。   However, the map display device of Patent Document 1 displays a three-dimensional image including buildings, roads, intersections, and the like assuming a range where the driver can generally see the current position acquired by GPS.

このため、画面には高速道路の入り口に向かうレーン以外に一般道も表示されているので高速道路のレーンに乗るには運転者はこのまま直進すればよいのか、レーンを変える必要があるのかを容易に判断できない。   For this reason, on the screen, a general road is also displayed in addition to the lane heading to the entrance of the expressway, so it is easy for the driver to go straight on or to change the lane to get on the expressway lane I cannot judge.

このため、高速道路の入り口に向かうレーンに乗るタイミングを逸する場合があった。   For this reason, the timing of getting on the lane toward the entrance of the expressway may be missed.

また、特許文献1の地図表示装置は、GPSで取得した現在位置を基準にして概ね運転者が見える範囲を想定して建物、道路、交差点等を含む三次元画像を表示している。このため、その先が急なカーブになっているか、落下物があるのか、事故があるのかが分からない。つまり、先がどうなっているかがわからない
一方、特許文献2のナビゲーション装置は、カメラで撮影した実写画像の道路(レーン)に車両の現在位置Pを示す記号を表示することが開示されているが、そのレーンが目的地点に向かうレーンであるかは容易に知ることができない。
Moreover, the map display apparatus of patent document 1 is displaying the three-dimensional image containing a building, a road, an intersection, etc. supposing the range which a driver | operator can see roughly on the basis of the present position acquired by GPS. For this reason, it is not known whether there is a sharp curve, a fallen object, or an accident. That is, it is not known what the destination is, while the navigation device of Patent Document 2 discloses that a symbol indicating the current position P of the vehicle is displayed on a road (lane) of a photographed image taken by a camera. It is not easy to know whether the lane is a lane toward the destination point.

また、特許文献2のナビゲーション装置は、車載カメラの実写画像をCG画像(P記号)と組み合わせて表示するが、前方の数十メートル先に車両が存在した場合は、その車両の画像も表示されることになる。このため、自車両の位置を示す記号Pを表示したとしても、その案内画面は非常に分かり難いと共に、走行中に実写画像を見ることになるから危険である。   In addition, the navigation device of Patent Document 2 displays a live-action image of an in-vehicle camera in combination with a CG image (P symbol). If a vehicle exists several tens of meters ahead, an image of the vehicle is also displayed. Will be. For this reason, even if the symbol P indicating the position of the host vehicle is displayed, the guidance screen is very difficult to understand, and it is dangerous because a live-action image is seen during traveling.

さらに、特許文献2のナビゲーション装置は、実写画像を表示したとしても、前に大型車があった場合は、その先がどうなっているかが分からない。   Furthermore, even if the navigation device of Patent Document 2 displays a live-action image, if there is a large vehicle in front, it does not know what the future is.

本発明は以上の課題を鑑みてなされたものであり、目的地に向かうレーンを容易に知ることができると共に、前方に車両があっても前方がどのようになっているかを容易に知ることができるシステムを得ることを目的とする。   The present invention has been made in view of the above problems, and can easily know the lane toward the destination, and can easily know what the front is like even if there is a vehicle ahead. The purpose is to obtain a system that can do this.

本発明に係るナビ情報提供システムは、車両に搭載されて車載カメラ付ナビ端末からの端末番号(Jbi)とカメラ認識自走レーン番号(CZBRi)と現在位置(GPi)と目的地(Poi)と車載カメラ撮影画像(CGi)とを含む車両情報(Ji)を受信し、この車両情報(Ji)に基づいて作成した送信データ(SDJi)をデータセンタから前記車載カメラ付ナビ端末に提供するナビ情報提供システムであって、
前記車載カメラ付ナビ端末は、
GPS受信機と、
前記車両の前方を撮影して得た車載カメラ撮影画像(CGi)上にカメラ視線中心を定義し、このカメラ視線中心を挟む車線(Di)と車線(Di)との間のレーンをカメラ認識自走レーン(CZRi)としてこのレーンの画像座標を求め、撮影時刻(Cti)、前記車載カメラ撮影画像(CGi)、前記レーンの中心の画像座標とを含む情報を車載カメラ撮影画像情報(CJi)として出力する車載カメラ部と、
前記車載カメラ撮影画像情報(CJi)を入力する毎に、この車載カメラ撮影画像情報(CJi)に前記GPS受信機からの現在位置(GPi)、端末番号(Jbi)、目的地(Poi)を含む情報を付加した車両情報(Ji)を前記データセンタに送信する一方、画面に前記データセンタからの送信データ(SDJi)に基づくドライバ視線画像(DHi)を表示するナビ端末とを備え、
前記データセンタは、サーバ群を備え、
前記サーバ群は、
前記車両が走行する道路を含む三次元地図モデル(Mi)及びこの三次元地図モデル(Mi)の道路であるレーンに該当する道路ネットワーク(DWi)を関連付けて記憶した三次元地図情報用サーバと、
前記車両情報(Ji)を受信して蓄積する車両情報蓄積用サーバと、レーン種類ドライバ視線画像作成用サーバと、送信データ作成用サーバとを備え、
前記レーン種類ドライバ視線画像作成用サーバは、
前記車両に提供するドライバ視線画像(DHi)が記憶されるドライバ画像情報提供用メモリ部を備え、
前記車両情報(Ji)が蓄積される毎に、この車両情報(Ji)に含まれているドライバ視線位置(DSi)を三次元地図モデル上ドライバ視点位置(DMPi)として前記三次元地図モデル(Mi)上に設定する手段と、
前記三次元地図モデル上ドライバ視点位置(DMPi)における前記車載カメラ部の画角での前記三次元地図モデル(Mi)上の画像領域をドライバ視線画像(DHi)として読み込み、これを前記ドライバ画像情報提供用メモリ部に記憶する手段と、
前記目的地(Poi)の地理座標を有する前記道路ネットワーク(DWi)のネットワークレーン(NRi)を目的地到達ネットワークレーン(PNRi)として三次元地図情報用サーバから検索する手段と、
前記ドライバ視線画像(DHi)における前記目的地到達ネットワークレーン(PNRi)に該当するドライバ視線画像上目的地到達レーン(PDRi)を決定し、このドライバ視線画像上目的地到達レーン(PDRi)上に目的地到達ネットワークレーン(PNRi)であることを示す目的地到達レーン表示色(Fi)を定義する手段とを備え、
前記送信データ作成用サーバは、
前記ドライバ画像情報提供用メモリ部のドライバ視線画像(DHi)に前記目的地到達レーン表示色(Fi)が定義される毎に、これらを送信データ(SDJi)として前記車両情報(Ji)に含まれている前記端末番号(Jbi)の前記ナビ端末に送信する手段とを備えたことを要旨とする。
The navigation information providing system according to the present invention is equipped with a terminal number (Jbi), a camera recognition self-propelled lane number (CZBRi), a current position (GPi), and a destination (Poi) mounted on a vehicle and mounted on a vehicle. Navigation information for receiving vehicle information (Ji) including an in-vehicle camera photographed image (CGi) and providing transmission data (SDJi) created based on the vehicle information (Ji) from the data center to the navigation terminal with in-vehicle camera Providing system,
The vehicle-mounted camera-equipped navigation terminal is
A GPS receiver,
A camera sight line center is defined on an in-vehicle camera photographed image (CGi) obtained by photographing the front of the vehicle, and the lane between the lane (Di) and the lane (Di) sandwiching the camera sight line center is recognized by the camera. Image coordinates of this lane are obtained as a running lane (CZRi), and information including the photographing time (Cti), the on-vehicle camera photographed image (CGi), and the image coordinate of the center of the lane is designated as on-vehicle camera photographed image information (CJi). An in-vehicle camera unit to output,
Each time the in-vehicle camera captured image information (CJi) is input, the in-vehicle camera captured image information (CJi) includes the current position (GPi), terminal number (Jbi), and destination (Poi) from the GPS receiver. A navigation terminal that transmits vehicle information (Ji) to which information is added to the data center, and displays a driver line-of-sight image (DHi) based on transmission data (SDJi) from the data center on the screen;
The data center includes a server group,
The server group is:
A three-dimensional map information server storing a three-dimensional map model (Mi) including a road on which the vehicle is traveling and a road network (DWi) corresponding to a lane that is a road of the three-dimensional map model (Mi);
A vehicle information storage server that receives and stores the vehicle information (Ji), a lane type driver line-of-sight image creation server, and a transmission data creation server;
The lane type driver line-of-sight image creation server is:
A driver image information providing memory unit that stores a driver's line-of-sight image (DHi) to be provided to the vehicle;
Each time the vehicle information (Ji) is accumulated, the driver visual line position (DSi) included in the vehicle information (Ji) is set as the driver viewpoint position (DMPi) on the three-dimensional map model and the three-dimensional map model (Mi ) Means to set above,
An image region on the three-dimensional map model (Mi) at the angle of view of the in-vehicle camera unit at the driver viewpoint position (DMPi) on the three-dimensional map model is read as a driver line-of-sight image (DHi), and this is read as the driver image information Means for storing in the providing memory unit;
Means for retrieving a network lane (NRi) of the road network (DWi) having the geographical coordinates of the destination (Poi) as a destination arrival network lane (PNRi) from a 3D map information server;
A destination arrival lane (PDRi) on the driver line-of-sight image corresponding to the destination arrival network lane (PNRi) in the driver line-of-sight image (DHi) is determined, and the destination on the driver line-of-sight image on the destination arrival lane (PDRi) Means for defining a destination arrival lane display color (Fi) indicating a destination arrival network lane (PNRi),
The transmission data creation server includes:
Each time the destination arrival lane display color (Fi) is defined in the driver line-of-sight image (DHi) of the driver image information providing memory unit, these are included in the vehicle information (Ji) as transmission data (SDJi). And means for transmitting the terminal number (Jbi) to the navigation terminal.

以上のように本発明によれば、目的地に到達するレーンを容易に知ることができると共に、前方に車両があっても前方がどのようになっているかを容易に知ることができる。   As described above, according to the present invention, it is possible to easily know the lane that reaches the destination, and it is also possible to easily know how the front is like even if there is a vehicle ahead.

また、どのタイミングで目的地に到達するレーンに乗ればよいかが容易に画面上から把握できる。   In addition, it is possible to easily grasp from the screen which timing should be used to get to the lane that reaches the destination.

本実施の形態の車載カメラ画像を用いたナビ情報提供システムの概略構成図である。It is a schematic block diagram of the navigation information provision system using the vehicle-mounted camera image of this Embodiment. 撮影カメラ付ナビ部の概略構成図である。It is a schematic block diagram of a navigation part with a photographing camera. レーン種類ドライバ視線画像作成用サーバ130の概略構成図である。It is a schematic block diagram of the server 130 for lane type driver visual line image creation. カメラ画像三次元モデル生成用サーバ150の概略構成図である。3 is a schematic configuration diagram of a camera image three-dimensional model generation server 150. FIG. 車載カメラ画像を用いたナビ情報提供システムの概略全体動作を説明するシーケンス図である。It is a sequence diagram explaining the general | schematic whole operation | movement of the navigation information provision system using a vehicle-mounted camera image. ナビ端末13に表示されるドライバ視線画像DHi、目的地到達レーン表示、自車両進行方向矢印を説明する説明図である。It is explanatory drawing explaining the driver | operator eyes | visual_axis image DHi displayed on the navigation terminal 13, the destination arrival lane display, and the own vehicle advancing direction arrow. ナビ端末13に表示されるレーン変更矢印HZYi(赤色)を含むドライバ視線画像DHiを説明する説明図である。It is explanatory drawing explaining the driver | operator eyes | visual_axis image DHi containing the lane change arrow HZYi (red) displayed on the navigation terminal 13. FIG. ナビ端末13に表示されるカメラ画像上変化検出領域付ドライバ視線画像CMHDGiを説明する説明図である。It is explanatory drawing explaining the driver visual line image CMHDGi with a change detection area on a camera image displayed on the navigation terminal. ナビ端末13に表示されるカメラ画像三次元モデルCMi付のドライバ視線画像DHiを説明する説明図である。It is explanatory drawing explaining the driver eyes | visual_axis image DHi with the camera image three-dimensional model CMi displayed on the navigation terminal 13. FIG.

以下に示す本実施の形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構造、配置は下記のものに特定するものではない。   The following embodiments exemplify apparatuses and methods for embodying the technical idea of the present invention, and the technical idea of the present invention is specified as follows in terms of structure and arrangement. It is not a thing.

本発明の技術的思想は、特許請求の範囲に記載された技術的範囲内において、種々の変更を加えることができる。図面は模式的なものであり、装置やシステムの構成等は現実のものとは異なることに留意すべきである。   The technical idea of the present invention can be variously modified within the technical scope described in the claims. It should be noted that the drawings are schematic and the configuration of the apparatus and system is different from the actual one.

図1は本実施の形態の車載カメラ画像を用いたナビ情報提供システムの概略構成図である。   FIG. 1 is a schematic configuration diagram of a navigation information providing system using an in-vehicle camera image according to the present embodiment.

図1に示すように車載カメラ画像を用いたナビ情報提供システムは、車両10(10a、10b、・・・)に設けられた車載カメラ部12と、ナビ端末13と、データセンタ100に設けた複数のサーバとからなるシステムである。この車載カメラ部12とナビ端末13とを総称して車載カメラ付ナビ端末14と称する。   As shown in FIG. 1, the navigation information providing system using the in-vehicle camera image is provided in the in-vehicle camera unit 12 provided in the vehicle 10 (10a, 10b,...), The navigation terminal 13, and the data center 100. It is a system consisting of multiple servers. The in-vehicle camera unit 12 and the navigation terminal 13 are collectively referred to as an in-vehicle camera-equipped navigation terminal 14.

前述の車載カメラ部12は、図2に示すように、車両10(10a、10b、・・・)の内部のフロントガラスの例えば左右に設けられた右車載カメラ12aと左車載カメラ12bとで構成され、カメラコントローラ15によって一定時間毎(例えば100msec、200msec、・・・)に前方の画像を撮影する。右車載カメラ12aと左車載カメラ12bとカメラコントローラ15とを総称して撮影カメラ付ナビ部16と称する。   As shown in FIG. 2, the vehicle-mounted camera unit 12 includes a right vehicle-mounted camera 12a and a left vehicle-mounted camera 12b provided on the left and right sides of the windshield inside the vehicle 10 (10a, 10b,...), For example. Then, the camera controller 15 captures a forward image at regular intervals (for example, 100 msec, 200 msec,...). The right in-vehicle camera 12a, the left in-vehicle camera 12b, and the camera controller 15 are collectively referred to as a photographing camera equipped navigation unit 16.

カメラコントローラ15は、右車載カメラ12aが撮影した右カメラ画像Caiと左車載カメラ12bが撮影した左カメラ画像Cbiとを合成した車載カメラ撮影画像CGiを生成する。そして、この車載カメラ撮影画像CGiを解析して車線Diを認識する。例えば、最も右端の車線Diから車線D1、車線D2・・・とし、車線D1と車線D2との間のレーンをカメラ認識レーンCR1、車線D2と車線D3との間のレーンをカメラ認識レーンCR2・・という具合に認識する。そして、車両10が現在走行しているレーンをカメラ認識自走レーンCZRiとする。   The camera controller 15 generates a vehicle-mounted camera shot image CGi obtained by combining the right camera image Cai shot by the right vehicle-mounted camera 12a and the left camera image Cbi shot by the left vehicle-mounted camera 12b. Then, the in-vehicle camera photographed image CGi is analyzed to recognize the lane line Di. For example, from the rightmost lane Di to the lane D1, lane D2,..., The lane between the lane D1 and the lane D2 is the camera recognition lane CR1, and the lane between the lane D2 and the lane D3 is the camera recognition lane CR2.・ Recognize the situation. The lane in which the vehicle 10 is currently traveling is defined as a camera recognition self-running lane CZRi.

そして、撮影時刻Cti(年月日、時刻)と、カメラ番号Jci(右カメラ番号Jcai、左カメラ番号Jcbi)と、車載カメラ撮影画像CGiとを組とした車載カメラ撮影画像情報CJiをナビ端末13に出力する。   The in-vehicle camera photographed image information CJi, which is a set of the photographing time Cti (year / month / day, time), camera number Jci (right camera number Jcai, left camera number Jcbi), and in-vehicle camera photographed image CGi, is used as the navigation terminal 13. Output to.

ナビ端末13は、例えば図2に示すように、車両10(10a、10b、・・・)内のフロントパネル(図示せず)に設けられている。このナビ端末13は、図示しないGPS受信機、慣性航法装置及び送受信器を内部に備え、カメラコントローラ15からの車載カメラ撮影画像情報CJi(撮影時刻Cti、カメラ番号Jci、車載カメラ撮影画像CGi(カメラ認識自走レーンCZRiを含む))を入力する。   As shown in FIG. 2, for example, the navigation terminal 13 is provided on a front panel (not shown) in the vehicle 10 (10a, 10b,...). The navigation terminal 13 includes a GPS receiver, an inertial navigation device, and a transmitter / receiver which are not shown, and includes in-vehicle camera captured image information CJi (imaging time Cti, camera number Jci, in-vehicle camera captured image CGi (camera) from the camera controller 15. The recognition self-running lane CZRi is included))).

そして、車載カメラ撮影画像情報CJiに車両番号Jaiと端末番号Jbiと姿勢θiと速度Viと目的地Poiと現在位置GPiとハンドル角Hθi(無くても構わない)と運転者によって入力されたドライバ視線位置DSi等を組とする車両情報Jiをデータセンタ100(ナビ情報提供装置ともいう)に送信する。   The vehicle number Jai, the terminal number Jbi, the posture θi, the speed Vi, the destination Poi, the current position GPi, the steering wheel angle Hθi (which may be omitted), and the driver's line of sight input by the driver are included in the in-vehicle camera captured image information CJi. The vehicle information Ji including the position DSi and the like is transmitted to the data center 100 (also referred to as a navigation information providing device).

また、データセンタ100から送信データSDJiを受信する毎に、ブラウザ機能でこの送信データSDJiに基づく画像を画面13aに表示する。   Further, every time the transmission data SDJi is received from the data center 100, an image based on the transmission data SDJi is displayed on the screen 13a by the browser function.

(データセンタ100の構成)
データセンタ100は、以下に示す手段を有している。図1に示すように、車両情報蓄積用サーバ110(車両情報蓄積部ともいう)と、振分サーバ120(受信情報振分部ともいう)と、レーン種類ドライバ視線画像作成用サーバ130(レーン種類ドライバ視線画像情報作成部ともいう)と、カメラ画像三次元モデル生成用サーバ150(カメラ画像三次元モデル作成部ともいう)と、三次元モデル更新用サーバ160(三次元モデル更新部ともいう)と、送信データ作成用サーバ170(送信データ作成部ともいう)と、三次元地図情報用サーバ180(三次元地図情報用記憶部ともいう)と、変化検出用サーバ190(変化検出部ともいう)等からなる。
(Configuration of data center 100)
The data center 100 has the following means. As shown in FIG. 1, a vehicle information storage server 110 (also referred to as a vehicle information storage unit), a distribution server 120 (also referred to as a reception information distribution unit), and a lane type driver line-of-sight image creation server 130 (lane type). A driver gaze image information creation unit), a camera image 3D model generation server 150 (also referred to as a camera image 3D model creation unit), and a 3D model update server 160 (also referred to as a 3D model update unit). A transmission data creation server 170 (also referred to as a transmission data creation unit), a 3D map information server 180 (also referred to as a 3D map information storage unit), a change detection server 190 (also referred to as a change detection unit), etc. Consists of.

車両情報蓄積用サーバ110は、車両10(10a、10b・・)からの車両情報Jiを受信して図示しないメモリに蓄積する。   The vehicle information storage server 110 receives vehicle information Ji from the vehicle 10 (10a, 10b,...) And stores it in a memory (not shown).

振分サーバ120は、車両情報蓄積用サーバ110に車両情報Jiが蓄積される毎に、この車両情報Jiに含まれている撮影時刻Cti、カメラ番号Jci、車載カメラ撮影画像CGi、姿勢θi、速度Vi、現在位置GPi、ハンドル角Hθi等を車載カメラ撮影画像情報CJiとしてカメラ画像三次元モデル生成用サーバ150に出力(振分け)する。   Each time the vehicle information Ji is stored in the vehicle information storage server 110, the distribution server 120 captures the photographing time Cti, camera number Jci, in-vehicle camera photographed image CGi, attitude θi, speed, and speed included in the vehicle information Ji. Vi, the current position GPi, the handle angle Hθi, and the like are output (distributed) to the camera image three-dimensional model generation server 150 as in-vehicle camera captured image information CJi.

また、車両情報Jiの車両番号Jaiと端末番号Jbiと姿勢θiと速度Viと目的地Poiと現在位置GPiとハンドル角Hθiと撮影時刻Ctiとドライバ視線位置DSi等をカメラ認識自走行レーン情報CZJiとしてレーン種類ドライバ視線画像作成用サーバ130に出力(振分け)する。   Further, the vehicle number Jai, the terminal number Jbi, the attitude θi, the speed Vi, the destination Poi, the current position GPi, the steering wheel angle Hθi, the photographing time Cti, the driver's line-of-sight position DSi, and the like of the vehicle information Ji are used as camera recognition self-running lane information CZJi. The lane type driver visual line image creation server 130 outputs (sorts).

三次元地図情報用サーバ180は、道路のレーンを定義した道路ネットワークDWiを記憶している。この道路ネットワークDWiで定義されたレーンを本実施の形態ではネットワークレーンNRiと称する。   The three-dimensional map information server 180 stores a road network DWi that defines road lanes. In this embodiment, the lane defined by the road network DWi is called a network lane NRi.

また、三次元地図情報用サーバ180は、三次元地図モデルMiを記憶している。この三次元地図モデルMiは、衛生画像、航空写真測量、航空レーザ測量、移動体計測車両によるレーザ計測又は車両10(10a、10b、・・・)に設けられた車載カメラ部12で撮影した車載カメラ撮影画像CGiに基づいて作成した三次元地図モデルMiである。   The 3D map information server 180 stores a 3D map model Mi. This three-dimensional map model Mi is an in-vehicle image taken by a vehicle camera unit 12 provided in a sanitary image, aerial photogrammetry, aerial laser surveying, laser measurement by a moving body measurement vehicle, or a vehicle 10 (10a, 10b,...). It is the three-dimensional map model Mi created based on the camera photographed image CGi.

レーン種類ドライバ視線画像作成用サーバ130は、振分サーバ120からの車両情報Jiに含まれているカメラ認識自走行レーン情報CZJiを受信する毎に、このカメラ認識自走行レーン情報CZJiに含まれている目的地Poiの地理座標を有するネットワークレーンNRiを三次元地図情報用サーバ180から検索する。   The lane type driver line-of-sight image creation server 130 is included in the camera recognition own traveling lane information CZJi every time it receives the camera recognition own traveling lane information CZJi included in the vehicle information Ji from the distribution server 120. The network lane NRi having the geographical coordinates of the destination Poi is searched from the 3D map information server 180.

この検索されたネットワークレーンNRiを目的地到達ネットワークレーンPNRiと称する。番号は、目的地到達ネットワークレーン番号PNBRiと称する。   This searched network lane NRi is referred to as a destination arrival network lane PNRi. The number is referred to as destination arrival network lane number PNBRi.

また、後述するドライバ視線画像DHiを読み込み、検索した目的地到達ネットワークレーンPNRiの目的地到達ネットワークレーン番号PNBRiに該当するドライバ視線画像上レーンDRi上に目的地到達ネットワークレーンPNRiであることを示す目的地到達レーン表示色Fi(例えば紫)を定義する。   Also, a driver line-of-sight image DHi, which will be described later, is read, and the destination arrival network lane PNRi on the driver line-of-sight image lane DRi corresponding to the destination arrival network lane number PNBRi of the searched destination arrival network lane PNRi is shown. A ground arrival lane display color Fi (for example, purple) is defined.

また、レーン種類ドライバ視線画像作成用サーバ130は、カメラ認識自走行レーン情報CZJiを受信する毎に、このカメラ認識自走行レーン情報CZJiに含まれている現在位置GPi、姿勢θi、速度Vi、ハンドル角Hθi、撮影時刻Cti、車両番号Jai、端末番号Jbi、ドライバ視線位置DSiをドライバ画像作成基本情報DKJiとして読み込む。   In addition, each time the lane type driver line-of-sight image creation server 130 receives the camera recognition own traveling lane information CZJi, the current position GPi, posture θi, speed Vi, and handle included in the camera recognition own traveling lane information CZJi. The angle Hθi, the photographing time Cti, the vehicle number Jai, the terminal number Jbi, and the driver line-of-sight position DSi are read as driver image creation basic information DKJi.

そして、ドライバ画像作成基本情報DKJiに含まれているドライバ視線位置DSiを三次元地図モデルMi上に設定する。この設定されたドライバ視線位置DSiを三次元地図モデル上ドライバ視点位置DMPiと称する。   Then, the driver line-of-sight position DSi included in the driver image creation basic information DKJi is set on the three-dimensional map model Mi. The set driver line-of-sight position DSi is referred to as a driver viewpoint position DMPi on the three-dimensional map model.

そして、この三次元地図モデル上ドライバ視点位置DMPiの画角のドライバ視線画像DHiを抽出(読み込む)する。   Then, a driver line-of-sight image DHi having an angle of view of the driver viewpoint position DMPi on the three-dimensional map model is extracted (read).

また、三次元地図モデルMi上の起点位置kiから進行方向に例えば500mの範囲を上空ナビ画像ZFiとして作成する。   Further, a range of, for example, 500 m in the traveling direction from the starting position ki on the three-dimensional map model Mi is created as the sky navigation image ZFi.

さらに、カメラ認識自走行レーン情報CZJiを受信する毎に、カメラ認識自走行レーン情報CZJiに含まれているカメラ認識自走レーンCZRiに一致するドライバ視線画像DHiにおけるドライバ視線画像上レーン番号DBRiを有するドライバ視線画像上レーンDRiをドライバ視線画像上カメラ認識自走レーンDCRiとして定義する。   Further, every time the camera recognition self-propelled lane information CZJi is received, the driver gaze image upper lane number DBRi in the driver gaze image DHi that matches the camera recognition self-propelled lane CZRi included in the camera recognition self-propelled lane information CZJi is included. The driver sight line image upper lane DRi is defined as the driver sight line image on-camera recognition self-running lane DCRi.

そして、ドライバ視線画像上カメラ認識自走レーンDCRiに自車両進行方向矢印ZYiを定義する。この自車両進行方向矢印ZYiは、ドライバ視線画像DHi又はドライバ視線画像上カメラ認識自走レーンDCRiの上になるように定義する。また、レーン変更矢印HZYiをドライバ視線画像DHiに定義する。   Then, the own vehicle traveling direction arrow ZYi is defined in the camera recognition self-running lane DCRi on the driver's line-of-sight image. The own vehicle traveling direction arrow ZYi is defined to be on the driver line-of-sight image DHi or on the driver line-of-sight image on the camera recognition self-running lane DCRi. Further, the lane change arrow HZYi is defined in the driver visual line image DHi.

カメラ画像三次元モデル生成用サーバ150は、振分サーバ120からの車載カメラ撮影画像情報CJiに含まれている車載カメラ撮影画像CGiにおける画素当たりの三次元座標を求め、これを画素に割り当てたカメラ画像三次元モデルCMiを生成する。   The camera image three-dimensional model generation server 150 obtains three-dimensional coordinates per pixel in the in-vehicle camera captured image CGi included in the in-vehicle camera captured image information CJi from the distribution server 120, and assigns this to the pixels. An image three-dimensional model CMi is generated.

変化検出用サーバ190は、三次元地図モデルMiにドライバ視線位置DSiに基づくエリアEMiを定義し、このエリアEMi内の三次元地図モデル上ドライバ視線画像MEDHiと、今回のカメラ画像三次元モデルCMiと比較し、今回のカメラ画像三次元モデルCMiに対して変化している領域(以下変化領域CMHiという)があるかどうかを判定する。   The change detection server 190 defines an area EMi based on the driver line-of-sight position DSi in the three-dimensional map model Mi, the driver line-of-sight image MEDHI on the three-dimensional map model in this area EMi, the current camera image three-dimensional model CMi, By comparison, it is determined whether or not there is a region that changes with respect to the current camera image three-dimensional model CMi (hereinafter referred to as a change region CMHi).

変化がある場合は、この変化領域CMHiをドライバ視線画像DHiに上書きする。   If there is a change, the change area CMHi is overwritten on the driver visual line image DHi.

また、三次元地図モデルMi上の三次元モデル上道路レーンMRiに補正現在位置HPGiを定義し、この補正現在位置HPGiからカメラ画像三次元モデルCMiにおける変化領域CMHiの中心座標までの距離CGRiを求める。   Further, a corrected current position HPGi is defined for the road lane MRi on the three-dimensional model on the three-dimensional map model Mi, and a distance CGRi from the corrected current position HPGi to the center coordinate of the change area CMHi in the camera image three-dimensional model CMi is obtained. .

そして、変化領域CMHi付のドライバ視線画像DHiと距離CGRi等をカメラ画像上変化検出領域付ドライバ視線画像CMHDGiとして送信データ作成用サーバ170に出力する。   Then, the driver visual line image DHi with the change area CMHi, the distance CGRi, and the like are output to the transmission data creation server 170 as the driver visual line image CMHDGi with the change detection area on the camera image.

三次元モデル更新用サーバ160は、変化検出用サーバ190が変化ありと判定した場合は、三次元地図モデルMiにおけるドライバ視線に対応するエリアEMiを引き当て、このエリアEMiを今回のカメラ画像三次元モデルCMiに更新(書き換える)する。   When the change detection server 190 determines that there is a change, the 3D model update server 160 allocates an area EMi corresponding to the driver's line of sight in the 3D map model Mi, and uses this area EMi as the current camera image 3D model. Update (rewrite) to CMi.

送信データ作成用サーバ170は、レーン種類ドライバ視線画像作成用サーバ130が生成したドライバ視線画像DHiと、目的地到達レーン表示色Fi(例えば紫)と、上空ナビ画像ZFiとを組とする送信データSDJiを生成して無線通信網で車両10宛てに送信する。   The transmission data creation server 170 is a transmission data including the driver line-of-sight image DHi generated by the lane type driver line-of-sight image creation server 130, the destination arrival lane display color Fi (for example, purple), and the sky navigation image ZFi. SDJi is generated and transmitted to the vehicle 10 via the wireless communication network.

また、ドライバ視線画像DHiと、自車両進行方向矢印ZYiとを組とする送信データSDJiを生成して無線通信網で車両10宛てに送信する。   In addition, transmission data SDJi that is a set of the driver's line-of-sight image DHi and the own vehicle traveling direction arrow ZYi is generated and transmitted to the vehicle 10 via the wireless communication network.

さらに、変化領域CMHiを含むドライバ視線画像DHi(カメラ画像上変化検出領域付ドライバ視線画像CMHDGi)を送信する車両を決定して無線通信網でその車両10宛てに送信する。   Further, a vehicle that transmits a driver line-of-sight image DHi including the change area CMHi (driver line-of-sight image CMHDGi with a change detection area on the camera image) is determined and transmitted to the vehicle 10 via the wireless communication network.

また、送信データ作成用サーバ170は、車両情報Jiの指示情報に基づいてドライバ視線画像DHiを鳥瞰図又はドライバ視点位置の画像に変換する。   Further, the transmission data creation server 170 converts the driver line-of-sight image DHi into a bird's eye view or an image of the driver viewpoint position based on the instruction information of the vehicle information Ji.

<各サーバの詳細構成>
レーン種類ドライバ視線画像作成用サーバ130は、図3に示す構成要件を備えている。図3においては、三次元地図情報用サーバ180及び送信データ作成用サーバ170を示して説明する。
<Detailed configuration of each server>
The lane type driver line-of-sight image creation server 130 has the configuration requirements shown in FIG. In FIG. 3, the three-dimensional map information server 180 and the transmission data creation server 170 are shown and described.

(レーン種類ドライバ視線画像作成用サーバ130)
図3に示すように、レーン種類ドライバ視線画像作成用サーバ130は、車両10(10a、10b・・)に提供するドライバ視線画像DHiが記憶されるドライバ画像情報提供用メモリ131aと、上空ナビ画像用メモリ131bと、目的地到達レーン色付部133と、ドライバ画像作成部135と、進行矢印設定部136と、レーン変更矢印設定部138等を備えている。
(Lane type driver line-of-sight image creation server 130)
As shown in FIG. 3, the lane type driver line-of-sight image creation server 130 includes a driver image information providing memory 131a in which a driver line-of-sight image DHi to be provided to the vehicle 10 (10a, 10b,. A destination memory lane coloring unit 133, a driver image creation unit 135, a progress arrow setting unit 136, a lane change arrow setting unit 138, and the like.

前述の三次元地図情報用サーバ180は、道路ネットワークDWiを記憶した道路ネットワークデータベース180aと、三次元地図モデルMiを記憶した三次元地形モデル用データベース180bと、道路の標識等の道路施設情報及びその他交通案内に必要な情報を道路施設交通案内情報DJiを記憶した道路施設交通案内関連情報用データベース180c等を備えている。   The aforementioned three-dimensional map information server 180 includes a road network database 180a storing the road network DWi, a three-dimensional terrain model database 180b storing the three-dimensional map model Mi, road facility information such as road signs, and others. A road facility traffic guidance related information database 180c storing road facility traffic guidance information DJi as information necessary for traffic guidance is provided.

道路ネットワークDWiは、道路のレーンを定義したものであり、ノードNDiと、リンクLRi等で構成されている。そして、ノードNDiには地理座標が割り付けられている。また、リンクLRiには、幅、距離等が割り付けられている。この道路ネットワークDWiで定義されたレーンを本実施の形態ではネットワークレーンNRiと称する。つまり、ネットワークレーンNRiは、ノードNDi、リンクLRi、地理座標、幅、ノード間距離、ネットワークレーン番号NRBi等からなる。   The road network DWi defines road lanes and includes nodes NDi and links LRi. Then, geographic coordinates are assigned to the node NDi. The link LRi is assigned a width, a distance, and the like. In this embodiment, the lane defined by the road network DWi is called a network lane NRi. That is, the network lane NRi includes a node NDi, a link LRi, geographic coordinates, a width, a distance between nodes, a network lane number NRBi, and the like.

また、三次元地形モデル用データベース180bの三次元地図モデルMiは、衛生画像、航空写真測量、航空レーザ測量、移動体計測車両によるレーザ計測又は車両10(10a、10b、・・・)に設けられた車載カメラ部12で撮影した車載カメラ撮影画像CGiに基づいて作成した三次元地図モデルMiである。   The three-dimensional map model Mi of the three-dimensional terrain model database 180b is provided in the sanitary image, the aerial photogrammetry, the aerial laser survey, the laser measurement by the moving body measurement vehicle or the vehicle 10 (10a, 10b,...). It is the three-dimensional map model Mi created based on the vehicle-mounted camera image CGi imaged by the vehicle-mounted camera unit 12.

また、この三次元地図モデルMiの道路のレーンを本実施の形態では三次元モデル上道路レーンMRiと称する。そして、三次元モデル上道路レーンMRiはネットワークレーンNRiに関連付けられている。つまり、同じ番号が関連付けられている。また、三次元モデル上道路レーンMRiの内で目的地に向かうレーンは、三次元モデル上目的地到達レーンPMRiと称する。   In addition, the road lane of the 3D map model Mi is referred to as a 3D model upper road lane MRi in the present embodiment. The three-dimensional model upper road lane MRi is associated with the network lane NRi. That is, the same number is associated. In addition, the lane heading to the destination in the three-dimensional model upper road lane MRi is referred to as a three-dimensional model upper destination arrival lane PMRi.

目的地到達レーン色付部133は、振分サーバ120からの車両情報Jiに含まれているカメラ認識自走行レーン情報CZJiを受信する。このカメラ認識自走行レーン情報CZJiを受信する毎に、カメラ認識自走行レーン情報CZJiに含まれている目的地Poiの地理座標を有するネットワークレーンNRi(ノードNDi、リンクLRi、地理座標、幅、ノード間距離、ネットワークレーン番号NRBi)を三次元地図情報用サーバ180の道路ネットワークデータベース180aから検索する。   The destination arrival lane coloring unit 133 receives the camera recognition own traveling lane information CZJi included in the vehicle information Ji from the distribution server 120. Every time this camera recognition own traveling lane information CZJi is received, the network lane NRi (node NDi, link LRi, geographic coordinates, width, node) having the geographical coordinates of the destination Poi included in the camera recognition own traveling lane information CZJi The inter-distance and network lane number NRBi) are searched from the road network database 180a of the three-dimensional map information server 180.

具体的には、現在位置PGiをカメラ認識自走レーンCZRiの中心の画像座標と三次元地図モデルMiの基準座標とに基づいて補正し、これを補正現在位置HPGiとする。   Specifically, the current position PGi is corrected based on the image coordinates of the center of the camera recognition free-running lane CZRi and the reference coordinates of the 3D map model Mi, and this is set as a corrected current position HPGi.

そして、補正現在位置HPGiが求められる毎に、この補正現在位置HPGiの座標を有する道路ネットワークDWiのネットワークレーンNRiを目的地到達ネットワークレーンPNRiとして三次元地図情報用サーバ180から検索する。   Each time the corrected current position HPGi is obtained, the network lane NRi of the road network DWi having the coordinates of the corrected current position HPGi is searched from the 3D map information server 180 as the destination arrival network lane PNRi.

この検索されたネットワークレーンNRiを目的地到達ネットワークレーンPNRiと称する。番号は、目的地到達ネットワークレーン番号PNBRiと称する。   This searched network lane NRi is referred to as a destination arrival network lane PNRi. The number is referred to as destination arrival network lane number PNBRi.

そして、ドライバ画像情報提供用メモリ131aにドライバ視線画像DHiが記憶(生成)されているかどうかを判定する。   Then, it is determined whether or not the driver visual line image DHi is stored (generated) in the driver image information providing memory 131a.

生成されている場合は、このドライバ視線画像DHiを読み込み、検索した目的地到達ネットワークレーンPNRiの目的地到達ネットワークレーン番号PNBRiに該当するドライバ視線画像DHiにおけるドライバ視線画像上レーンDRi上に目的地到達レーンであることを示す目的地到達レーン表示色Fi(例えば紫)を定義する。   If it has been generated, this driver line-of-sight image DHi is read and the destination arrival is reached on the lane DRi on the driver line-of-sight image in the driver line-of-sight image DHi corresponding to the destination arrival network lane number PNBRi of the searched destination arrival network lane PNRi. A destination arrival lane display color Fi (for example, purple) indicating the lane is defined.

この目的地到達レーン表示色Fi(例えば紫)が定義されたドライバ視線画像上レーンDRiをドライバ視線画像上目的地到達レーンPDRiと称する。   The driver visual line image lane DRi in which the destination arrival lane display color Fi (for example, purple) is defined is referred to as a driver visual line image destination arrival lane PDRi.

前述の目的地到達レーン表示色Fi(例えば紫)は、ドライバ視線画像DHiの上に色が表示されるように定義する。   The destination arrival lane display color Fi (for example, purple) is defined so that the color is displayed on the driver line-of-sight image DHi.

そして、ナビ画像送信データ作成用サーバ140に、目的地到達レーン表示色Fiを定義したことを知らせる情報(フラグ)を出力する。   Then, information (flag) notifying that the destination arrival lane display color Fi has been defined is output to the navigation image transmission data creation server 140.

ドライバ画像作成部135は、車両情報Jiに含まれているカメラ認識自走行レーン情報CZJiを受信する。このカメラ認識自走行レーン情報CZJiを受信する毎に、このカメラ認識自走行レーン情報CZJiに含まれている現在位置GPi、姿勢θi、速度Vi、ハンドル角Hθi、撮影時刻Cti、車両番号Jai、端末番号Jbi、ドライバ視線位置DSiをドライバ画像作成基本情報DKJiとして読み込む。   The driver image creation unit 135 receives the camera recognition own traveling lane information CZJi included in the vehicle information Ji. Each time this camera recognition self-run lane information CZJi is received, the current position GPi, posture θi, speed Vi, handle angle Hθi, shooting time Cti, vehicle number Jai, terminal included in the camera recognition self-run lane information CZJi The number Jbi and the driver sight line position DSi are read as driver image creation basic information DKJi.

そして、ドライバ画像作成基本情報DKJiに含まれているドライバ視線位置DSiを三次元地形モデル用データベース180bの三次元地図モデルMi上に三次元地図モデル上ドライバ視点位置DMPiとして設定する。そして、この三次元地図モデル上ドライバ視点位置DMPiの画角でのエリアEMiを三次元地図モデルMiに定義し、エリアEMiにおける画像(以下三次元地図モデル上ドライバ視線画像MEDHiと称する)をドライバ視線画像DHiとしてドライバ画像情報提供用メモリ131aに記憶する。   Then, the driver line-of-sight position DSi included in the driver image creation basic information DKJi is set as the driver viewpoint position DMPi on the 3D map model on the 3D map model Mi of the 3D terrain model database 180b. Then, the area EMi at the angle of view of the driver viewpoint position DMPi on the three-dimensional map model is defined as the three-dimensional map model Mi, and an image in the area EMi (hereinafter referred to as a driver visual line image MEDHi on the three-dimensional map model) The image is stored in the driver image information providing memory 131a as an image DHi.

前述の三次元地図モデル上ドライバ視点位置DMPiには、前回の現在位置GPi等で決定した視線方向を割り付けている。   The line-of-sight direction determined by the previous current position GPi or the like is assigned to the above-described driver viewpoint position DMPi on the three-dimensional map model.

また、ドライバ画像作成部135は、ドライバ画像作成基本情報DKJiに含まれている現在位置GPi、姿勢θi、速度Vi、撮影時刻Cti等に基づいて、三次元地図モデルMi上における位置(以下三次元地図モデルMi上の起点位置kiと称する)を決定(例えば高さ200m)する。   The driver image creation unit 135 also determines a position on the 3D map model Mi (hereinafter referred to as a 3D map) based on the current position GPi, posture θi, speed Vi, shooting time Cti, and the like included in the driver image creation basic information DKJi. (Referred to as a starting position ki on the map model Mi) is determined (for example, a height of 200 m).

そして、この三次元地図モデルMi上の起点位置kiから進行方向に例えば500mの範囲を上空ナビ画像ZFiとする。そして、この上空ナビ画像ZFiを上空ナビ画像用メモリ131bに記憶する。   A range of, for example, 500 m in the traveling direction from the starting point position ki on the three-dimensional map model Mi is set as the sky navigation image ZFi. Then, this sky navigation image ZFi is stored in the sky navigation image memory 131b.

また、三次元地図モデルMi上の起点位置kiを現在のドライバ視線画像DHiの今回表示位置Pki(三次元地図モデルMi上の座標)とし、上空ナビ画像ZFiの次の交差点を次表示位置Pkni(三次元地図モデルMi上の座標)とし、これらを上空ナビ画像付属情報FZFi(今回表示位置Pkiの座標と表示マークの種類及び色(黄色)、次表示位置Pkniの座標と表示マークの色(ピンク))として上空ナビ画像ZFiに関連付けている。   Further, the starting position ki on the 3D map model Mi is set as the current display position Pki (coordinates on the 3D map model Mi) of the current driver line-of-sight image DHi, and the next intersection of the sky navigation image ZFi is set as the next display position Pkni ( These are the navigation image attached information FZFi (the coordinates of the current display position Pki and the type and color of the display mark (yellow), the coordinates of the next display position Pkni and the color of the display mark (pink). )) And associated with the sky navigation image ZFi.

前述の上空ナビ画像ZFiは三次元地図モデルMi上の起点位置Kiが変わる毎に更新される。つまり、ドライバ視線画像DHiが更新される毎に変わる。また、三次元地図モデルMi上の起点位置Kiが変わる毎に、次表示位置Pkniが今回表示位置Pkiとなる。   The above-described sky navigation image ZFi is updated each time the starting position Ki on the three-dimensional map model Mi changes. That is, it changes every time the driver's line-of-sight image DHi is updated. Each time the starting position Ki on the three-dimensional map model Mi changes, the next display position Pkni becomes the current display position Pki.

さらに、ドライバ画像作成部135は、ドライバ視線画像DHiに関連する道路施設交通案内情報DJiを検索し、この検索された道路施設交通案内情報DJiをドライバ視線画像DHiに関連付ける。   Further, the driver image creation unit 135 searches for the road facility traffic guide information DJi related to the driver line-of-sight image DHi, and associates the searched road facility traffic guide information DJi with the driver line-of-sight image DHi.

また、この道路施設交通案内情報DJiに含まれている標識の枠を異なる色(色エリアという)で定義する。このとき、目的地到達用レーンと標識の枠の色エリアとが接続されるようにした形状で定義するのが好ましい。   In addition, a sign frame included in the road facility traffic guide information DJi is defined in a different color (referred to as a color area). At this time, it is preferable to define the destination arrival lane and the sign frame color area in a connected shape.

そして、送信データ作成用サーバ170に、ドライバ視線画像DHi、上空ナビ画像ZFi等を定義したことを知らせる情報(フラグ)を出力する。   Then, information (flag) notifying that the driver line-of-sight image DHi, the sky navigation image ZFi, and the like are defined is output to the transmission data creation server 170.

進行矢印設定部136は、車両情報Jiに含まれているカメラ認識自走行レーン情報CZJiを受信する。このカメラ認識自走行レーン情報CZJiを受信する毎に、ドライバ画像情報提供用メモリ131aにドライバ視線画像DHiが記憶されているかどうかを判定する。   The progress arrow setting unit 136 receives the camera recognition own traveling lane information CZJi included in the vehicle information Ji. Each time the camera recognition self-run lane information CZJi is received, it is determined whether or not the driver visual line image DHi is stored in the driver image information providing memory 131a.

そして、記憶されている場合は、カメラ認識自走行レーン情報CZJiに含まれているカメラ認識自走レーン番号CZBRiに一致するドライバ視線画像DHiにおけるドライバ視線画像上レーン番号DBRiを有するドライバ視線画像上レーンDRiをドライバ視線画像上カメラ認識自走レーンDCRiとして定義する。   If stored, the driver sight line image upper lane having the driver sight line image upper lane number DBRi in the driver sight line image DHi corresponding to the camera recognition self-run lane number CZBRi included in the camera recognition self-run lane information CZJi is stored. DRi is defined as the camera recognition free-running lane DCRi on the driver line-of-sight image.

そして、ドライバ視線画像上カメラ認識自走レーンDCRiに自車両進行方向矢印ZYiを定義する。この自車両進行方向矢印ZYiは、ドライバ視線画像DHi又はドライバ視線画像上カメラ認識自走レーンDCRiの上になるように定義する。   Then, the own vehicle traveling direction arrow ZYi is defined in the camera recognition self-running lane DCRi on the driver's line-of-sight image. The own vehicle traveling direction arrow ZYi is defined to be on the driver line-of-sight image DHi or on the driver line-of-sight image on the camera recognition self-running lane DCRi.

自車両進行方向矢印ZYiは、ドライバ視線画像DHiの番号と、ドライバ視線画像上カメラ認識自走レーン番号DCBRiと、自車両進行方向矢印ZYiの情報(自車進行方向矢印Zyiの始点座標、大きさ、矢印の種類、色(例えば黄土色)等)を関連付けて自車両進行方向矢印情報ZYJiとして定義するのが好ましい。   The own vehicle traveling direction arrow ZYi is the number of the driver's line-of-sight image DHi, the camera recognition self-running lane number DCBRi on the driver's line-of-sight image, and information of the own vehicle's traveling direction arrow ZYi. It is preferable to define the vehicle traveling direction arrow information ZYJi by associating the arrow type and color (for example, ocher color).

そして、送信データ作成用サーバ170に、自車両進行方向矢印ZYiを定義したことを知らせる情報(フラグ)を出力する。   Then, information (flag) notifying that the host vehicle traveling direction arrow ZYi has been defined is output to the transmission data creation server 170.

レーン変更矢印設定部138は、振分サーバ120からの車両情報Jiに含まれているカメラ認識自走行レーン情報CZJiを受信する。このカメラ認識自走行レーン情報CZJiを受信する毎に、ドライバ画像情報提供用メモリ131aにドライバ視線画像DHiが記憶(生成)され、かつドライバ視線画像上カメラ認識自走レーンDCRi上に目的地到達レーンであることを示す目的地到達レーン表示色Fi(例えば紫)を定義され、自車両進行方向矢印ZYi、レーン変更矢印HZYiが定義されているかどうかを判定する。   The lane change arrow setting unit 138 receives the camera recognition own traveling lane information CZJi included in the vehicle information Ji from the distribution server 120. Each time this camera recognition self-running lane information CZJi is received, the driver visual line image DHi is stored (generated) in the driver image information providing memory 131a, and the destination arrival lane is on the camera recognition self-propelled lane DCRi on the driver visual line image. The destination arrival lane display color Fi (for example, purple) indicating that the vehicle is traveling is defined, and it is determined whether or not the own vehicle traveling direction arrow ZYi and the lane change arrow HZYi are defined.

定義されている場合は、自車両進行方向矢印ZYiがドライバ視線画像上カメラ認識自走レーンDCRi上に定義されているかどうかを判定する。そして、自車両進行方向矢印ZYiがドライバ視線画像上カメラ認識自走レーンDCRi上に定義されている場合は、ドライバ視線画像上カメラ認識自走レーンDCRi上におけるレーン変更矢印HZYiを消去する。そして、送信データ作成用サーバ170に、レーン変更矢印HZYiの消去したことを知らせる情報(フラグ)を出力する。   If it is defined, it is determined whether or not the own vehicle traveling direction arrow ZYi is defined on the driver recognition line image camera recognition self-running lane DCRi. When the own vehicle traveling direction arrow ZYi is defined on the camera recognition self-running lane DCRi on the driver visual line image, the lane change arrow HZYi on the camera recognition self-running lane DCRi on the driver visual image is deleted. Then, information (flag) notifying that the lane change arrow HZYi has been deleted is output to the transmission data creation server 170.

また、レーン変更矢印設定部138は、ドライバ視線画像DHiのドライバ視線画像上カメラ認識自走レーン番号DCBRiと、ドライバ視線画像上目的地到達レーン番号PDBRiとが一致しているかどうかを判定する。   Also, the lane change arrow setting unit 138 determines whether the driver recognition line image camera-recognized self-running lane number DCBRi of the driver line-of-sight image DHi matches the driver line-of-sight image destination arrival lane number PDBRi.

不一致の場合は、ドライバ視線画像DHiのドライバ視線画像上カメラ認識自走レーンDCRi上に定義されている自車両進行方向矢印ZYiの頭から所定位置を始点としたレーン変更矢印HZYiの頭をドライバ視線画像上目的地到達レーンPDRiに向けて定義する。   If they do not match, the driver's line of sight is the head of the lane change arrow HZYi starting from a predetermined position from the head of the own vehicle traveling direction arrow ZYi defined on the camera recognition self-running lane DCRi on the driver's line of sight image DHi. It is defined toward the destination arrival lane PDRi on the image.

そして、送信データ作成用サーバ170に、レーン変更矢印HZYiを定義したことを知らせる情報(フラグ)を出力する。   Then, information (flag) notifying that the lane change arrow HZYi has been defined is output to the transmission data creation server 170.

(カメラ画像三次元モデル生成用サーバ150)
カメラ画像三次元モデル生成用サーバ150は、図4に示すように、カメラ画像三次元モデル生成部152と、カメラ画像三次元モデル用メモリ154と、車載カメラのパラメータ情報(画角、半値幅、取付高、解像度、・・)を記憶した車載カメラ用パラメータデータベース153と、車載カメラ撮影画像情報CJi(車載カメラ撮影画像CGiを含む)が記憶される車載カメラ撮影画像情報用メモリ155等を備えている。
(Camera image 3D model generation server 150)
As shown in FIG. 4, the camera image 3D model generation server 150 includes a camera image 3D model generation unit 152, a camera image 3D model memory 154, and in-vehicle camera parameter information (view angle, half width, A vehicle-mounted camera parameter database 153 storing the mounting height, resolution,..., A vehicle-mounted camera captured image information memory 155 storing the vehicle-mounted camera captured image information CJi (including the vehicle mounted camera captured image CGi), and the like. Yes.

カメラ画像三次元モデル生成部152は、振分サーバ120からの車載カメラ撮影画像情報CJiを受信して車載カメラ撮影画像情報用メモリ155に記憶(上書)する。   The camera image 3D model generation unit 152 receives the in-vehicle camera captured image information CJi from the distribution server 120 and stores (overwrites) it in the in-vehicle camera captured image information memory 155.

そして、車載カメラ撮影画像情報CJiが記憶される毎に、車載カメラ用パラメータデータベース153に記憶されている車載カメラのパラメータ情報(画角、半値幅、取付高、解像度、・・)と車載カメラ撮影画像情報CJiの撮影時刻Cti、姿勢θi、速度Vi、現在位置GPi、ハンドル角Hθi及び三次元地図モデルMiの基準座標等に基づいて車載カメラ撮影画像CGiの画素当たりの三次元座標を求め、これを画素に割り当てたカメラ画像三次元モデルCMiをカメラ画像三次元モデル用メモリ154に生成(記憶)する。   Each time the in-vehicle camera captured image information CJi is stored, the in-vehicle camera parameter information (view angle, half width, mounting height, resolution,...) And in-vehicle camera imaging stored in the in-vehicle camera parameter database 153 are stored. The three-dimensional coordinates per pixel of the in-vehicle camera photographed image CGi are obtained based on the photographing time Cti, the posture θi, the speed Vi, the current position GPi, the handle angle Hθi, and the reference coordinates of the three-dimensional map model Mi of the image information CJi. Is generated (stored) in the camera image 3D model memory 154.

(変化検出用サーバ)
変化検出用サーバ190は、図4に示すように、変化判定部192を備えている。変化判定部192は、三次元地図モデルMiにおけるエリアEMiが定義される毎に、このエリアEMi内の三次元地図モデル上ドライバ視線画像MEDHiをメモリ194に記憶(コピー)する。
(Change detection server)
As shown in FIG. 4, the change detection server 190 includes a change determination unit 192. Each time the area EMi in the 3D map model Mi is defined, the change determination unit 192 stores (copies) the 3D map model driver line-of-sight image MEDHi in the area EMi in the memory 194.

そして、このメモリ194の三次元地図モデル上ドライバ視線画像MEDHiと、カメラ画像三次元モデル用メモリ154に記憶された今回のカメラ画像三次元モデルCMiと比較し、今回のカメラ画像三次元モデルCMiに変化があるかどうかを判定する。   Then, the driver sight line image MEDHi on the 3D map model in the memory 194 is compared with the current camera image 3D model CMi stored in the camera image 3D model memory 154, and the current camera image 3D model CMi is obtained. Determine if there is a change.

変化がある場合は、この変化領域CMHiをドライバ画像情報提供用メモリ131aのドライバ視線画像DHiに上書きする(貼り付ける)(図3、図8参照)。   When there is a change, the change area CMHi is overwritten (pasted) on the driver line-of-sight image DHi in the driver image information providing memory 131a (see FIGS. 3 and 8).

また、三次元地図モデルMi上の三次元モデル上道路レーンMRiに補正現在位置HPGiを定義し、この補正現在位置HPGiからカメラ画像三次元モデルCMiにおける変化領域CMHiの中心座標までの距離CGRiを求める。   Further, a corrected current position HPGi is defined for the road lane MRi on the three-dimensional model on the three-dimensional map model Mi, and a distance CGRi from the corrected current position HPGi to the center coordinate of the change area CMHi in the camera image three-dimensional model CMi is obtained. .

そして、変化領域CMHi付のドライバ視線画像DHiと距離CGRi等をカメラ画像上変化検出領域付ドライバ視線画像CMHDGiとして送信データ作成用サーバ170に出力する。
(三次元モデル更新用サーバ160)
三次元モデル更新用サーバ160は、図4に示すように、該当エリア引当部162と、該当エリア更新部164等を備えている。
Then, the driver visual line image DHi with the change area CMHi, the distance CGRi, and the like are output to the transmission data creation server 170 as the driver visual line image CMHDGi with the change detection area on the camera image.
(Three-dimensional model update server 160)
As shown in FIG. 4, the 3D model update server 160 includes a corresponding area allocation unit 162, a corresponding area update unit 164, and the like.

該当エリア引当部162は、変化検出用サーバ190が変化ありと判定した場合は、三次元地図モデルMiにおけるドライバ視線に対応するエリアEMiを引き当てる。   When the change detection server 190 determines that there is a change, the corresponding area allocation unit 162 allocates an area EMi corresponding to the driver's line of sight in the three-dimensional map model Mi.

該当エリア引当部162は、このエリアEMiをカメラ画像三次元モデル用メモリ154に記憶された今回のカメラ画像三次元モデルCMiに更新(書き換える)する(図8参照)。   The area allocation unit 162 updates (rewrites) the area EMi to the current camera image 3D model CMi stored in the camera image 3D model memory 154 (see FIG. 8).

(送信データ作成用サーバ170)
送信データ作成用サーバ170は、図4に示すように、送信車両決定部172を備えている。
(Transmission data creation server 170)
As shown in FIG. 4, the transmission data creation server 170 includes a transmission vehicle determination unit 172.

この送信車両決定部172は、変化検出用サーバ190が変化個所ありとしてカメラ画像上変化検出領域付ドライバ視線画像CMHDGiを出力した場合は、車両情報蓄積用サーバ110に蓄積されている全ての車両情報Jiを読み込む。   When the change detection server 190 outputs the driver line-of-sight image CMHDGi with a change detection area on the camera image because the change detection server 190 has changed, all the vehicle information stored in the vehicle information storage server 110 is displayed. Read Ji.

そして、各々の車両情報Jiに含まれている姿勢θi、速度Vi、現在位置GPi、ハンドル角Hθi、カメラ認識自走レーン番号CZBRi、撮影時刻Ctiと、カメラ画像上変化検出領域付ドライバ視線画像CMHDGiの現在位置GPiとからこの変化箇所に向かう道路ネットワーク上を走行している車両がどれかを決定する。   Then, the posture θi, the speed Vi, the current position GPi, the steering wheel angle Hθi, the camera recognition free-running lane number CZBRi, the photographing time Cti, and the driver visual line image CMHDGi with a change detection area on the camera image are included in each vehicle information Ji. The vehicle that is traveling on the road network from the current position GPi to the change point is determined.

そして、決定した車両の車両情報に含まれている端末番号、車両番号宛てで送信データSDJiを送信する。   Then, transmission data SDJi is transmitted to the terminal number and vehicle number included in the vehicle information of the determined vehicle.

また、レーン種類ドライバ視線画像作成用サーバ130が生成したドライバ視線画像DHi(更新含む)と、目的地到達レーン表示色Fi(例えば紫)と、上空ナビ画像ZFiとを組とする送信データSDJiを生成して無線通信網で車両10宛てに送信する。   In addition, transmission data SDJi including a driver line-of-sight image DHi (including update) generated by the lane type driver line-of-sight image creation server 130, a destination arrival lane display color Fi (for example, purple), and the sky navigation image ZFi is set. It is generated and transmitted to the vehicle 10 over the wireless communication network.

<全体動作>
図5は車載カメラ画像を用いたナビ情報提供システムの概略全体動作を説明するシーケンス図である。
<Overall operation>
FIG. 5 is a sequence diagram for explaining the overall operation of the navigation information providing system using the in-vehicle camera image.

図5に示すように、車両10(10a、10b、・・・)は、車載カメラ部12、カメラコントローラ15、ナビ端末13によって一定時間毎に撮影した前方の画像を含む車両情報Jiをデータセンタ100に送信する(d10)。   As shown in FIG. 5, the vehicle 10 (10a, 10b,...) Receives vehicle information Ji including forward images taken at regular intervals by the in-vehicle camera unit 12, the camera controller 15, and the navigation terminal 13 in a data center. 100 (d10).

データセンタ100の車両情報蓄積用サーバ110は、車両10(10a、10b・・)からの車両情報Jiを受信して車両情報蓄積用メモリ115に蓄積する(d12)。   The vehicle information storage server 110 of the data center 100 receives the vehicle information Ji from the vehicle 10 (10a, 10b,...) And stores it in the vehicle information storage memory 115 (d12).

振分サーバ120は、車両情報蓄積用サーバ110に車両情報Jiが蓄積される毎に、この車両情報Jiに含まれている撮影時刻Cti、カメラ番号Jci、車載カメラ撮影画像CGi、姿勢θi、速度Vi、現在位置GPi、ハンドル角Hθi等を車載カメラ撮影画像情報CJiとしてカメラ画像三次元モデル生成用サーバ150に出力(振分け)する(d14)。   Each time the vehicle information Ji is stored in the vehicle information storage server 110, the distribution server 120 captures the photographing time Cti, camera number Jci, in-vehicle camera photographed image CGi, attitude θi, speed, and speed included in the vehicle information Ji. Vi, the current position GPi, the handle angle Hθi, and the like are output (distributed) to the camera image three-dimensional model generation server 150 as in-vehicle camera captured image information CJi (d14).

また、振分サーバ120は、車両情報Jiの車両番号Jaiと端末番号Jbiと姿勢θiと速度Viと目的地Poiと現在位置GPiとハンドル角Hθiと撮影時刻Ctiとドライバ視線位置DSi等をカメラ認識自走行レーン情報CZJiとしてレーン種類ドライバ視線画像作成用サーバ130に出力(振分け)する(d16)。   Further, the distribution server 120 recognizes the vehicle number Jai, the terminal number Jbi, the posture θi, the speed Vi, the destination Poi, the current position GPi, the handle angle Hθi, the photographing time Cti, the driver sight line position DSi, and the like of the vehicle information Ji. It outputs (distributes) to the lane type driver line-of-sight image creation server 130 as self-running lane information CZJi (d16).

カメラ画像三次元モデル生成用サーバ150は、振分サーバ120からの今回の車載カメラ撮影画像情報CJiに含まれている車載カメラ撮影画像CGiの画素毎の三次元座標を三次元地図モデルMiの基準座標に基づいて求め、この三次元座標を車載カメラ撮影画像CGiの各画素に割り当てたカメラ画像三次元モデルCMiを生成する(d18)。   The camera image 3D model generation server 150 uses the 3D coordinates for each pixel of the in-vehicle camera captured image CGi included in the current in-vehicle camera captured image information CJi from the distribution server 120 as a reference for the 3D map model Mi. A camera image three-dimensional model CMi in which the three-dimensional coordinates are obtained and assigned to each pixel of the in-vehicle camera photographed image CGi is generated (d18).

すなわち、カメラ画像三次元モデル生成部152が振分サーバ120からの車載カメラ撮影画像情報CJiを受信して車載カメラ撮影画像情報用メモリ155に記憶(上書)する。   That is, the camera image 3D model generation unit 152 receives the in-vehicle camera captured image information CJi from the distribution server 120 and stores (overwrites) it in the in-vehicle camera captured image information memory 155.

そして、車載カメラ撮影画像情報CJiが記憶される毎に、車載カメラ用パラメータデータベース153に記憶されている車載カメラのパラメータ情報(画角、半値幅、取付高、解像度、・・)と車載カメラ撮影画像情報CJiの撮影時刻Cti、姿勢θi、速度Vi、現在位置GPi、ハンドル角Hθi及び三次元地図モデルMiの基準座標等に基づいて車載カメラ撮影画像CGiの画素当たりの三次元座標を求め、これを画素に割り当てたカメラ画像三次元モデルCMiをカメラ画像三次元モデル用メモリ154に生成する。   Each time the in-vehicle camera captured image information CJi is stored, the in-vehicle camera parameter information (view angle, half width, mounting height, resolution,...) And in-vehicle camera imaging stored in the in-vehicle camera parameter database 153 are stored. The three-dimensional coordinates per pixel of the in-vehicle camera photographed image CGi are obtained based on the photographing time Cti, the posture θi, the speed Vi, the current position GPi, the handle angle Hθi, and the reference coordinates of the three-dimensional map model Mi of the image information CJi. Is generated in the camera image three-dimensional model memory 154.

そして、レーン種類ドライバ視線画像作成用サーバ130は、ドライバ画像生成処理及び矢印生成処理を行う(d20)。   Then, the lane type driver line-of-sight image creation server 130 performs driver image generation processing and arrow generation processing (d20).

ドライバ画像生成処理は、ドライバ画像作成部135が行う。ドライバ画像作成部135は、車両情報Jiに含まれているカメラ認識自走行レーン情報CZJiを受信する。このカメラ認識自走行レーン情報CZJiを受信する毎に、このカメラ認識自走行レーン情報CZJiに含まれている現在位置GPi、姿勢θi、速度Vi、ハンドル角Hθi、撮影時刻Cti、車両番号Jai、端末番号Jbi、ドライバ視線位置DSiをドライバ画像作成基本情報DKJiとして読み込む。   The driver image generation unit 135 performs the driver image generation process. The driver image creation unit 135 receives the camera recognition own traveling lane information CZJi included in the vehicle information Ji. Each time this camera recognition self-run lane information CZJi is received, the current position GPi, posture θi, speed Vi, handle angle Hθi, shooting time Cti, vehicle number Jai, terminal included in the camera recognition self-run lane information CZJi The number Jbi and the driver sight line position DSi are read as driver image creation basic information DKJi.

そして、ドライバ画像作成基本情報DKJiに含まれているドライバ視線位置DSiを三次元地形モデル用データベース180bの三次元地図モデルMi上に三次元地図モデル上ドライバ視点位置DMPiとして設定する。そして、この三次元地図モデル上ドライバ視点位置DMPiの画角でのエリアEMiを三次元地図モデルMiに定義し、エリアEMiにおける三次元地図モデル上ドライバ視線画像MEDHiをドライバ視線画像DHiとしてドライバ画像情報提供用メモリ131aに記憶する。   Then, the driver line-of-sight position DSi included in the driver image creation basic information DKJi is set as the driver viewpoint position DMPi on the 3D map model on the 3D map model Mi of the 3D terrain model database 180b. Then, the area EMi at the angle of view of the driver viewpoint position DMPi on the three-dimensional map model is defined as the three-dimensional map model Mi, and the driver image information on the three-dimensional map model on the area EMi is set as the driver image line image DHi. Store in the providing memory 131a.

前述の三次元地図モデル上ドライバ視点位置DMPiには、前回の現在位置GPi等で決定した視線方向を割り付けている。   The line-of-sight direction determined by the previous current position GPi or the like is assigned to the above-described driver viewpoint position DMPi on the three-dimensional map model.

また、ドライバ画像作成部135は、ドライバ画像作成基本情報DKJiに含まれている現在位置GPi、姿勢θi、速度Vi、撮影時刻Cti等に基づいて、三次元地図モデルMi上に三次元地図モデルMi上の起点位置kiを決定(例えば高さ200m)する。   The driver image creation unit 135 also adds the 3D map model Mi on the 3D map model Mi based on the current position GPi, posture θi, speed Vi, shooting time Cti, and the like included in the driver image creation basic information DKJi. The upper starting position ki is determined (for example, a height of 200 m).

そして、この三次元地図モデルMi上の起点位置kiから進行方向に例えば500mの範囲を上空ナビ画像ZFiとする。そして、この上空ナビ画像ZFiを上空ナビ画像用メモリ131bに記憶する。   A range of, for example, 500 m in the traveling direction from the starting point position ki on the three-dimensional map model Mi is set as the sky navigation image ZFi. Then, this sky navigation image ZFi is stored in the sky navigation image memory 131b.

また、三次元地図モデルMi上の起点位置kiを現在のドライバ視線画像DHiの今回表示位置Pki(三次元地図モデルMi上の座標)とし、上空ナビ画像ZFiの次の交差点を次表示位置Pkni(三次元地図モデルMi上の座標)とし、これらを上空ナビ画像付属情報FZFi(今回表示位置Pkiの座標と表示マークの種類及び色(黄色)、次表示位置Pkniの座標と表示マークの色(ピンク))として上空ナビ画像ZFiに関連付けている。   Further, the starting position ki on the 3D map model Mi is set as the current display position Pki (coordinates on the 3D map model Mi) of the current driver line-of-sight image DHi, and the next intersection of the sky navigation image ZFi is set as the next display position Pkni ( These are the navigation image attached information FZFi (the coordinates of the current display position Pki and the type and color of the display mark (yellow), the coordinates of the next display position Pkni and the color of the display mark (pink). )) And associated with the sky navigation image ZFi.

前述の上空ナビ画像ZFiは三次元地図モデルMi上の起点位置Kiが変わる毎に更新される。つまり、ドライバ視線画像DHiが更新される毎に変わる。また、三次元地図モデルMi上の起点位置Kiが変わる毎に、次表示位置Pkniが今回表示位置Pkiとなる。   The above-described sky navigation image ZFi is updated each time the starting position Ki on the three-dimensional map model Mi changes. That is, it changes every time the driver's line-of-sight image DHi is updated. Each time the starting position Ki on the three-dimensional map model Mi changes, the next display position Pkni becomes the current display position Pki.

さらに、ドライバ画像作成部135は、ドライバ視線画像DHiに関連する道路施設交通案内情報DJiを検索し、この検索された道路施設交通案内情報DJiをドライバ視線画像DHiに関連付ける。   Further, the driver image creation unit 135 searches for the road facility traffic guide information DJi related to the driver line-of-sight image DHi, and associates the searched road facility traffic guide information DJi with the driver line-of-sight image DHi.

また、この道路施設交通案内情報DJiに含まれている標識の枠を異なる色(色エリアという)で定義する。このとき、目的地到達用レーンと標識の枠の色エリアとが接続されるようにした形状で定義するのが好ましい。   In addition, a sign frame included in the road facility traffic guide information DJi is defined in a different color (referred to as a color area). At this time, it is preferable to define the destination arrival lane and the sign frame color area in a connected shape.

そして、送信データ作成用サーバ170に、ドライバ視線画像DHi、上空ナビ画像ZFi等を定義したことを知らせる情報(フラグ)を出力する。   Then, information (flag) notifying that the driver line-of-sight image DHi, the sky navigation image ZFi, and the like are defined is output to the transmission data creation server 170.

前述の画角は、右車載カメラ12a、左車載カメラ12b(CCD内蔵)の画角であり、予めメモリ(図示せず)に記憶されている車載カメラ12a、12bのパラメータ(CCDサイズ、カメラ高さ、方向、解像度・・)を用いて算出する。   The aforementioned angle of view is the angle of view of the right in-vehicle camera 12a and the left in-vehicle camera 12b (CCD built-in), and the parameters (CCD size, camera height) of the in-vehicle cameras 12a and 12b stored in advance in a memory (not shown). , Direction, resolution...

一方、矢印生成処理は、目的地到達レーン表示と、自車両進行方向矢印表示処理と、レーン変更矢印処理を行う。   On the other hand, the arrow generation processing performs destination arrival lane display, own vehicle traveling direction arrow display processing, and lane change arrow processing.

目的地到達レーン表示は、目的地到達レーン色付部133が行う。目的地到達レーン色付部133は、振分サーバ120からの車両情報Jiに含まれているカメラ認識自走行レーン情報CZJiを受信する。このカメラ認識自走行レーン情報CZJiを受信する毎に、カメラ認識自走行レーン情報CZJiに含まれている目的地Poiの地理座標を有するネットワークレーンNRi(ノードNDi、リンクLRi、地理座標、幅、ノード間距離、ネットワークレーン番号NRBi)を三次元地図情報用サーバ180の道路ネットワークデータベース180aから検索する。   The destination arrival lane display is performed by the destination arrival lane coloring unit 133. The destination arrival lane coloring unit 133 receives the camera recognition own traveling lane information CZJi included in the vehicle information Ji from the distribution server 120. Every time this camera recognition own traveling lane information CZJi is received, the network lane NRi (node NDi, link LRi, geographic coordinates, width, node) having the geographical coordinates of the destination Poi included in the camera recognition own traveling lane information CZJi The inter-distance and network lane number NRBi) are searched from the road network database 180a of the three-dimensional map information server 180.

具体的には、現在位置PGiをカメラ認識自走レーンCZRiの中心の画像座標と三次元地図モデルMiの基準座標とに基づいて補正し、これを補正現在位置HPGiとする。そして、補正現在位置HPGiが求められる毎に、この補正現在位置HPGiの座標を有する道路ネットワークDWiのネットワークレーンNRiを目的地到達ネットワークレーンPNRiとして三次元地図情報用サーバ180から検索する。つまり、目的地到達ネットワークレーンPNRiを検索する。   Specifically, the current position PGi is corrected based on the image coordinates of the center of the camera recognition free-running lane CZRi and the reference coordinates of the 3D map model Mi, and this is set as a corrected current position HPGi. Each time the corrected current position HPGi is obtained, the network lane NRi of the road network DWi having the coordinates of the corrected current position HPGi is searched from the 3D map information server 180 as the destination arrival network lane PNRi. That is, the destination arrival network lane PNRi is searched.

そして、ドライバ画像情報提供用メモリ131aにドライバ視線画像DHiが記憶(生成)されているかどうかを判定する。   Then, it is determined whether or not the driver visual line image DHi is stored (generated) in the driver image information providing memory 131a.

生成されている場合は、このドライバ視線画像DHiを読み込み、検索した目的地到達ネットワークレーンPNRiの目的地到達ネットワークレーン番号PNBRiに該当するドライバ視線画像上レーンDRi上に目的地到達レーンであることを示す目的地到達レーン表示色Fi(例えば紫)を定義する。つまり、ドライバ視線画像DHiにドライバ視線画像上目的地到達レーンPDRi(紫)が定義されたことになる(図6参照)。   If it is generated, this driver line-of-sight image DHi is read, and it is determined that the destination arrival lane is on the driver line-of-sight image upper lane DRi corresponding to the destination arrival network lane number PNBRi of the searched destination arrival network lane PNRi. A destination arrival lane display color Fi (for example, purple) is defined. That is, the destination arrival lane PDRi (purple) on the driver visual line image DHi is defined in the driver visual line image DHi (see FIG. 6).

また、自車両進行方向矢印表示処理は進行矢印設定部136が行う。進行矢印設定部136は、車両情報Jiに含まれているカメラ認識自走行レーン情報CZJiを受信する毎に、ドライバ画像情報提供用メモリ131aにドライバ視線画像DHiが記憶されているかどうかを判定する。   The traveling arrow setting unit 136 performs the own vehicle traveling direction arrow display process. The progress arrow setting unit 136 determines whether or not the driver visual line image DHi is stored in the driver image information providing memory 131a every time the camera recognition own traveling lane information CZJi included in the vehicle information Ji is received.

そして、記憶されている場合は、カメラ認識自走行レーン情報CZJiに含まれている現在位置PGiを有するドライバ視線画像DHiにおけるドライバ視線画像上レーンDRiをドライバ視線画像上カメラ認識自走レーンDCRiとして定義する(図7参照)。   If stored, the driver sight image lane DRi in the driver sight image DHi having the current position PGi included in the camera recognition lane information CZJi is defined as the driver sight image camera recognition lane DCRi. (See FIG. 7).

具体的には、現在位置PGiをカメラ認識自走レーンCZRiの中心の画像座標と三次元地図モデルMiの基準座標とに基づいて補正し、この補正現在位置HPGi(座標)を有するドライバ視線画像DHiにおけるドライバ視線画像上レーンDRiをドライバ視線画像上カメラ認識自走レーンDCRiとして定義する。つまり、GPS受信機で受信した現在位置PGiに誤差があっても、ドライバ視線画像DHi上での自走しているレーン(ドライバ視線画像上カメラ認識自走レーンDCRi)を正確に検索できる。   Specifically, the current position PGi is corrected based on the image coordinates of the center of the camera recognition free-running lane CZRi and the reference coordinates of the 3D map model Mi, and the driver's line-of-sight image DHi having the corrected current position HPGi (coordinates). The driver sight line image on-lane DRi is defined as the driver sight line image on-camera recognition self-running lane DCRi. That is, even if there is an error in the current position PGi received by the GPS receiver, the self-running lane (driver recognition line image camera recognition free-running lane DCRi) on the driver line-of-sight image DHi can be accurately searched.

そして、ドライバ視線画像上カメラ認識自走レーンDCRiに自車両進行方向矢印ZYiを定義する。この自車両進行方向矢印ZYiは、ドライバ視線画像DHi又はドライバ視線画像上カメラ認識自走レーンDCRiの上になるように定義する。   Then, the own vehicle traveling direction arrow ZYi is defined in the camera recognition self-running lane DCRi on the driver's line-of-sight image. The own vehicle traveling direction arrow ZYi is defined to be on the driver line-of-sight image DHi or on the driver line-of-sight image on the camera recognition self-running lane DCRi.

自車両進行方向矢印ZYiは、ドライバ視線画像DHiの番号と、ドライバ視線画像上カメラ認識自走レーン番号DCBRiと、自車両進行方向矢印ZYiの情報(自車進行方向矢印Zyiの始点座標、大きさ、矢印の種類、色(例えば黄土色)等)を関連付けて自車両進行方向矢印情報ZYJiとして定義するのが好ましい。   The own vehicle traveling direction arrow ZYi is the number of the driver's line-of-sight image DHi, the camera recognition self-running lane number DCBRi on the driver's line-of-sight image, and information of the own vehicle's traveling direction arrow ZYi. It is preferable to define the vehicle traveling direction arrow information ZYJi by associating the arrow type and color (for example, ocher color).

さらに、レーン変更矢印処理はレーン変更矢印設定部138が行う。レーン変更矢印設定部138はカメラ認識自走行レーン情報CZJiを受信する毎に、ドライバ画像情報提供用メモリ131aにドライバ視線画像DHiが記憶(生成)され、かつドライバ視線画像上カメラ認識自走レーンDCRi上に目的地到達レーンであることを示す目的地到達レーン表示色Fi(例えば紫)を定義され、自車両進行方向矢印ZYi、レーン変更矢印HZYiが定義されているかどうかを判定する。   Further, the lane change arrow processing is performed by the lane change arrow setting unit 138. Each time the lane change arrow setting unit 138 receives the camera recognition self-running lane information CZJi, the driver line-of-sight image DHi is stored (generated) in the driver image information providing memory 131a, and the camera recognition self-running lane DCRi on the driver line-of-sight image The destination arrival lane display color Fi (for example, purple) indicating the destination arrival lane is defined above, and it is determined whether or not the own vehicle traveling direction arrow ZYi and the lane change arrow HZYi are defined.

定義されている場合は、自車両進行方向矢印ZYiがドライバ視線画像上カメラ認識自走レーンDCRi上に定義されているかどうかを判定する。そして、自車両進行方向矢印ZYiがドライバ視線画像上カメラ認識自走レーンDCRi上に定義されている場合は、ドライバ視線画像上カメラ認識自走レーンDCRi上におけるレーン変更矢印HZYiを消去する。   If it is defined, it is determined whether or not the own vehicle traveling direction arrow ZYi is defined on the driver recognition line image camera recognition self-running lane DCRi. When the own vehicle traveling direction arrow ZYi is defined on the camera recognition self-running lane DCRi on the driver visual line image, the lane change arrow HZYi on the camera recognition self-running lane DCRi on the driver visual image is deleted.

また、レーン変更矢印設定部138は、ドライバ視線画像DHiのドライバ視線画像上カメラ認識自走レーン番号DCBRiと、ドライバ視線画像上目的地到達レーン番号PDBRiとが一致しているかどうかを判定する。   Also, the lane change arrow setting unit 138 determines whether the driver recognition line image camera-recognized self-running lane number DCBRi of the driver line-of-sight image DHi matches the driver line-of-sight image destination arrival lane number PDBRi.

不一致の場合は、ドライバ視線画像DHiのドライバ視線画像上カメラ認識自走レーンDCRi上に定義されている自車両進行方向矢印ZYiの頭から所定位置を始点としたレーン変更矢印HZYiの頭をドライバ視線画像上目的地到達レーンPDRiに向けて定義する(図7参照)。   If they do not match, the driver's line of sight is the head of the lane change arrow HZYi starting from a predetermined position from the head of the own vehicle traveling direction arrow ZYi defined on the camera recognition self-running lane DCRi on the driver's line of sight image DHi. This is defined toward the destination arrival lane PDRi on the image (see FIG. 7).

一方、変化検出用サーバ190は、変化検出処理を行う(d22)。変化検出用サーバ190は、図4に示すように、変化判定部192を備えている。変化判定部192は、三次元地図モデルMiにおけるエリアEMiが定義される毎に、このエリアEMi内の三次元地図モデル上ドライバ視線画像MEDHiをメモリ194に記憶(コピー)する。   On the other hand, the change detection server 190 performs a change detection process (d22). As shown in FIG. 4, the change detection server 190 includes a change determination unit 192. The change determination unit 192 stores (copies) the driver visual line image MEDHi on the 3D map model in the area EMi in the memory 194 every time the area EMi in the 3D map model Mi is defined.

そして、このメモリ194の三次元地図モデル上ドライバ視線画像MEDHiと、カメラ画像三次元モデル用メモリ154に記憶された今回のカメラ画像三次元モデルCMiと比較し、今回のカメラ画像三次元モデルCMiに変化があるかどうかを判定する。   Then, the driver sight line image MEDHi on the 3D map model in the memory 194 is compared with the current camera image 3D model CMi stored in the camera image 3D model memory 154, and the current camera image 3D model CMi is obtained. Determine if there is a change.

変化がある場合は、この変化領域CMHiをドライバ画像情報提供用メモリ131aのドライバ視線画像DHiに上書きする(図8参照)。   If there is a change, the change area CMHi is overwritten on the driver line-of-sight image DHi in the driver image information providing memory 131a (see FIG. 8).

また、三次元地図モデルMi上の三次元モデル上道路レーンMRiに補正現在位置HPGiを定義し、この補正現在位置HPGiからカメラ画像三次元モデルCMiにおける変化領域CMHiの中心座標までの距離CGRiを求める。   Further, a corrected current position HPGi is defined for the road lane MRi on the three-dimensional model on the three-dimensional map model Mi, and a distance CGRi from the corrected current position HPGi to the center coordinate of the change area CMHi in the camera image three-dimensional model CMi is obtained. .

そして、変化領域CMHi付のドライバ視線画像DHiと距離CGRi等をカメラ画像上変化検出領域付ドライバ視線画像CMHDGiとして送信データ作成用サーバ170に出力する。このカメラ画像上変化検出領域付ドライバ視線画像CMHDGiには、距離CGRiを読み込んで何メートル先に障害物があるかを知らせるコメント等を付加するのが好ましい。   Then, the driver visual line image DHi with the change area CMHi, the distance CGRi, and the like are output to the transmission data creation server 170 as the driver visual line image CMHDGi with the change detection area on the camera image. It is preferable to add a comment or the like informing the number of meters ahead of the obstacle by reading the distance CGRi to the driver visual line image CMHDGi with a change detection area on the camera image.

また、三次元モデル更新用サーバ160は三次元モデル更新処理を行う(d24)。この三次元モデル更新処理は、三次元モデル更新用サーバ160が行う。   The 3D model update server 160 performs 3D model update processing (d24). This 3D model update process is performed by the 3D model update server 160.

三次元モデル更新用サーバ160の該当エリア引当部162は、変化検出用サーバ190が変化ありと判定した場合は、三次元地図モデルMiにおけるドライバ視線に対応するエリアEMiを引き当る。そして、このエリアEMiをカメラ画像三次元モデル用メモリ154に記憶された今回のカメラ画像三次元モデルCMiに更新(書き換える)する(図8参照)。 When the change detection server 190 determines that there is a change, the corresponding area allocation unit 162 of the 3D model update server 160 allocates an area EMi corresponding to the driver's line of sight in the 3D map model Mi. Then, the area EMi is updated (rewritten) to the current camera image 3D model CMi stored in the camera image 3D model memory 154 (see FIG. 8).

また、送信データ作成用サーバ170は、変化があることが知らせられると、送信データ決定処理を行う(d28)。   In addition, when notified that there is a change, the transmission data creation server 170 performs transmission data determination processing (d28).

送信データ作成用サーバ170の送信車両決定部172は、変化検出用サーバ190が変化個所ありとしてカメラ画像上変化検出領域付ドライバ視線画像CMHDGiを出力した場合は、車両情報蓄積用サーバ110に蓄積されている全ての車両情報Jiを読み込む。   The transmission vehicle determination unit 172 of the transmission data creation server 170 accumulates in the vehicle information accumulation server 110 when the change detection server 190 outputs the driver visual line image CMHDGi with a change detection area on the camera image because there is a change point. All the vehicle information Ji currently read is read.

そして、各々の車両情報Jiに含まれている姿勢θi、速度Vi、現在位置GPi、ハンドル角Hθi、カメラ認識自走レーン番号CZBRi、撮影時刻Ctiと、カメラ画像上変化検出領域付ドライバ視線画像CMHDGiの現在位置GPiとからこの変化箇所に向かう道路ネットワーク上を走行している車両がどれかを決定する。   Then, the posture θi, the speed Vi, the current position GPi, the steering wheel angle Hθi, the camera recognition free-running lane number CZBRi, the photographing time Cti, and the driver visual line image CMHDGi with a change detection area on the camera image are included in each vehicle information Ji. The vehicle that is traveling on the road network from the current position GPi to the change point is determined.

そして、決定した車両の車両情報に含まれている端末番号、車両番号宛てで送信データSDJiを送信する(d30)。   Then, transmission data SDJi is transmitted to the terminal number and vehicle number included in the vehicle information of the determined vehicle (d30).

また、レーン種類ドライバ視線画像作成用サーバ130が生成したドライバ視線画像DHi(更新含む)と、目的地到達レーン表示色Fi(例えば紫)と、上空ナビ画像ZFiとを組とする送信データSDJiを生成して無線通信網で車両10宛てに送信する(d32)。   In addition, transmission data SDJi including a driver line-of-sight image DHi (including update) generated by the lane type driver line-of-sight image creation server 130, a destination arrival lane display color Fi (for example, purple), and the sky navigation image ZFi is set. It is generated and transmitted to the vehicle 10 via the wireless communication network (d32).

従って、ナビ端末13の画面13aに表示される画像は、図6(a)〜図6(c)に示すように、ドライバ視線画像DHiのドライバ視線画像上目的地到達レーンPDRiが紫色で表示される。また、ドライバ視線画像上目的地到達レーンPDRiがドライバ視線画像上カメラ認識自走レーンDCRiとされた場合は、自車両進行方向矢印ZYiがドライバ視線画像上目的地到達レーンPDRi上に表示される。   Accordingly, in the image displayed on the screen 13a of the navigation terminal 13, the destination arrival lane PDRi on the driver line-of-sight image DHi of the driver line-of-sight image DHi is displayed in purple as shown in FIGS. 6 (a) to 6 (c). The When the driver arrival line image destination destination lane PDRi is set as the driver view line image on-camera recognition self-propelled lane DCRi, the own vehicle traveling direction arrow ZYi is displayed on the driver line-of-sight image destination arrival lane PDRi.

さらに、図6(a)〜図6(c)に示すように、ドライバ視線画像DHiの隣に上空ナビ画像ZFiが表示される。   Further, as shown in FIGS. 6A to 6C, the sky navigation image ZFi is displayed next to the driver line-of-sight image DHi.

若しくは、ナビ端末13の画面13aに表示される画像は、図7(a)〜図7(c)に示すように、レーン変更矢印HZYi(赤色)を含むドライバ視線画像DHiが表示される。   Alternatively, as shown in FIGS. 7A to 7C, the driver visual line image DHi including the lane change arrow HZYi (red) is displayed on the image displayed on the screen 13a of the navigation terminal 13.

或いは、ナビ端末13の画面13aに表示される画像は、図8(a)〜図8(c)に示すように、カメラ画像上変化検出領域付ドライバ視線画像CMHDGiが表示される。   Alternatively, the image displayed on the screen 13a of the navigation terminal 13 is displayed as a driver visual line image CMHDGi with a change detection area on the camera image, as shown in FIGS.

従って、図8に示すように、このカメラ画像上変化検出領域付ドライバ視線画像CMHDGiに前方に存在している車両が撮影して得た障害物としての変化領域CMHiと距離CGRiとが表示されるので、運転者は前方にどんな障害物があるかを知ることができる。このため、安全に走行できる。   Therefore, as shown in FIG. 8, the change area CMHi and the distance CGRi as an obstacle obtained by photographing a vehicle present ahead are displayed in the driver line-of-sight image CMHDGi with a change detection area on the camera image. Therefore, the driver can know what obstacles are ahead. For this reason, it can drive | work safely.

さらに、ナビ端末13の画面13aに表示される画像は、図9(a)〜図9(c)に示すように、車載カメラ撮影画像CGiに基づいて作成されたカメラ画像三次元モデルCMi付のドライバ視線画像DHiが表示される。   Furthermore, as shown in FIGS. 9A to 9C, the image displayed on the screen 13a of the navigation terminal 13 includes a camera image three-dimensional model CMi created based on the in-vehicle camera captured image CGi. A driver gaze image DHi is displayed.

10 車両
12 車載カメラ部
100 データセンタ
110 車両情報蓄積用サーバ
120 振分サーバ
130 レーン種類ドライバ視線画像作成用サーバ
150 カメラ画像三次元モデル生成用サーバ
160 三次元モデル更新用サーバ
170 送信データ作成用サーバ
180 三次元地図情報用サーバ
190 変化検出用サーバ
133 目的地到達レーン色付部
135 ドライバ画像作成部
136 進行矢印設定部
138 レーン変更矢印設定部
152 カメラ画像三次元モデル生成部
DESCRIPTION OF SYMBOLS 10 Vehicle 12 Car-mounted camera part 100 Data center 110 Vehicle information storage server 120 Distribution server 130 Lane type driver line-of-sight image creation server 150 Camera image three-dimensional model generation server 160 Three-dimensional model update server 170 Transmission data creation server 180 3D map information server 190 Change detection server 133 Destination arrival lane coloring unit 135 Driver image creation unit 136 Progress arrow setting unit 138 Lane change arrow setting unit 152 Camera image 3D model generation unit

Claims (18)

車両に搭載されて車載カメラ付ナビ端末からの端末番号(Jbi)とカメラ認識自走レーン番号(CZBRi)と現在位置(GPi)と目的地(Poi)と車載カメラ撮影画像(CGi)とを含む車両情報(Ji)を受信し、この車両情報(Ji)に基づいて作成した送信データ(SDJi)をデータセンタから前記車載カメラ付ナビ端末に提供するナビ情報提供システムであって、
前記車載カメラ付ナビ端末は、
GPS受信機と、
前記車両の前方を撮影して得た車載カメラ撮影画像(CGi)上にカメラ視線中心を定義し、このカメラ視線中心を挟む車線(Di)と車線(Di)との間のレーンをカメラ認識自走レーン(CZRi)としてこのレーンの画像座標を求め、撮影時刻(Cti)、前記車載カメラ撮影画像(CGi)、前記レーンの中心の画像座標とを含む情報を車載カメラ撮影画像情報(CJi)として出力する車載カメラ部と、
前記車載カメラ撮影画像情報(CJi)を入力する毎に、この車載カメラ撮影画像情報(CJi)に前記GPS受信機からの現在位置(GPi)、端末番号(Jbi)、目的地(Poi)を含む情報を付加した車両情報(Ji)を前記データセンタに送信する一方、画面に前記データセンタからの送信データ(SDJi)に基づくドライバ視線画像(DHi)を表示するナビ端末とを備え、
前記データセンタは、サーバ群を備え、
前記サーバ群は、
前記車両が走行する道路を含む三次元地図モデル(Mi)及びこの三次元地図モデル(Mi)の道路であるレーンに該当する道路ネットワーク(DWi)を関連付けて記憶した三次元地図情報用サーバと、
前記車両情報(Ji)を受信して蓄積する車両情報蓄積用サーバと、レーン種類ドライバ視線画像作成用サーバと、送信データ作成用サーバとを備え、
前記レーン種類ドライバ視線画像作成用サーバは、
前記車両に提供するドライバ視線画像(DHi)が記憶されるドライバ画像情報提供用メモリ部を備え、
前記車両情報(Ji)が蓄積される毎に、この車両情報(Ji)に含まれているドライバ視線位置(DSi)を三次元地図モデル上ドライバ視点位置(DMPi)として前記三次元地図モデル(Mi)上に設定する手段と、
前記三次元地図モデル上ドライバ視点位置(DMPi)における前記車載カメラ部の画角での前記三次元地図モデル(Mi)上の画像領域をドライバ視線画像(DHi)として読み込み、これを前記ドライバ画像情報提供用メモリ部に記憶する手段と、
前記目的地(Poi)の地理座標を有する前記道路ネットワーク(DWi)のネットワークレーン(NRi)を目的地到達ネットワークレーン(PNRi)として三次元地図情報用サーバから検索する手段と、
前記ドライバ視線画像(DHi)における前記目的地到達ネットワークレーン(PNRi)に該当するドライバ視線画像上目的地到達レーン(PDRi)を決定し、このドライバ視線画像上目的地到達レーン(PDRi)上に目的地到達ネットワークレーン(PNRi)であることを示す目的地到達レーン表示色(Fi)を定義する手段とを備え、
前記送信データ作成用サーバは、
前記ドライバ画像情報提供用メモリ部のドライバ視線画像(DHi)に前記目的地到達レーン表示色(Fi)が定義される毎に、これらを送信データ(SDJi)として前記車両情報(Ji)に含まれている前記端末番号(Jbi)の前記ナビ端末に送信する手段と
を有することを特徴とするナビ情報提供システム。
It includes a terminal number (Jbi), a camera recognition self-propelled lane number (CZBRi), a current position (GPi), a destination (Poi), and an in-vehicle camera captured image (CGi) mounted on the vehicle from the navigation terminal with the in-vehicle camera. A navigation information providing system that receives vehicle information (Ji), and provides transmission data (SDJi) created based on the vehicle information (Ji) from the data center to the vehicle-mounted camera-equipped navigation terminal,
The vehicle-mounted camera-equipped navigation terminal is
A GPS receiver,
A camera sight line center is defined on an in-vehicle camera photographed image (CGi) obtained by photographing the front of the vehicle, and the lane between the lane (Di) and the lane (Di) sandwiching the camera sight line center is recognized by the camera. Image coordinates of this lane are obtained as a running lane (CZRi), and information including the photographing time (Cti), the on-vehicle camera photographed image (CGi), and the image coordinate of the center of the lane is designated as on-vehicle camera photographed image information (CJi). An in-vehicle camera unit to output,
Each time the in-vehicle camera captured image information (CJi) is input, the in-vehicle camera captured image information (CJi) includes the current position (GPi), terminal number (Jbi), and destination (Poi) from the GPS receiver. A navigation terminal that transmits vehicle information (Ji) to which information is added to the data center, and displays a driver line-of-sight image (DHi) based on transmission data (SDJi) from the data center on the screen;
The data center includes a server group,
The server group is:
A three-dimensional map information server storing a three-dimensional map model (Mi) including a road on which the vehicle is traveling and a road network (DWi) corresponding to a lane that is a road of the three-dimensional map model (Mi);
A vehicle information storage server that receives and stores the vehicle information (Ji), a lane type driver line-of-sight image creation server, and a transmission data creation server;
The lane type driver line-of-sight image creation server is:
A driver image information providing memory unit that stores a driver's line-of-sight image (DHi) to be provided to the vehicle;
Each time the vehicle information (Ji) is accumulated, the driver visual line position (DSi) included in the vehicle information (Ji) is set as the driver viewpoint position (DMPi) on the three-dimensional map model and the three-dimensional map model (Mi ) Means to set above,
An image region on the three-dimensional map model (Mi) at the angle of view of the in-vehicle camera unit at the driver viewpoint position (DMPi) on the three-dimensional map model is read as a driver line-of-sight image (DHi), and this is read as the driver image information Means for storing in the providing memory unit;
Means for retrieving a network lane (NRi) of the road network (DWi) having the geographical coordinates of the destination (Poi) as a destination arrival network lane (PNRi) from a 3D map information server;
A destination arrival lane (PDRi) on the driver line-of-sight image corresponding to the destination arrival network lane (PNRi) in the driver line-of-sight image (DHi) is determined, and the destination on the driver line-of-sight image on the destination arrival lane (PDRi) Means for defining a destination arrival lane display color (Fi) indicating a destination arrival network lane (PNRi),
The transmission data creation server includes:
Each time the destination arrival lane display color (Fi) is defined in the driver line-of-sight image (DHi) of the driver image information providing memory unit, these are included in the vehicle information (Ji) as transmission data (SDJi). Means for transmitting the terminal number (Jbi) to the navigation terminal.
前記レーン種類ドライバ視線画像作成用サーバは、
前記カメラ認識自走レーン(CZRi)に一致するドライバ視線画像(DHi)におけるドライバ視線画像上カメラ認識自走レーン(DCRi)を決定する手段と、
前記決定したドライバ視線画像上カメラ認識自走レーン(DCRi)に自車両進行方向矢印(ZYi)を定義する手段を備え、
前記送信データ作成用サーバは、
前記ドライバ画像情報提供用メモリ部のドライバ視線画像(DHi)に前記自車両進行方向矢印(ZYi)が定義される毎に、これらを前記送信データ(SDJi)として前記車両情報(Ji)に含まれている前記端末番号(Jbi)の前記ナビ端末に送信する手段と
を有することを特徴とする請求項1記載のナビ情報提供システム。
The lane type driver line-of-sight image creation server is:
Means for determining the camera recognition self-running lane (DCRi) on the driver visual line image (DHi) in the driver visual line image (DHi) coinciding with the camera recognition self-running lane (CZRi);
Means for defining a vehicle traveling direction arrow (ZYi) in the camera recognition self-propelled lane (DCRi) on the determined driver line-of-sight image;
The transmission data creation server includes:
Each time the vehicle traveling direction arrow (ZYi) is defined in the driver line-of-sight image (DHi) of the driver image information providing memory unit, these are included in the vehicle information (Ji) as the transmission data (SDJi). The navigation information providing system according to claim 1, further comprising means for transmitting the terminal number (Jbi) to the navigation terminal.
前記レーン種類ドライバ視線画像作成用サーバは、
前記ドライバ視線画像(DHi)におけるドライバ視線画像上カメラ認識自走レーン(DCRi)の番号(DCBRi)と前記カメラ認識自走レーン(CZRi)の番号(CZBRi)とが一致しているかどうかを判定する手段と、
不一致の場合は、ドライバ視線画像(DHi)の前記自車両進行方向矢印(ZYi)の所定位置を始点としたレーン変更矢印(HZYi)を前記ドライバ視線画像上目的地到達レーン(PDRi)に向けて定義する手段とを備え、
前記送信データ作成用サーバは、
前記ドライバ画像情報提供用メモリ部のドライバ視線画像(DHi)に前記レーン変更矢印(HZYi)が定義される毎に、これらを前記送信データ(SDJi)として前記車両情報(Ji)に含まれている前記端末番号(Jbi)の前記ナビ端末に送信する手段と
を有することを特徴とする請求項2記載のナビ情報提供システム。
The lane type driver line-of-sight image creation server is:
It is determined whether or not the number (DCBRi) of the camera recognition free-running lane (DCRi) on the driver line-of-sight image in the driver line-of-sight image (DHi) and the number (CZBRi) of the camera recognition free-running lane (CZRi) match Means,
In the case of mismatch, the lane change arrow (HZYi) starting from a predetermined position of the own vehicle traveling direction arrow (ZYi) of the driver's line-of-sight image (DHi) is directed toward the destination arrival lane (PDRi) on the driver's line-of-sight image. Means for defining,
The transmission data creation server includes:
Each time the lane change arrow (HZYi) is defined in the driver line-of-sight image (DHi) of the driver image information providing memory unit, these are included in the vehicle information (Ji) as the transmission data (SDJi). The navigation information providing system according to claim 2, further comprising means for transmitting the terminal number (Jbi) to the navigation terminal.
目的地到達レーン用案内サーバを備え、
前記目的地到達レーン用案内サーバは、
前記車両情報(Ji)に含まれている前記現在位置(PGi)を前記カメラ認識自走レーン(CZRi)の中心の画像座標と前記三次元地図モデル(Mi)の基準座標とに基づいて補正し、これを補正現在位置(HPGi)とする手段と、
前記補正現在位置(HPGi)が求められる毎に、この補正現在位置(HPGi)の座標を有する前記道路ネットワーク(DWi)のネットワークレーン(NRi)を前記目的地到達ネットワークレーン(PNRi)として前記三次元地図情報用サーバから検索する手段と
を有することを特徴とする請求項1乃至3のいずれかに記載のナビ情報提供システム。
Equipped with a destination arrival lane guidance server,
The destination arrival lane guide server is:
The current position (PGi) included in the vehicle information (Ji) is corrected based on the image coordinates of the center of the camera recognition self-propelled lane (CZRi) and the reference coordinates of the three-dimensional map model (Mi). , A means for setting this as a corrected current position (HPGi),
Each time the corrected current position (HPGi) is obtained, the three-dimensional network lane (NRi) of the road network (DWi) having the coordinates of the corrected current position (HPGi) is used as the destination arrival network lane (PNRi). The navigation information providing system according to any one of claims 1 to 3, further comprising means for searching from a map information server.
カメラ画像三次元モデル生成用サーバを備え、
前記カメラ画像三次元モデル生成用サーバは、
車載カメラ撮影画像情報(CJi)が記憶される車載カメラ撮影画像情報用メモリと、
車載カメラのパラメータ情報が記憶された車載カメラ用パラメータデータベースとを備え、さらに、
前記車両情報蓄積用サーバに車両情報(Ji)が蓄積される毎に、この車両情報(Ji)に含まれている前記車載カメラ撮影画像情報(CJi)を前記車載カメラ撮影画像情報用メモリに記憶する手段と、
前記車載カメラ用パラメータデータベースの車載カメラのパラメータ情報と前記車載カメラ撮影画像情報(CJi)の撮影時刻(Cti)、姿勢(θi)、速度(Vi)、現在位置(GPi)及び前記三次元地図モデル(Mi)の基準座標に基づいて前記車載カメラ撮影画像(CGi)の画素当たりの三次元座標を求め、これを画素に割り当てたカメラ画像三次元モデル(CMi)を生成してカメラ画像三次元モデル用メモリに記憶する手段を有することを特徴とする請求項4記載のナビ情報提供システム。
Equipped with a camera image 3D model generation server,
The server for generating a camera image three-dimensional model is:
In-vehicle camera captured image information memory for storing in-vehicle camera captured image information (CJi);
An in-vehicle camera parameter database that stores in-vehicle camera parameter information; and
Each time vehicle information (Ji) is stored in the vehicle information storage server, the in-vehicle camera captured image information (CJi) included in the vehicle information (Ji) is stored in the in-vehicle camera captured image information memory. Means to
Parameter information of the in-vehicle camera parameter database and the in-vehicle camera captured image information (CJi) imaging time (Cti), attitude (θi), speed (Vi), current position (GPi), and the 3D map model Based on the reference coordinates of (Mi), three-dimensional coordinates per pixel of the in-vehicle camera photographed image (CGi) are obtained, and a camera image three-dimensional model (CMi) in which the three-dimensional coordinates are assigned to the pixels is generated to obtain a camera image three-dimensional model. 5. The navigation information providing system according to claim 4, further comprising means for storing in a memory for use.
変化検出用サーバを備え、
前記変化検出用サーバは、
三次元地図モデル(Mi)におけるエリア(EMi)が定義される毎に、このエリア(EMi)内の三次元地図モデル上ドライバ視線画像(MEDHi)と、前記カメラ画像三次元モデル(CMi)と比較し、このカメラ画像三次元モデル(CMi)に変化があるかどうかを判定する手段と、
変化がある場合は、この変化領域(CMHi)を前記ドライバ視線画像(DHi)に上書きする手段とを備え、
前記送信データ作成用サーバは、
変化領域(CMHi)を含むドライバ視線画像(DHi)をカメラ画像上変化検出領域付ドライバ視線画像(CMHDGi)とし、これを送信する車両を前記車両情報蓄積用サーバに蓄積されている車両情報(Ji)の現在位置、速度に基づいて決定し、この決定した端末番号のナビ端末あてに送信する手段とを有することを特徴とする請求項5記載のナビ情報提供システム。
Equipped with a change detection server,
The change detection server includes:
Each time an area (EMi) in the three-dimensional map model (Mi) is defined, a comparison is made between the driver line-of-sight image (MEDHi) on the three-dimensional map model in this area (EMi) and the camera image three-dimensional model (CMi). And means for determining whether or not there is a change in the camera image three-dimensional model (CMi);
Means for overwriting the change area (CMHi) on the driver line-of-sight image (DHi) when there is a change;
The transmission data creation server includes:
The driver line-of-sight image (DHi) including the change area (CMHi) is defined as a driver line-of-sight image (CMHDGi) with a change detection area on the camera image, and the vehicle information (Ji) stored in the vehicle information storage server is the vehicle that transmits this. 6. A navigation information providing system according to claim 5, further comprising means for determining the current position and speed based on said current position and speed and transmitting to the navigation terminal having the determined terminal number.
前記変化検出用サーバは、
前記三次元地図モデル(Mi)上の三次元モデル上道路レーン(MRi)に前記現在位置(PGi)を定義し、この現在位置(PGi)からカメラ画像三次元モデル(CMi)における変化領域(CMHi)までの距離(CGRi)を求める手段と、
前記カメラ画像上変化検出領域付ドライバ視線画像(CMHDGi)に前記距離(CGRi)を付加して前記送信データ作成用サーバに出力する手段とを有することを特徴とする請求項6記載のナビ情報提供システム。
The change detection server includes:
The current position (PGi) is defined in a road lane (MRi) on the three-dimensional model on the three-dimensional map model (Mi), and a change area (CMHi) in the camera image three-dimensional model (CMi) is defined from the current position (PGi). ) For determining the distance (CGRi) to
The navigation information provision according to claim 6, further comprising means for adding the distance (CGRi) to the driver line-of-sight image with a change detection area on the camera image (CMHDGi) and outputting it to the transmission data creation server. system.
三次元モデル更新用サーバを備え、
前記三次元モデル更新用サーバは、
前記カメラ画像三次元モデル(CMi)が生成される毎に、このカメラ画像三次元モデル(CMi)に該当するエリア(EMi)を三次元地図モデル(Mi)に定義し、このエリア(EMi)を前記生成したカメラ画像三次元モデル(CMi)に更新する手段を有することを特徴とする請求項6記載のナビ情報提供システム。
It has a 3D model update server,
The 3D model update server includes:
Each time the camera image 3D model (CMi) is generated, an area (EMi) corresponding to the camera image 3D model (CMi) is defined as a 3D map model (Mi), and this area (EMi) is defined. The navigation information providing system according to claim 6, further comprising means for updating the generated three-dimensional camera image model (CMi).
前記車両情報(Ji)は、鳥瞰図表示又はドライバ視点表示の指示情報が含まれており、
前記送信データ作成用サーバは、
前記指示情報に基づいて前記ドライバ視線画像(DHi)を鳥瞰図又はドライバ視点位置の画像に変換する手段を有することを特徴とする請求項1乃至7のいずれかに記載のナビ情報提供システム。
The vehicle information (Ji) includes instruction information for bird's eye view display or driver viewpoint display,
The transmission data creation server includes:
The navigation information providing system according to any one of claims 1 to 7, further comprising means for converting the driver line-of-sight image (DHi) into a bird's eye view or an image of a driver viewpoint position based on the instruction information.
車両が走行する道路を含む三次元地図モデル(Mi)及びこの三次元地図モデル(Mi)の道路であるレーンに該当する道路ネットワーク(DWi)を関連付けて記憶した三次元地図情報記憶部と、
車両に搭載されて車載カメラ付ナビ端末からの端末番号(Jbi)とカメラ認識自走レーン番号(CZBRi)と現在位置(GPi)と目的地(Poi)と、さらに車載カメラ部で得た前方の車載カメラ撮影画像(CGi)と、車線(Di)と車線(Di)との間のレーンをカメラ認識自走レーン(CZRi)とを含む車両情報(Ji)を受信して、これをメモリに順次記憶する車両情報用蓄積部と、
さらに、前記車両に提供するドライバ視線画像(DHi)が記憶されるドライバ画像情報提供用メモリ部と、レーン種類ドライバ視線画像作成部と、送信データ作成部とを備え、
前記レーン種類ドライバ視線画像作成部は、
前記車両に提供するドライバ視線画像(DHi)が記憶されるドライバ画像情報提供用メモリ部を備え、
前記車両情報(Ji)が蓄積される毎に、この車両情報(Ji)に含まれているドライバ視線位置(DSi)を三次元地図モデル上ドライバ視点位置(DMPi)として前記三次元地図モデル(Mi)上に設定する手段と、
前記三次元地図モデル上ドライバ視点位置(DMPi)における前記車載カメラ部の画角での前記三次元地図モデル(Mi)上の画像領域をドライバ視線画像(DHi)として読み込み、これを前記ドライバ画像情報提供用メモリ部に記憶する手段と、
前記目的地(Poi)の地理座標を有する前記道路ネットワーク(DWi)のネットワークレーン(NRi)を目的地到達ネットワークレーン(PNRi)として三次元地図情報記憶部から検索する手段と、
前記ドライバ視線画像(DHi)における前記目的地到達ネットワークレーン(PNRi)に該当するドライバ視線画像上目的地到達レーン(PDRi)を決定し、このドライバ視線画像上目的地到達レーン(PDRi)上に目的地到達ネットワークレーン(PNRi)であることを示す目的地到達レーン表示色(Fi)を定義する手段とを備え、
前記送信データ作成部は、
前記ドライバ画像情報提供用メモリ部のドライバ視線画像(DHi)に前記目的地到達レーン表示色(Fi)が定義される毎に、これらを送信データ(SDJi)として前記車両情報(Ji)に含まれている前記端末番号(Jbi)の前記車両情報(Ji)を送信してきた車両のナビ端末に送信する手段と
を有することを特徴とするナビ情報提供装置。
A three-dimensional map information storage unit storing a three-dimensional map model (Mi) including a road on which the vehicle travels and a road network (DWi) corresponding to a lane that is a road of the three-dimensional map model (Mi);
The terminal number (Jbi), the camera recognition self-propelled lane number (CZBRi), the current position (GPi), the destination (Poi) from the navigation terminal with the on-vehicle camera mounted on the vehicle, and the front obtained from the in-vehicle camera unit The vehicle information (Ji) including the in-vehicle camera photographed image (CGi) and the lane (Di) between the lane (Di) and the camera recognition self-propelled lane (CZRi) is received and sequentially stored in the memory. A storage unit for storing vehicle information;
Furthermore, a driver image information providing memory unit that stores a driver line-of-sight image (DHi) to be provided to the vehicle, a lane type driver line-of-sight image creation unit, and a transmission data creation unit,
The lane type driver line-of-sight image creation unit
A driver image information providing memory unit that stores a driver's line-of-sight image (DHi) to be provided to the vehicle;
Each time the vehicle information (Ji) is accumulated, the driver visual line position (DSi) included in the vehicle information (Ji) is set as the driver viewpoint position (DMPi) on the three-dimensional map model and the three-dimensional map model (Mi ) Means to set above,
An image region on the three-dimensional map model (Mi) at the angle of view of the in-vehicle camera unit at the driver viewpoint position (DMPi) on the three-dimensional map model is read as a driver line-of-sight image (DHi), and this is read as the driver image information Means for storing in the providing memory unit;
Means for retrieving a network lane (NRi) of the road network (DWi) having the geographical coordinates of the destination (Poi) from a 3D map information storage unit as a destination reaching network lane (PNRi);
A destination arrival lane (PDRi) on the driver line-of-sight image corresponding to the destination arrival network lane (PNRi) in the driver line-of-sight image (DHi) is determined, and the destination on the driver line-of-sight image on the destination arrival lane (PDRi) Means for defining a destination arrival lane display color (Fi) indicating a destination arrival network lane (PNRi),
The transmission data creation unit
Each time the destination arrival lane display color (Fi) is defined in the driver line-of-sight image (DHi) of the driver image information providing memory unit, these are included in the vehicle information (Ji) as transmission data (SDJi). And a means for transmitting the vehicle information (Ji) of the terminal number (Jbi) to the navigation terminal of the vehicle that has transmitted the vehicle information (Jbi).
前記レーン種類ドライバ視線画像作成部は、
前記カメラ認識自走レーン(CZRi)に一致するドライバ視線画像(DHi)におけるドライバ視線画像上カメラ認識自走レーン(DCRi)を決定する手段と、
前記決定したドライバ視線画像上カメラ認識自走レーン(DCRi)に自車両進行方向矢印(ZYi)を定義する手段を備え、
前記送信データ作成部は、
前記ドライバ画像情報提供用メモリ部のドライバ視線画像(DHi)に前記自車両進行方向矢印(ZYi)が定義される毎に、これらを前記送信データ(SDJi)として前記車両情報(Ji)に含まれている前記端末番号(Jbi)の前記ナビ端末に送信する手段と
を有することを特徴とする請求項10記載のナビ情報提供装置。
The lane type driver line-of-sight image creation unit
Means for determining the camera recognition self-running lane (DCRi) on the driver visual line image (DHi) in the driver visual line image (DHi) coinciding with the camera recognition self-running lane (CZRi);
Means for defining a vehicle traveling direction arrow (ZYi) in the camera recognition self-propelled lane (DCRi) on the determined driver line-of-sight image;
The transmission data creation unit
Each time the vehicle traveling direction arrow (ZYi) is defined in the driver line-of-sight image (DHi) of the driver image information providing memory unit, these are included in the vehicle information (Ji) as the transmission data (SDJi). The navigation information providing apparatus according to claim 10, further comprising: means for transmitting the terminal number (Jbi) to the navigation terminal.
前記レーン種類ドライバ視線画像作成部は、
前記ドライバ視線画像(DHi)におけるドライバ視線画像上カメラ認識自走レーン(DCRi)の番号(DCBRi)と前記カメラ認識自走レーン(CZRi)の番号(CZBRi)とが一致しているかどうかを判定する手段と、
不一致の場合は、ドライバ視線画像(DHi)の前記自車両進行方向矢印(ZYi)の所定位置を始点としたレーン変更矢印(HZYi)を前記ドライバ視線画像上目的地到達レーン(PDRi)に向けて定義する手段とを備え、
前記送信データ作成部は、
前記ドライバ画像情報提供用メモリ部のドライバ視線画像(DHi)に前記レーン変更矢印(HZYi)が定義される毎に、これらを前記送信データ(SDJi)として前記車両情報(Ji)に含まれている前記端末番号(Jbi)の前記ナビ端末に送信する手段と
を有することを特徴とする請求項11記載のナビ情報提供装置。
The lane type driver line-of-sight image creation unit
It is determined whether or not the number (DCBRi) of the camera recognition free-running lane (DCRi) on the driver line-of-sight image in the driver line-of-sight image (DHi) and the number (CZBRi) of the camera recognition free-running lane (CZRi) match. Means,
In the case of mismatch, the lane change arrow (HZYi) starting from a predetermined position of the own vehicle traveling direction arrow (ZYi) of the driver's line-of-sight image (DHi) is directed toward the destination arrival lane (PDRi) on the driver's line-of-sight image. Means for defining,
The transmission data creation unit
Each time the lane change arrow (HZYi) is defined in the driver line-of-sight image (DHi) of the driver image information providing memory unit, these are included in the vehicle information (Ji) as the transmission data (SDJi). The navigation information providing apparatus according to claim 11, further comprising: means for transmitting the terminal number (Jbi) to the navigation terminal.
目的地到達レーン用案内部を備え、
前記目的地到達レーン用案内部は、
前記車両情報(Ji)に含まれている前記現在位置(PGi)を前記カメラ認識自走レーン(CZRi)の中心の画像座標と前記三次元地図モデル(Mi)の基準座標とに基づいて補正し、これを補正現在位置(HPGi)とする手段と、
前記補正現在位置(HPGi)が求められる毎に、この補正現在位置(HPGi)の座標を有する前記道路ネットワーク(DWi)のネットワークレーン(NRi)を前記目的地到達ネットワークレーン(PNRi)として前記三次元地図情報記憶部から検索する手段と
を有することを特徴とする請求項10乃至12のいずれかに記載のナビ情報提供装置。
It has a guide for the destination lane,
The destination arrival lane guide is
The current position (PGi) included in the vehicle information (Ji) is corrected based on the image coordinates of the center of the camera recognition self-propelled lane (CZRi) and the reference coordinates of the three-dimensional map model (Mi). , A means for setting this as a corrected current position (HPGi),
Each time the corrected current position (HPGi) is obtained, the three-dimensional network lane (NRi) of the road network (DWi) having the coordinates of the corrected current position (HPGi) is used as the destination arrival network lane (PNRi). The navigation information providing device according to any one of claims 10 to 12, further comprising a means for searching from a map information storage unit.
さらに、カメラ画像三次元モデル作成部を備え、
前記カメラ画像三次元モデル作成部は、
車載カメラ撮影画像情報(CJi)が記憶される車載カメラ撮影画像情報用メモリと、
車載カメラのパラメータ情報が記憶された車載カメラ用パラメータデータベースとを備え、さらに、
前記車両情報用蓄積部に車両情報(Ji)が蓄積される毎に、この車両情報(Ji)に含まれている前記車載カメラ撮影画像情報(CJi)を前記車載カメラ撮影画像情報用メモリに記憶する手段と、
前記車載カメラ用パラメータデータベースの車載カメラのパラメータ情報と前記車載カメラ撮影画像情報(CJi)の撮影時刻(Cti)、姿勢(θi)、速度(Vi)、現在位置(GPi)及び前記三次元地図モデル(Mi)の基準座標に基づいて前記車載カメラ撮影画像(CGi)の画素当たりの三次元座標を求め、これを画素に割り当てたカメラ画像三次元モデル(CMi)を生成してカメラ画像三次元モデル用メモリに記憶する手段を有することを特徴とする請求項13記載のナビ情報提供装置。
In addition, it has a camera image 3D model creation unit,
The camera image three-dimensional model creation unit
In-vehicle camera captured image information memory for storing in-vehicle camera captured image information (CJi);
An in-vehicle camera parameter database that stores in-vehicle camera parameter information; and
Each time vehicle information (Ji) is stored in the vehicle information storage unit, the in-vehicle camera captured image information (CJi) included in the vehicle information (Ji) is stored in the in-vehicle camera captured image information memory. Means to
Parameter information of the in-vehicle camera parameter database and the in-vehicle camera captured image information (CJi) imaging time (Cti), attitude (θi), speed (Vi), current position (GPi), and the 3D map model Based on the reference coordinates of (Mi), three-dimensional coordinates per pixel of the in-vehicle camera photographed image (CGi) are obtained, and a camera image three-dimensional model (CMi) in which the three-dimensional coordinates are assigned to the pixels is generated to obtain a camera image three-dimensional model. 14. The navigation information providing apparatus according to claim 13, further comprising means for storing in a memory for use.
変化検出部を備え、
前記変化検出部は、
三次元地図モデル(Mi)におけるエリア(EMi)が定義される毎に、このエリア(EMi)内の三次元地図モデル上ドライバ視線画像(MEDHi)と、前記カメラ画像三次元モデル(CMi)と比較し、このカメラ画像三次元モデル(CMi)に変化があるかどうかを判定する手段と、
変化がある場合は、この変化領域(CMHi)を前記ドライバ視線画像(DHi)に上書きする手段とを備え、
前記送信データ作成部は、
変化領域(CMHi)を含むドライバ視線画像(DHi)をカメラ画像上変化検出領域付ドライバ視線画像(CMHDGi)とし、これを送信する車両を前記車両情報用蓄積部に蓄積されている車両情報(Ji)の現在位置、速度に基づいて決定し、この決定した端末番号のナビ端末あてに送信する手段とを有することを特徴とする請求項14記載のナビ情報提供装置。
With a change detector,
The change detector is
Each time an area (EMi) in the three-dimensional map model (Mi) is defined, a comparison is made between the driver line-of-sight image (MEDHi) on the three-dimensional map model in this area (EMi) and the camera image three-dimensional model (CMi). And means for determining whether or not there is a change in the camera image three-dimensional model (CMi);
Means for overwriting the change area (CMHi) on the driver line-of-sight image (DHi) when there is a change;
The transmission data creation unit
The driver line-of-sight image (DHi) including the change area (CMHi) is set as a driver line-of-sight image (CMHDGi) with a change detection area on the camera image, and the vehicle information (Ji) stored in the vehicle information storage unit is the vehicle that transmits this. 15. A navigation information providing apparatus according to claim 14, further comprising: means for determining the current position and speed based on the current position, and transmitting to the navigation terminal having the determined terminal number.
前記変化検出部は、
前記三次元地図モデル(Mi)上の三次元モデル上道路レーン(MRi)に前記現在位置(PGi)を定義し、この現在位置(PGi)からカメラ画像三次元モデル(CMi)における変化領域(CMHi)までの距離(CGRi)を求める手段と、
前記カメラ画像上変化検出領域付ドライバ視線画像(CMHDGi)に前記距離(CGRi)を付加して前記送信データ作成部に出力する手段とを有することを特徴とする請求項15記載のナビ情報提供装置。
The change detector is
The current position (PGi) is defined in a road lane (MRi) on the three-dimensional model on the three-dimensional map model (Mi), and a change area (CMHi) in the camera image three-dimensional model (CMi) is defined from the current position (PGi). ) For determining the distance (CGRi) to
16. The navigation information providing apparatus according to claim 15, further comprising means for adding the distance (CGRi) to the driver visual line image (CMHDGi) with a change detection area on the camera image and outputting the same to the transmission data creation unit. .
三次元モデル更新部を備え、
前記三次元モデル更新部は、
前記カメラ画像三次元モデル(CMi)が生成される毎に、このカメラ画像三次元モデル(CMi)に該当するエリア(EMi)を三次元地図モデル(Mi)に定義し、このエリア(EMi)を前記生成したカメラ画像三次元モデル(CMi)に更新する手段を有することを特徴とする請求項16記載のナビ情報提供装置。
With a 3D model updater,
The three-dimensional model update unit
Each time the camera image 3D model (CMi) is generated, an area (EMi) corresponding to the camera image 3D model (CMi) is defined as a 3D map model (Mi), and this area (EMi) is defined. 17. The navigation information providing apparatus according to claim 16, further comprising means for updating the generated camera image three-dimensional model (CMi).
前記車両情報(Ji)は、鳥瞰図表示又はドライバ視点表示の指示情報が含まれており、
前記送信データ作成部は、
前記指示情報に基づいて前記ドライバ視線画像DHiを鳥瞰図又はドライバ視点位置の画像に変換する手段を有することを特徴とする請求項10乃至17のいずれかに記載のナビ情報提供装置。
The vehicle information (Ji) includes instruction information for bird's eye view display or driver viewpoint display,
The transmission data creation unit
18. The navigation information providing apparatus according to claim 10, further comprising means for converting the driver line-of-sight image DHi into a bird's eye view or an image of a driver viewpoint position based on the instruction information.
JP2015257498A 2015-12-28 2015-12-28 Navigation information providing system and navigation information providing device Active JP6723744B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015257498A JP6723744B2 (en) 2015-12-28 2015-12-28 Navigation information providing system and navigation information providing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015257498A JP6723744B2 (en) 2015-12-28 2015-12-28 Navigation information providing system and navigation information providing device

Publications (2)

Publication Number Publication Date
JP2017120238A true JP2017120238A (en) 2017-07-06
JP6723744B2 JP6723744B2 (en) 2020-07-15

Family

ID=59271979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015257498A Active JP6723744B2 (en) 2015-12-28 2015-12-28 Navigation information providing system and navigation information providing device

Country Status (1)

Country Link
JP (1) JP6723744B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070712A (en) * 2019-04-12 2019-07-30 同济大学 A kind of low speed sweeper Global localization system and method
CN111158355A (en) * 2018-11-07 2020-05-15 富华科精密工业(深圳)有限公司 Automatic navigation cloud server and automatic navigation control method
CN113063418A (en) * 2020-01-02 2021-07-02 三星电子株式会社 Method and apparatus for displaying 3D augmented reality navigation information
CN116592908A (en) * 2023-05-17 2023-08-15 浙江高信技术股份有限公司 Positioning navigation method and system based on high-precision map

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006109527A1 (en) * 2005-03-30 2006-10-19 National University Corporation Kumamoto University Navigation device and navigation method
JP2008256593A (en) * 2007-04-06 2008-10-23 Alpine Electronics Inc In-vehicle navigation system
JP2010096715A (en) * 2008-10-20 2010-04-30 Alpine Electronics Inc Navigation device and method for displaying interrupt information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006109527A1 (en) * 2005-03-30 2006-10-19 National University Corporation Kumamoto University Navigation device and navigation method
JP2008256593A (en) * 2007-04-06 2008-10-23 Alpine Electronics Inc In-vehicle navigation system
JP2010096715A (en) * 2008-10-20 2010-04-30 Alpine Electronics Inc Navigation device and method for displaying interrupt information

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111158355A (en) * 2018-11-07 2020-05-15 富华科精密工业(深圳)有限公司 Automatic navigation cloud server and automatic navigation control method
CN110070712A (en) * 2019-04-12 2019-07-30 同济大学 A kind of low speed sweeper Global localization system and method
CN113063418A (en) * 2020-01-02 2021-07-02 三星电子株式会社 Method and apparatus for displaying 3D augmented reality navigation information
CN116592908A (en) * 2023-05-17 2023-08-15 浙江高信技术股份有限公司 Positioning navigation method and system based on high-precision map

Also Published As

Publication number Publication date
JP6723744B2 (en) 2020-07-15

Similar Documents

Publication Publication Date Title
JP4847090B2 (en) Position positioning device and position positioning method
US11915440B2 (en) Generation of structured map data from vehicle sensors and camera arrays
US20180045516A1 (en) Information processing device and vehicle position detecting method
EP2372309B1 (en) Vehicle position detection system
EP3553752A1 (en) Information processing apparatus, information processing method, and computer-readable medium for generating an obstacle map
US11720992B2 (en) Method, apparatus, and computer program product for generating an overhead view of an environment from a perspective image
JP6070206B2 (en) Position coordinate conversion system, position coordinate conversion method, in-vehicle device, world coordinate measuring device, and position coordinate conversion program
JP2011227888A (en) Image processing system and location positioning system
CN110998684B (en) Image collection system, image collection method, image collection device, and recording medium
US11002553B2 (en) Method and device for executing at least one measure for increasing the safety of a vehicle
EP2829844A1 (en) Navigation system
JP6723744B2 (en) Navigation information providing system and navigation information providing device
EP2988097B1 (en) Driving support system, method, and program
JP2023165757A (en) Information display control device, information display control method, and information display control program
WO2016031229A1 (en) Road map creation system, data processing device, and on-board device
US11774258B2 (en) Server apparatus and information processing method for providing vehicle travel guidance that is generated based on an image of a specific point
US10586393B2 (en) Positioning objects in an augmented reality display
JP2014228434A (en) Navigation device
JP2014074627A (en) Navigation system for vehicle
CN113469045A (en) Unmanned card-collecting visual positioning method and system, electronic equipment and storage medium
US20230386333A1 (en) Notification apparatus, notification method, notification program, and recording medium
CN112150849A (en) Server apparatus and method of providing image
JP2022093646A (en) Terminal device
KR20220115176A (en) System for improving GPS accuracy using HD map and camera information
CN111157015A (en) Method and system for creating path information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180629

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190730

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190730

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200110

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200115

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200624

R150 Certificate of patent or registration of utility model

Ref document number: 6723744

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250