JP6723744B2 - Navigation information providing system and navigation information providing device - Google Patents

Navigation information providing system and navigation information providing device Download PDF

Info

Publication number
JP6723744B2
JP6723744B2 JP2015257498A JP2015257498A JP6723744B2 JP 6723744 B2 JP6723744 B2 JP 6723744B2 JP 2015257498 A JP2015257498 A JP 2015257498A JP 2015257498 A JP2015257498 A JP 2015257498A JP 6723744 B2 JP6723744 B2 JP 6723744B2
Authority
JP
Japan
Prior art keywords
image
vehicle
lane
camera
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015257498A
Other languages
Japanese (ja)
Other versions
JP2017120238A (en
Inventor
山田 哲
哲 山田
三田 勝史
勝史 三田
難波 利行
利行 難波
勝彦 岡部
勝彦 岡部
五策 寺林
五策 寺林
井上 岳
岳 井上
重則 藤巻
重則 藤巻
朋子 尾崎
朋子 尾崎
森 一夫
一夫 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asia Air Survey Co Ltd
Original Assignee
Asia Air Survey Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asia Air Survey Co Ltd filed Critical Asia Air Survey Co Ltd
Priority to JP2015257498A priority Critical patent/JP6723744B2/en
Publication of JP2017120238A publication Critical patent/JP2017120238A/en
Application granted granted Critical
Publication of JP6723744B2 publication Critical patent/JP6723744B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、ナビ情報提供システムに関する。 The present invention relates to a navigation information providing system.

近年のナビゲーション端末は、直感的に見やすこという理由等により任意の視点から眺めたナビゲーション地図を三次元表示するものがある。 Some navigation terminals in recent years display three-dimensionally a navigation map viewed from an arbitrary viewpoint for reasons such as being intuitively easy to see.

例えば特許文献1の地図表示装置には、「地図構成物の三次元データのうち、地図構成物の地表面における2次元データを基に、所定地点を中心としたときに得られる投影図を表示する。ここで、GPSで取得した現在位置から所定距離だけ離れた車外の上空に対応する三次元座標系上の位置に視点位置を設定する」と記載している(段落0065参照)。 For example, in the map display device of Patent Document 1, "a projection view obtained when a predetermined point is centered is displayed based on the two-dimensional data on the ground surface of the map constituent out of the three-dimensional data of the map constituent. Here, the viewpoint position is set at a position on the three-dimensional coordinate system corresponding to the sky outside the vehicle, which is separated from the current position acquired by GPS by a predetermined distance" (see paragraph 0065).

つまり、特許文献1の地図表示装置は、GPSで取得した現在位置を基準にして概ね運転者が見える範囲を想定して建物、道路、交差点等を表示している。 That is, the map display device of Patent Document 1 displays buildings, roads, intersections, etc., assuming a range where the driver can generally see the current position acquired by GPS as a reference.

また、特許文献2のカーナビゲーションシステムは、カメラで撮影した実写真画像とCG画像とを組み合わせた直感的に分かりやすいナビゲーション画面を提供するものである。 Further, the car navigation system of Patent Document 2 provides an intuitively easy-to-understand navigation screen that combines a real photograph image taken by a camera and a CG image.

そして、このナビゲーション装置には、カメラで撮影した実写画像の道路に車両の現在位置Pを示す記号が表示されている(図5参照)。 Then, in this navigation device, a symbol indicating the current position P of the vehicle is displayed on the road of the photographed image taken by the camera (see FIG. 5).

特許第3766657号公報Japanese Patent No. 3766657 特開平11−108684号公報Japanese Patent Laid-Open No. 11-108684

しかしながら、首都圏の高速道路の入り口付近は、高速道路に入るレーンと一般道とが並行に並んでいる場合がある。 However, in the vicinity of the entrance of a highway in the metropolitan area, a lane entering the highway and a general road may be lined up in parallel.

ところが、特許文献1の地図表示装置は、GPSで取得した現在位置を基準にして概ね運転者が見える範囲を想定して建物、道路、交差点等を含む三次元画像を表示している。 However, the map display device of Patent Document 1 displays a three-dimensional image including a building, a road, an intersection, etc., assuming a range where a driver can generally see based on the current position acquired by GPS.

このため、画面には高速道路の入り口に向かうレーン以外に一般道も表示されているので高速道路のレーンに乗るには運転者はこのまま直進すればよいのか、レーンを変える必要があるのかを容易に判断できない。 For this reason, on the screen, not only the lane heading for the entrance of the highway but also the general road is displayed, so it is easy for the driver to go straight or to change the lane to get on the lane of the highway. I can't judge.

このため、高速道路の入り口に向かうレーンに乗るタイミングを逸する場合があった。 For this reason, the timing of getting on a lane heading for the entrance of a highway may be missed.

また、特許文献1の地図表示装置は、GPSで取得した現在位置を基準にして概ね運転者が見える範囲を想定して建物、道路、交差点等を含む三次元画像を表示している。このため、その先が急なカーブになっているか、落下物があるのか、事故があるのかが分からない。つまり、先がどうなっているかがわからない
一方、特許文献2のナビゲーション装置は、カメラで撮影した実写画像の道路(レーン)に車両の現在位置Pを示す記号を表示することが開示されているが、そのレーンが目的地点に向かうレーンであるかは容易に知ることができない。
Further, the map display device of Patent Document 1 displays a three-dimensional image including a building, a road, an intersection, etc., assuming a range where the driver can generally see based on the current position acquired by GPS. For this reason, it is not clear if there is a sharp curve, there is a falling object, or there is an accident. That is, it is not known what the destination is, while the navigation device of Patent Document 2 discloses that a symbol indicating the current position P of the vehicle is displayed on the road (lane) of the photographed image taken by the camera. , It is not easy to know if the lane is toward the destination.

また、特許文献2のナビゲーション装置は、車載カメラの実写画像をCG画像(P記号)と組み合わせて表示するが、前方の数十メートル先に車両が存在した場合は、その車両の画像も表示されることになる。このため、自車両の位置を示す記号Pを表示したとしても、その案内画面は非常に分かり難いと共に、走行中に実写画像を見ることになるから危険である。 Further, the navigation device of Patent Document 2 displays a real image of a vehicle-mounted camera in combination with a CG image (P symbol). However, when a vehicle exists several tens of meters ahead, the image of the vehicle is also displayed. Will be. For this reason, even if the symbol P indicating the position of the own vehicle is displayed, the guide screen is very difficult to understand and it is dangerous because the photographed image is viewed while the vehicle is traveling.

さらに、特許文献2のナビゲーション装置は、実写画像を表示したとしても、前に大型車があった場合は、その先がどうなっているかが分からない。 Further, even if the navigation device of Patent Document 2 displays a photographed image, if there is a large vehicle in front, it is not possible to know what is ahead.

本発明は以上の課題を鑑みてなされたものであり、目的地に向かうレーンを容易に知ることができると共に、前方に車両があっても前方がどのようになっているかを容易に知ることができるシステムを得ることを目的とする。 The present invention has been made in view of the above problems, and it is possible to easily know a lane heading for a destination and easily know what the front is like even if there is a vehicle ahead. The purpose is to obtain a system that can.

本発明に係るナビ情報提供システムは、車両に搭載され車載カメラ付ナビ端末からの車両情報(Ji)をデータセンタが無線通信回線を介して受信し、該データセンタがこの車両情報(Ji)に基づいて作成した送信データ(SDJi)を前記車載カメラ付ナビ端末に送信するナビ情報提供システムであって、
前記車載カメラ付ナビ端末は、
GPS受信機と、撮影カメラ付ナビ部と、ナビ端末とを備え、
前記撮影カメラ付ナビ部は、
前記車両の左右側に設けられ、前方を撮影する左車載カメラ及び右車載カメラよりなる撮影カメラ部と、コントローラ部とを備え、
前記コントローラ部は、
前記右車載カメラが撮影した右カメラ画像(Cai)と左車載カメラが撮影した左カメラ画像(Cbi)とが入力する毎に、これらを合成した車載カメラ撮影画像(CGi)を生成し、この車載カメラ撮影画像(CGi)毎に、この車載カメラ撮影画像(CGi)上にカメラ視線中心を定義し、このカメラ視線中心を挟む車線画像(Di)と車線画像(Di)との間の画像領域をカメラ認識自走レーン(CZRi)とし、このカメラ認識自走レーン(CZRi)を含む車載カメラ撮影画像(CGi)を出力する手段と、
前記ナビ端末は、
前記車載カメラ撮影画像(CGi)が入力する毎に、この車載カメラ撮影画像(CGi)と、端末番号(Jbi)と、姿勢(θi)と、目的地(Poi)と、前記GPS受信機で得た現在位置(GPi)とを有する前記車両情報(Ji)を生成し、これを前記データセンタに送信する手段と、
前記データセンタからの送信データ(SDJi)に基づくドライバ視線画像(DHi)を画面に表示する手段とを備え、
前記データセンタは、サーバ群を備え、
前記サーバ群は、
前記車両が走行する道路を含む三次元地図モデル(Mi)及びこの三次元地図モデル(Mi)の道路であるレーンの画像領域に対して、このレーンに該当する道路ネットワーク(DWi)のレーン番号を関連付けて記憶した三次元地図情報用サーバと、さらに、
前記車両情報(Ji)を受信して蓄積する車両情報蓄積用サーバと、レーン種類ドライバ視線画像作成用サーバと、送信データ作成用サーバとを備え、
前記レーン種類ドライバ視線画像作成用サーバは、
ドライバ画像情報提供用メモリ部を備え、
前記車両情報(Ji)が前記車両情報蓄積用サーバに蓄積される毎に、この車両情報(Ji)に含まれている前記現在位置(GPi)、前記姿勢(θi)、予め記憶されているカメラパラメータ情報、基準の地理座標に基づいて求めた前記三次元地図モデル(Mi)における位置を三次元地図モデル上ドライバ視点位置(DMPi)として前記三次元地図モデル(Mi)上に設定する手段と、
前記三次元地図モデル上ドライバ視点位置(DMPi)に、前記カメラパラメータ情報、前記姿勢(θi)に基づくエリア(EMi)を前記三次元地図モデル(Mi)に定義し、このエリア内の画像を前記ドライバ視線画像(DHi)として読み込み、これを前記ドライバ画像情報提供用メモリ部に記憶する手段と、
前記車両情報(Ji)が前記車両情報蓄積用サーバに蓄積される毎に、この前記車両情報(Ji)に含まれている前記目的地(Poi)の地理座標を有する前記道路ネットワーク(DWi)のレーン番号のネットワークレーン(NRi)を前記目的地(Poi)に到達するための目的地到達ネットワークレーン(PNRi)として前記三次元地図情報用サーバから検索する手段と、
記目的地到達ネットワークレーン(PNRi)が検索される毎に、この目的地到達ネットワークレーン(PNRi)のレーン番号が関連付けられている前記ドライバ視線画像(DHi)の画像領域に、目的地到達ネットワークレーン(PNRi)であることを示す目的地到達レーン表示色(Fi)を定義した画像をドライバ視線画像上目的地到達レーン(PDRi)として得る手段と、
前記車両情報(Ji)を受信する毎に、この車両情報(Ji)の前記車載カメラ撮影画像(CGi)に含まれている前記カメラ認識自走レーン(CZRi)に該当する前記ドライバ視線画像(DHi)の画像領域をドライバ視線画像上カメラ認識自走レーン(DCRi)として決定する手段と、
前記決定したドライバ視線画像上カメラ認識自走レーン(DCRi)に自車両進行方向矢印(ZYi)を定義する手段とを備え、
前記送信データ作成用サーバは、
前記ドライバ画像情報提供用メモリ部のドライバ視線画像(DHi)の前記ドライバ視線画像上目的地到達レーン(PDRi)が得られ、かつドライバ視線画像上カメラ認識自走レーン(DCRi)に自車両進行方向矢印(ZYi)定義される毎に、前記ドライバ視線画像上目的地到達レーン(PDRi)を含むドライバ視線画像(DHi)及び前記自車両進行方向矢印(ZYi)を前記送信データ(SDJi)として、前記車両情報(Ji)に含まれている前記端末番号(Jbi)の前記ナビ端末に送信する手段とを備えたことを要旨とする。
In the navigation information providing system according to the present invention, the data center receives the vehicle information (Ji) from the on-vehicle camera-equipped navigation terminal mounted on the vehicle via the wireless communication line, and the data center receives the vehicle information (Ji). A navigation information providing system for transmitting transmission data (SDJi) created based on
The in-vehicle camera navigation terminal,
A GPS receiver, a navigation unit with a photographing camera, and a navigation terminal,
The navigation unit with the photographing camera is
Provided on the left and right sides of the vehicle, a photographing camera unit including a left vehicle-mounted camera and a right vehicle-mounted camera for capturing the front, and a controller unit,
The controller unit is
Each time the right camera image (Cai) captured by the right vehicle-mounted camera and the left camera image (Cbi) captured by the left vehicle-mounted camera are input, a vehicle-mounted camera captured image (CGi) is generated by combining these, and the vehicle-mounted image is generated. For each camera-captured image (CGi), a camera line-of-sight center is defined on the vehicle-mounted camera image-captured image (CGi), and an image region between the lane image (Di) and the lane-line image (Di) sandwiching the camera line-of-sight center is defined. A means for outputting a camera-recognized self-propelled lane (CZRi), and means for outputting a vehicle-mounted camera image (CGi) including the camera-recognized self-propelled lane (CZRi);
The navigation terminal is
Every time the vehicle-mounted camera captured image (CGi) is input, the vehicle-mounted camera captured image (CGi), the terminal number (Jbi), the attitude (θi), the destination (Poi), and the GPS receiver are acquired. Means for generating the vehicle information (Ji) having the present position (GPi) and transmitting the vehicle information (Ji) to the data center;
Means for displaying on the screen a driver line-of-sight image (DHi) based on transmission data (SDJi) from the data center,
The data center includes a server group,
The server group is
The lane number of the road network (DWi) corresponding to this lane is assigned to the image area of the lane that is the road of the three-dimensional map model (Mi) and the three-dimensional map model (Mi) including the road on which the vehicle travels. A server for 3D map information stored in association with each other,
A vehicle information storage server that receives and stores the vehicle information (Ji), a lane type driver line-of-sight image creation server, and a transmission data creation server,
The lane type driver line-of-sight image creation server,
A memory unit for providing driver image information is provided,
Every time the vehicle information (Ji) is stored in the vehicle information storage server, the current position (GPi), the attitude (θi), and the camera stored in advance included in the vehicle information (Ji). Means for setting the position in the three-dimensional map model (Mi) obtained based on the parameter information and the reference geographical coordinates as a driver viewpoint position (DMPi) on the three-dimensional map model on the three-dimensional map model (Mi);
An area (EMi) based on the camera parameter information and the posture (θi) is defined in the three-dimensional map model (Mi) at the driver viewpoint position (DMPi) on the three-dimensional map model, and an image in this area is defined as described above. Means for reading in as a driver line-of-sight image (DHi) and storing this in the driver image information providing memory unit;
Each time the vehicle information (Ji) is stored in the vehicle information storage server, the road network (DWi) having the geographical coordinates of the destination (Poi) included in the vehicle information (Ji) is stored. Means for searching the network lane (NRi) of the lane number from the three-dimensional map information server as a destination arrival network lane (PNRi) for reaching the destination (Poi);
Each time before Symbol their destinations reached network lane (PNRI) is retrieved, the image area of the driver sight image is associated lane number for the destination reached network lane (PNRi) (DHi), destination reached A means for obtaining an image defining a destination arrival lane display color (Fi) indicating a network lane (PNRi) as a destination arrival lane (PDRi) on the driver's line-of-sight image;
Each time the vehicle information (Ji) is received, the driver line-of-sight image (DHi) corresponding to the camera recognition self-propelled lane (CZRi) included in the vehicle-mounted camera captured image (CGi) of the vehicle information (Ji). ), a means for determining the image area of the camera recognition self-running lane (DCRi) on the driver's line-of-sight image,
Means for defining a vehicle traveling direction arrow (ZYi) in the determined camera-recognized self-propelled lane (DCRi) on the driver's line-of-sight image,
The transmission data creation server,
A destination lane (PDRi) on the driver line-of-sight image of the driver line-of-sight image (DHi) in the driver image information providing memory is obtained, and a vehicle traveling direction is set on the driver-recognized image lane (DCRi). Every time an arrow (ZYi) is defined, the driver line-of-sight image (DHi) including the destination lane (PDRi) on the driver line-of-sight image and the own vehicle traveling direction arrow (ZYi) are set as the transmission data (SDJi). And a means for transmitting the terminal number (Jbi) included in the vehicle information (Ji) to the navigation terminal.

以上のように本発明によれば、目的地に到達するレーンを容易に知ることができると共に、前方に車両があっても前方がどのようになっているかを容易に知ることができる。 As described above, according to the present invention, it is possible to easily know the lane reaching the destination, and it is possible to easily know what the front is like even if there is a vehicle ahead.

また、どのタイミングで目的地に到達するレーンに乗ればよいかが容易に画面上から把握できる。 In addition, it is possible to easily understand from the screen when to get on the lane to reach the destination.

本実施の形態の車載カメラ画像を用いたナビ情報提供システムの概略構成図である。It is a schematic block diagram of the navigation information provision system using the vehicle-mounted camera image of this Embodiment. 撮影カメラ付ナビ部の概略構成図である。It is a schematic block diagram of the navigation part with a photography camera. レーン種類ドライバ視線画像作成用サーバ130の概略構成図である。FIG. 3 is a schematic configuration diagram of a lane type driver line-of-sight image creation server 130. カメラ画像三次元モデル生成用サーバ150の概略構成図である。It is a schematic block diagram of the camera image three-dimensional model generation server 150. 車載カメラ画像を用いたナビ情報提供システムの概略全体動作を説明するシーケンス図である。It is a sequence diagram explaining a schematic whole operation of a navigation information providing system using an in-vehicle camera image. ナビ端末13に表示されるドライバ視線画像DHi、目的地到達レーン表示、自車両進行方向矢印を説明する説明図である。It is explanatory drawing explaining the driver's line-of-sight image DHi displayed on the navigation terminal 13, the destination arrival lane display, and the own vehicle advancing direction arrow. ナビ端末13に表示されるレーン変更矢印HZYi(赤色)を含むドライバ視線画像DHiを説明する説明図である。It is explanatory drawing explaining the driver|operator's line-of-sight image DHi containing the lane change arrow HZYi (red) displayed on the navigation terminal 13. ナビ端末13に表示されるカメラ画像上変化検出領域付ドライバ視線画像CMHDGiを説明する説明図である。7 is an explanatory diagram illustrating a driver line-of-sight image CMHDGi with a change detection area on a camera image displayed on the navigation terminal 13. FIG. ナビ端末13に表示されるカメラ画像三次元モデルCMi付のドライバ視線画像DHiを説明する説明図である。9 is an explanatory diagram illustrating a driver line-of-sight image DHi with a camera image three-dimensional model CMi displayed on the navigation terminal 13. FIG.

以下に示す本実施の形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構造、配置は下記のものに特定するものではない。 The present embodiment described below exemplifies an apparatus and a method for embodying the technical idea of the present invention, and the technical idea of the present invention is specified in the structure and arrangement as follows. Not a thing.

本発明の技術的思想は、特許請求の範囲に記載された技術的範囲内において、種々の変更を加えることができる。図面は模式的なものであり、装置やシステムの構成等は現実のものとは異なることに留意すべきである。 The technical idea of the present invention can be variously modified within the technical scope described in the claims. It should be noted that the drawings are schematic and the configurations of devices and systems are different from actual ones.

図1は本実施の形態の車載カメラ画像を用いたナビ情報提供システムの概略構成図である。 FIG. 1 is a schematic configuration diagram of a navigation information providing system using in-vehicle camera images according to the present embodiment.

図1に示すように車載カメラ画像を用いたナビ情報提供システムは、車両10(10a、10b、・・・)に設けられた車載カメラ部12と、ナビ端末13と、データセンタ100に設けた複数のサーバとからなるシステムである。この車載カメラ部12とナビ端末13とを総称して車載カメラ付ナビ端末14と称する。 As shown in FIG. 1, the navigation information providing system using the vehicle-mounted camera image is provided in the vehicle-mounted camera unit 12 provided in the vehicle 10 (10a, 10b,... ), the navigation terminal 13, and the data center 100. It is a system consisting of multiple servers. The in-vehicle camera unit 12 and the navigation terminal 13 are collectively referred to as an in-vehicle camera-equipped navigation terminal 14.

前述の車載カメラ部12は、図2に示すように、車両10(10a、10b、・・・)の内部のフロントガラスの例えば左右に設けられた右車載カメラ12aと左車載カメラ12bとで構成され、カメラコントローラ15によって一定時間毎(例えば100msec、200msec、・・・)に前方の画像を撮影する。右車載カメラ12aと左車載カメラ12bとカメラコントローラ15とを総称して撮影カメラ付ナビ部16と称する。 As shown in FIG. 2, the vehicle-mounted camera unit 12 is configured by a right vehicle-mounted camera 12a and a left vehicle-mounted camera 12b provided on the left and right sides of the windshield inside the vehicle 10 (10a, 10b,... ), for example. Then, the camera controller 15 captures a front image at regular intervals (for example, 100 msec, 200 msec,... ). The right vehicle-mounted camera 12a, the left vehicle-mounted camera 12b, and the camera controller 15 are collectively referred to as a camera-equipped navigation unit 16.

カメラコントローラ15は、右車載カメラ12aが撮影した右カメラ画像Caiと左車載カメラ12bが撮影した左カメラ画像Cbiとを合成した車載カメラ撮影画像CGiを生成する。そして、この車載カメラ撮影画像CGiを解析して車線Diを認識する。例えば、最も右端の車線Diから車線D1、車線D2・・・とし、車線D1と車線D2との間のレーンをカメラ認識レーンCR1、車線D2と車線D3との間のレーンをカメラ認識レーンCR2・・という具合に認識する。そして、車両10が現在走行しているレーンをカメラ認識自走レーンCZRiとする。 The camera controller 15 generates a vehicle-mounted camera captured image CGi that combines the right camera image Cai captured by the right vehicle-mounted camera 12a and the left camera image Cbi captured by the left vehicle-mounted camera 12b. Then, the vehicle-mounted camera image CGi is analyzed to recognize the lane Di. For example, from the rightmost lane Di to lane D1, lane D2,..., The lane between lane D1 and lane D2 is the camera recognition lane CR1, and the lane between lane D2 and lane D3 is the camera recognition lane CR2.・Recognize as follows. Then, the lane in which the vehicle 10 is currently traveling is defined as a camera-recognized self-propelled lane CZRi.

そして、撮影時刻Cti(年月日、時刻)と、カメラ番号Jci(右カメラ番号Jcai、左カメラ番号Jcbi)と、車載カメラ撮影画像CGiとを組とした車載カメラ撮影画像情報CJiをナビ端末13に出力する。 Then, the in-vehicle camera captured image information CJi, which is a combination of the captured time Cti (year, month, day, time), the camera number Jci (right camera number Jcai, left camera number Jcbi), and the in-vehicle camera captured image CGi, is displayed on the navigation terminal 13 Output to.

ナビ端末13は、例えば図2に示すように、車両10(10a、10b、・・・)内のフロントパネル(図示せず)に設けられている。このナビ端末13は、図示しないGPS受信機、慣性航法装置及び送受信器を内部に備え、カメラコントローラ15からの車載カメラ撮影画像情報CJi(撮影時刻Cti、カメラ番号Jci、車載カメラ撮影画像CGi(カメラ認識自走レーンCZRiを含む))を入力する。 The navigation terminal 13 is provided on a front panel (not shown) in the vehicle 10 (10a, 10b,...) As shown in FIG. The navigation terminal 13 is internally provided with a GPS receiver, an inertial navigation device, and a transceiver, which are not shown, and the in-vehicle camera captured image information CJi (shooting time Cti, camera number Jci, in-vehicle camera captured image CGi (camera) from the camera controller 15 is shown. Enter the recognition self-propelled lane CZRi)).

そして、車載カメラ撮影画像情報CJiに車両番号Jaiと端末番号Jbiと姿勢θiと速度Viと目的地Poiと現在位置GPiとハンドル角Hθi(無くても構わない)と運転者によって入力されたドライバ視線位置DSi等を組とする車両情報Jiをデータセンタ100(ナビ情報提供装置ともいう)に送信する。 Then, the vehicle number Jai, the terminal number Jbi, the attitude θi, the speed Vi, the destination Poi, the current position GPi, the steering wheel angle Hθi (which may be omitted), and the driver's line of sight input by the driver are included in the in-vehicle camera captured image information CJi. The vehicle information Ji including the position DSi and the like is transmitted to the data center 100 (also referred to as a navigation information providing device).

また、データセンタ100から送信データSDJiを受信する毎に、ブラウザ機能でこの送信データSDJiに基づく画像を画面13aに表示する。 Also, every time the transmission data SDJi is received from the data center 100, an image based on the transmission data SDJi is displayed on the screen 13a by the browser function.

(データセンタ100の構成)
データセンタ100は、以下に示す手段を有している。図1に示すように、車両情報蓄積用サーバ110(車両情報蓄積部ともいう)と、振分サーバ120(受信情報振分部ともいう)と、レーン種類ドライバ視線画像作成用サーバ130(レーン種類ドライバ視線画像情報作成部ともいう)と、カメラ画像三次元モデル生成用サーバ150(カメラ画像三次元モデル作成部ともいう)と、三次元モデル更新用サーバ160(三次元モデル更新部ともいう)と、送信データ作成用サーバ170(送信データ作成部ともいう)と、三次元地図情報用サーバ180(三次元地図情報用記憶部ともいう)と、変化検出用サーバ190(変化検出部ともいう)等からなる。
(Configuration of data center 100)
The data center 100 has the following means. As shown in FIG. 1, a vehicle information storage server 110 (also called a vehicle information storage unit), a distribution server 120 (also called a received information distribution unit), and a lane type driver line-of-sight image creation server 130 (lane type). A driver line-of-sight image information creating unit), a camera image three-dimensional model creating server 150 (also called a camera image three-dimensional model creating unit), and a three-dimensional model updating server 160 (also called a three-dimensional model updating unit). , A transmission data creation server 170 (also called a transmission data creation unit), a three-dimensional map information server 180 (also called a three-dimensional map information storage unit), a change detection server 190 (also called a change detection unit), etc. Consists of.

車両情報蓄積用サーバ110は、車両10(10a、10b・・)からの車両情報Jiを受信して図示しないメモリに蓄積する。 The vehicle information storage server 110 receives the vehicle information Ji from the vehicle 10 (10a, 10b...) And stores it in a memory (not shown).

振分サーバ120は、車両情報蓄積用サーバ110に車両情報Jiが蓄積される毎に、この車両情報Jiに含まれている撮影時刻Cti、カメラ番号Jci、車載カメラ撮影画像CGi、姿勢θi、速度Vi、現在位置GPi、ハンドル角Hθi等を車載カメラ撮影画像情報CJiとしてカメラ画像三次元モデル生成用サーバ150に出力(振分け)する。 Each time the distribution server 120 stores the vehicle information Ji in the vehicle information storage server 110, the shooting time Cti, the camera number Jci, the in-vehicle camera shot image CGi, the attitude θi, and the speed included in the vehicle information Ji. Vi, the current position GPi, the steering wheel angle Hθi, etc. are output (sorted) to the camera image three-dimensional model generation server 150 as vehicle-mounted camera image information CJi.

また、車両情報Jiの車両番号Jaiと端末番号Jbiと姿勢θiと速度Viと目的地Poiと現在位置GPiとハンドル角Hθiと撮影時刻Ctiとドライバ視線位置DSi等をカメラ認識自走行レーン情報CZJiとしてレーン種類ドライバ視線画像作成用サーバ130に出力(振分け)する。 Further, the vehicle number Jai, the terminal number Jbi, the attitude θi, the speed Vi, the destination Poi, the current position GPi, the steering wheel angle Hθi, the photographing time Cti, the driver's line-of-sight position DSi, etc. of the vehicle information Ji are used as the camera-recognized own-lane information CZJi. It outputs (sorts) to the lane type driver line-of-sight image creation server 130.

三次元地図情報用サーバ180は、道路のレーンを定義した道路ネットワークDWiを記憶している。この道路ネットワークDWiで定義されたレーンを本実施の形態ではネットワークレーンNRiと称する。 The three-dimensional map information server 180 stores a road network DWi that defines road lanes. The lane defined by this road network DWi is referred to as a network lane NRi in the present embodiment.

また、三次元地図情報用サーバ180は、三次元地図モデルMiを記憶している。この三次元地図モデルMiは、衛生画像、航空写真測量、航空レーザ測量、移動体計測車両によるレーザ計測又は車両10(10a、10b、・・・)に設けられた車載カメラ部12で撮影した車載カメラ撮影画像CGiに基づいて作成した三次元地図モデルMiである。 The three-dimensional map information server 180 also stores a three-dimensional map model Mi. This three-dimensional map model Mi is a vehicle-mounted image captured by a vehicle-mounted camera unit 12 provided on a hygienic image, aerial photogrammetric survey, aerial laser survey, laser measurement by a moving body measurement vehicle, or a vehicle 10 (10a, 10b,... ). It is a three-dimensional map model Mi created based on a camera-captured image CGi.

レーン種類ドライバ視線画像作成用サーバ130は、振分サーバ120からの車両情報Jiに含まれているカメラ認識自走行レーン情報CZJiを受信する毎に、このカメラ認識自走行レーン情報CZJiに含まれている目的地Poiの地理座標を有するネットワークレーンNRiを三次元地図情報用サーバ180から検索する。 Each time the lane type driver line-of-sight image creation server 130 receives the camera-recognized self-traveling lane information CZJi included in the vehicle information Ji from the distribution server 120, it is included in the camera-recognized self-traveling lane information CZJi. The network lane NRi having the geographical coordinates of the destination Poi is searched from the three-dimensional map information server 180.

この検索されたネットワークレーンNRiを目的地到達ネットワークレーンPNRiと称する。番号は、目的地到達ネットワークレーン番号PNBRiと称する。 The searched network lane NRi is called a destination arrival network lane PNRi. The number is called the destination arrival network lane number PNBRi.

また、後述するドライバ視線画像DHiを読み込み、検索した目的地到達ネットワークレーンPNRiの目的地到達ネットワークレーン番号PNBRiに該当するドライバ視線画像上レーンDRi上に目的地到達ネットワークレーンPNRiであることを示す目的地到達レーン表示色Fi(例えば紫)を定義する。 In addition, the purpose is to read the driver line-of-sight image DHi, which will be described later, and to indicate that it is the destination-arrival network lane PNRi on the driver-line-of-sight image lane DRi corresponding to the destination-arrival network lane number PNBRi of the retrieved destination-arrival network lane PNRi. The landing lane display color Fi (for example, purple) is defined.

また、レーン種類ドライバ視線画像作成用サーバ130は、カメラ認識自走行レーン情報CZJiを受信する毎に、このカメラ認識自走行レーン情報CZJiに含まれている現在位置GPi、姿勢θi、速度Vi、ハンドル角Hθi、撮影時刻Cti、車両番号Jai、端末番号Jbi、ドライバ視線位置DSiをドライバ画像作成基本情報DKJiとして読み込む。 Also, the lane type driver line-of-sight image creation server 130 receives the camera-recognized self-traveling lane information CZJi each time the current position GPi, the attitude θi, the speed Vi, and the steering wheel included in the camera-recognized self-traveling lane information CZJi are received. The angle Hθi, the photographing time Cti, the vehicle number Jai, the terminal number Jbi, and the driver line-of-sight position DSi are read as driver image creation basic information DKJi.

そして、ドライバ画像作成基本情報DKJiに含まれているドライバ視線位置DSiを三次元地図モデルMi上に設定する。この設定されたドライバ視線位置DSiを三次元地図モデル上ドライバ視点位置DMPiと称する。 Then, the driver line-of-sight position DSi included in the driver image creation basic information DKJi is set on the three-dimensional map model Mi. The set driver line-of-sight position DSi is referred to as a driver viewpoint position DMPi on the three-dimensional map model.

そして、この三次元地図モデル上ドライバ視点位置DMPiの画角のドライバ視線画像DHiを抽出(読み込む)する。 Then, the driver line-of-sight image DHi at the angle of view of the driver viewpoint position DMPi on the three-dimensional map model is extracted (read).

また、三次元地図モデルMi上の起点位置kiから進行方向に例えば500mの範囲を上空ナビ画像ZFiとして作成する。 Further, a range of, for example, 500 m in the traveling direction from the starting point position ki on the three-dimensional map model Mi is created as the sky navigation image ZFi.

さらに、カメラ認識自走行レーン情報CZJiを受信する毎に、カメラ認識自走行レーン情報CZJiに含まれているカメラ認識自走レーンCZRiに一致するドライバ視線画像DHiにおけるドライバ視線画像上レーン番号DBRiを有するドライバ視線画像上レーンDRiをドライバ視線画像上カメラ認識自走レーンDCRiとして定義する。 Further, each time the camera-recognized self-propelled lane information CZJi is received, the driver-gaze image lane number DBRi in the driver-gaze image DHi that matches the camera-recognized self-propelled lane CZRi included in the camera-recognized self-propelled lane information CZJi is provided. The lane DRi on the driver's line-of-sight image is defined as the camera recognition self-propelled lane DCRi on the driver's line-of-sight image.

そして、ドライバ視線画像上カメラ認識自走レーンDCRiに自車両進行方向矢印ZYiを定義する。この自車両進行方向矢印ZYiは、ドライバ視線画像DHi又はドライバ視線画像上カメラ認識自走レーンDCRiの上になるように定義する。また、レーン変更矢印HZYiをドライバ視線画像DHiに定義する。 Then, the vehicle traveling direction arrow ZYi is defined in the camera-recognized self-propelled lane DCRi on the driver line-of-sight image. The own vehicle traveling direction arrow ZYi is defined so as to be on the driver line-of-sight image DHi or on the driver line-of-sight image camera recognition self-propelled lane DCRi. Further, the lane change arrow HZYi is defined in the driver line-of-sight image DHi.

カメラ画像三次元モデル生成用サーバ150は、振分サーバ120からの車載カメラ撮影画像情報CJiに含まれている車載カメラ撮影画像CGiにおける画素当たりの三次元座標を求め、これを画素に割り当てたカメラ画像三次元モデルCMiを生成する。 The camera image three-dimensional model generation server 150 obtains three-dimensional coordinates per pixel in the vehicle-mounted camera captured image CGi included in the vehicle-mounted camera captured image information CJi from the distribution server 120, and assigns the three-dimensional coordinates to the pixels. An image three-dimensional model CMi is generated.

変化検出用サーバ190は、三次元地図モデルMiにドライバ視線位置DSiに基づくエリアEMiを定義し、このエリアEMi内の三次元地図モデル上ドライバ視線画像MEDHiと、今回のカメラ画像三次元モデルCMiと比較し、今回のカメラ画像三次元モデルCMiに対して変化している領域(以下変化領域CMHiという)があるかどうかを判定する。 The change detection server 190 defines an area EMi based on the driver line-of-sight position DSi in the three-dimensional map model Mi, and a driver line-of-sight image MEDHi on the three-dimensional map model in this area EMi and the current camera image three-dimensional model CMi. By comparison, it is determined whether or not there is a changed area (hereinafter referred to as changed area CMHi) with respect to the current camera image three-dimensional model CMi.

変化がある場合は、この変化領域CMHiをドライバ視線画像DHiに上書きする。 If there is a change, the change area CMHi is overwritten on the driver line-of-sight image DHi.

また、三次元地図モデルMi上の三次元モデル上道路レーンMRiに補正現在位置HPGiを定義し、この補正現在位置HPGiからカメラ画像三次元モデルCMiにおける変化領域CMHiの中心座標までの距離CGRiを求める。 Further, the corrected current position HPGI is defined in the road lane MRi on the three-dimensional model on the three-dimensional map model Mi, and the distance CGRi from the corrected current position HPGI to the center coordinates of the change area CMHi in the camera image three-dimensional model CMi is calculated. ..

そして、変化領域CMHi付のドライバ視線画像DHiと距離CGRi等をカメラ画像上変化検出領域付ドライバ視線画像CMHDGiとして送信データ作成用サーバ170に出力する。 Then, the driver line-of-sight image DHi with the change region CMHi, the distance CGRi, and the like are output to the transmission data creation server 170 as the driver line-of-sight image CMHDGi with the change detection region on the camera image.

三次元モデル更新用サーバ160は、変化検出用サーバ190が変化ありと判定した場合は、三次元地図モデルMiにおけるドライバ視線に対応するエリアEMiを引き当て、このエリアEMiを今回のカメラ画像三次元モデルCMiに更新(書き換える)する。 When the change detection server 190 determines that there is a change, the three-dimensional model update server 160 assigns the area EMi corresponding to the driver's line of sight in the three-dimensional map model Mi, and uses this area EMi for the current camera image three-dimensional model. Update (rewrite) to CMi.

送信データ作成用サーバ170は、レーン種類ドライバ視線画像作成用サーバ130が生成したドライバ視線画像DHiと、目的地到達レーン表示色Fi(例えば紫)と、上空ナビ画像ZFiとを組とする送信データSDJiを生成して無線通信網で車両10宛てに送信する。 The transmission data creation server 170 uses the driver line-of-sight image DHi generated by the lane type driver line-of-sight image creation server 130, the destination arrival lane display color Fi (for example, purple), and the sky navigation image ZFi as a set of transmission data. SDJi is generated and transmitted to the vehicle 10 via the wireless communication network.

また、ドライバ視線画像DHiと、自車両進行方向矢印ZYiとを組とする送信データSDJiを生成して無線通信網で車両10宛てに送信する。 Further, it generates transmission data SDJi including a driver line-of-sight image DHi and a vehicle traveling direction arrow ZYi, and transmits the transmission data SDJi to the vehicle 10 via a wireless communication network.

さらに、変化領域CMHiを含むドライバ視線画像DHi(カメラ画像上変化検出領域付ドライバ視線画像CMHDGi)を送信する車両を決定して無線通信網でその車両10宛てに送信する。 Further, a vehicle to which the driver's line-of-sight image DHi including the change region CMHi (driver's line-of-sight image CMHDGi on the camera image with change detection region) is determined and transmitted to the vehicle 10 via the wireless communication network.

また、送信データ作成用サーバ170は、車両情報Jiの指示情報に基づいてドライバ視線画像DHiを鳥瞰図又はドライバ視点位置の画像に変換する。 Further, the transmission data creation server 170 converts the driver line-of-sight image DHi into a bird's-eye view or an image at the driver's viewpoint position based on the instruction information of the vehicle information Ji.

<各サーバの詳細構成>
レーン種類ドライバ視線画像作成用サーバ130は、図3に示す構成要件を備えている。図3においては、三次元地図情報用サーバ180及び送信データ作成用サーバ170を示して説明する。
<Detailed configuration of each server>
The lane type driver line-of-sight image creation server 130 has the configuration requirements shown in FIG. In FIG. 3, the three-dimensional map information server 180 and the transmission data creation server 170 are shown and described.

(レーン種類ドライバ視線画像作成用サーバ130)
図3に示すように、レーン種類ドライバ視線画像作成用サーバ130は、車両10(10a、10b・・)に提供するドライバ視線画像DHiが記憶されるドライバ画像情報提供用メモリ131aと、上空ナビ画像用メモリ131bと、目的地到達レーン色付部133と、ドライバ画像作成部135と、進行矢印設定部136と、レーン変更矢印設定部138等を備えている。
(Lane type driver line-of-sight image creation server 130)
As shown in FIG. 3, the lane type driver line-of-sight image creation server 130 includes a driver image information providing memory 131a in which a driver line-of-sight image DHi to be provided to the vehicle 10 (10a, 10b...) Is stored, and a sky navigation image. The memory 131b, the destination arrival lane coloring unit 133, the driver image creating unit 135, the progress arrow setting unit 136, the lane change arrow setting unit 138, and the like.

前述の三次元地図情報用サーバ180は、道路ネットワークDWiを記憶した道路ネットワークデータベース180aと、三次元地図モデルMiを記憶した三次元地形モデル用データベース180bと、道路の標識等の道路施設情報及びその他交通案内に必要な情報を道路施設交通案内情報DJiを記憶した道路施設交通案内関連情報用データベース180c等を備えている。 The three-dimensional map information server 180 described above includes a road network database 180a that stores the road network DWi, a three-dimensional topographic model database 180b that stores the three-dimensional map model Mi, road facility information such as road signs, and other information. A database 180c for road facility traffic guidance related information that stores road facility traffic guidance information DJi necessary for traffic guidance is provided.

道路ネットワークDWiは、道路のレーンを定義したものであり、ノードNDiと、リンクLRi等で構成されている。そして、ノードNDiには地理座標が割り付けられている。また、リンクLRiには、幅、距離等が割り付けられている。この道路ネットワークDWiで定義されたレーンを本実施の形態ではネットワークレーンNRiと称する。つまり、ネットワークレーンNRiは、ノードNDi、リンクLRi、地理座標、幅、ノード間距離、ネットワークレーン番号NRBi等からなる。 The road network DWi defines road lanes, and is composed of nodes NDi, links LRi, and the like. Geographical coordinates are assigned to the node NDi. Further, width, distance, etc. are assigned to the link LRi. The lane defined by this road network DWi is referred to as a network lane NRi in the present embodiment. That is, the network lane NRi consists of the node NDi, the link LRi, the geographical coordinates, the width, the inter-node distance, the network lane number NRBi, and the like.

また、三次元地形モデル用データベース180bの三次元地図モデルMiは、衛生画像、航空写真測量、航空レーザ測量、移動体計測車両によるレーザ計測又は車両10(10a、10b、・・・)に設けられた車載カメラ部12で撮影した車載カメラ撮影画像CGiに基づいて作成した三次元地図モデルMiである。 Further, the three-dimensional map model Mi of the three-dimensional topographic model database 180b is provided in the sanitary image, aerial photogrammetric survey, aerial laser surveying, laser measurement by a moving body measuring vehicle, or the vehicle 10 (10a, 10b,... ). The three-dimensional map model Mi is created based on the vehicle-mounted camera image CGi captured by the vehicle-mounted camera unit 12.

また、この三次元地図モデルMiの道路のレーンを本実施の形態では三次元モデル上道路レーンMRiと称する。そして、三次元モデル上道路レーンMRiはネットワークレーンNRiに関連付けられている。つまり、同じ番号が関連付けられている。また、三次元モデル上道路レーンMRiの内で目的地に向かうレーンは、三次元モデル上目的地到達レーンPMRiと称する。 The road lane of the three-dimensional map model Mi is referred to as a three-dimensional model road lane MRi in this embodiment. The road lane MRi on the three-dimensional model is associated with the network lane NRi. That is, the same number is associated. A lane heading for the destination in the three-dimensional model road lane MRi is referred to as a three-dimensional model destination lane PMRi.

目的地到達レーン色付部133は、振分サーバ120からの車両情報Jiに含まれているカメラ認識自走行レーン情報CZJiを受信する。このカメラ認識自走行レーン情報CZJiを受信する毎に、カメラ認識自走行レーン情報CZJiに含まれている目的地Poiの地理座標を有するネットワークレーンNRi(ノードNDi、リンクLRi、地理座標、幅、ノード間距離、ネットワークレーン番号NRBi)を三次元地図情報用サーバ180の道路ネットワークデータベース180aから検索する。 The destination arrival lane coloring unit 133 receives the camera-recognized self-driving lane information CZJi included in the vehicle information Ji from the distribution server 120. Every time the camera-recognized self-traveling lane information CZJi is received, the network lane NRi (node NDi, link LRi, geographical coordinate, width, node) having the geographic coordinates of the destination Poi included in the camera-recognized self-traveling lane information CZJi is received. The inter-distance, network lane number NRBi) is searched from the road network database 180a of the server 180 for three-dimensional map information.

具体的には、現在位置PGiをカメラ認識自走レーンCZRiの中心の画像座標と三次元地図モデルMiの基準座標とに基づいて補正し、これを補正現在位置HPGiとする。 Specifically, the current position PGi is corrected based on the image coordinates of the center of the camera recognition self-propelled lane CZRi and the reference coordinates of the three-dimensional map model Mi, and this is set as the corrected current position HPGI.

そして、補正現在位置HPGiが求められる毎に、この補正現在位置HPGiの座標を有する道路ネットワークDWiのネットワークレーンNRiを目的地到達ネットワークレーンPNRiとして三次元地図情報用サーバ180から検索する。 Then, each time the corrected current position HPGI is obtained, the network lane NRi of the road network DWi having the coordinates of the corrected current position HPGI is searched from the three-dimensional map information server 180 as the destination arrival network lane PNRi.

この検索されたネットワークレーンNRiを目的地到達ネットワークレーンPNRiと称する。番号は、目的地到達ネットワークレーン番号PNBRiと称する。 The searched network lane NRi is called a destination arrival network lane PNRi. The number is called the destination arrival network lane number PNBRi.

そして、ドライバ画像情報提供用メモリ131aにドライバ視線画像DHiが記憶(生成)されているかどうかを判定する。 Then, it is determined whether or not the driver line-of-sight image DHi is stored (generated) in the driver image information providing memory 131a.

生成されている場合は、このドライバ視線画像DHiを読み込み、検索した目的地到達ネットワークレーンPNRiの目的地到達ネットワークレーン番号PNBRiに該当するドライバ視線画像DHiにおけるドライバ視線画像上レーンDRi上に目的地到達レーンであることを示す目的地到達レーン表示色Fi(例えば紫)を定義する。 If it has been generated, this driver line-of-sight image DHi is read, and the destination is reached on the driver line-of-sight image Dlane in the driver line-of-sight image DHi that corresponds to the network arrival number PNBRi A destination arrival lane display color Fi (for example, purple) indicating a lane is defined.

この目的地到達レーン表示色Fi(例えば紫)が定義されたドライバ視線画像上レーンDRiをドライバ視線画像上目的地到達レーンPDRiと称する。 The lane DRi on the driver line-of-sight image in which the destination arrival lane display color Fi (for example, purple) is defined is called a destination lane PDRi on the driver line-of-sight image.

前述の目的地到達レーン表示色Fi(例えば紫)は、ドライバ視線画像DHiの上に色が表示されるように定義する。 The destination arrival lane display color Fi (for example, purple) is defined so that the color is displayed on the driver line-of-sight image DHi.

そして、ナビ画像送信データ作成用サーバ140に、目的地到達レーン表示色Fiを定義したことを知らせる情報(フラグ)を出力する。 Then, the information (flag) for notifying that the destination arrival lane display color Fi is defined is output to the navigation image transmission data creation server 140.

ドライバ画像作成部135は、車両情報Jiに含まれているカメラ認識自走行レーン情報CZJiを受信する。このカメラ認識自走行レーン情報CZJiを受信する毎に、このカメラ認識自走行レーン情報CZJiに含まれている現在位置GPi、姿勢θi、速度Vi、ハンドル角Hθi、撮影時刻Cti、車両番号Jai、端末番号Jbi、ドライバ視線位置DSiをドライバ画像作成基本情報DKJiとして読み込む。 The driver image creation unit 135 receives the camera-recognized self-driving lane information CZJi included in the vehicle information Ji. Every time this camera-recognized self-traveling lane information CZJi is received, the current position GPi, attitude θi, speed Vi, steering wheel angle Hθi, shooting time Cti, vehicle number Jai, terminal included in this camera-recognized self-traveling lane information CZJi. The number Jbi and the driver line-of-sight position DSi are read as driver image creation basic information DKJi.

そして、ドライバ画像作成基本情報DKJiに含まれているドライバ視線位置DSiを三次元地形モデル用データベース180bの三次元地図モデルMi上に三次元地図モデル上ドライバ視点位置DMPiとして設定する。そして、この三次元地図モデル上ドライバ視点位置DMPiの画角でのエリアEMiを三次元地図モデルMiに定義し、エリアEMiにおける画像(以下三次元地図モデル上ドライバ視線画像MEDHiと称する)をドライバ視線画像DHiとしてドライバ画像情報提供用メモリ131aに記憶する。 Then, the driver line-of-sight position DSi included in the driver image creation basic information DKJi is set as the driver viewpoint position DMPi on the three-dimensional map model on the three-dimensional map model Mi of the three-dimensional topographic model database 180b. Then, the area EMi at the angle of view of the driver viewpoint position DMPi on the three-dimensional map model is defined as the three-dimensional map model Mi, and the image in the area EMi (hereinafter referred to as the driver line-of-sight image MEDHi on the three-dimensional map model) is viewed by the driver. The image DHi is stored in the driver image information providing memory 131a.

前述の三次元地図モデル上ドライバ視点位置DMPiには、前回の現在位置GPi等で決定した視線方向を割り付けている。 The line-of-sight direction determined by the previous current position GPi or the like is assigned to the driver viewpoint position DMPi on the three-dimensional map model described above.

また、ドライバ画像作成部135は、ドライバ画像作成基本情報DKJiに含まれている現在位置GPi、姿勢θi、速度Vi、撮影時刻Cti等に基づいて、三次元地図モデルMi上における位置(以下三次元地図モデルMi上の起点位置kiと称する)を決定(例えば高さ200m)する。 In addition, the driver image creation unit 135 uses the driver image creation basic information DKJi based on the current position GPi, the posture θi, the speed Vi, the shooting time Cti, and the like to determine the position on the three-dimensional map model Mi (hereinafter, three-dimensional map model Mi). A starting point position ki on the map model Mi) is determined (for example, a height of 200 m).

そして、この三次元地図モデルMi上の起点位置kiから進行方向に例えば500mの範囲を上空ナビ画像ZFiとする。そして、この上空ナビ画像ZFiを上空ナビ画像用メモリ131bに記憶する。 Then, a range of, for example, 500 m in the traveling direction from the starting point position ki on the three-dimensional map model Mi is set as the sky navigation image ZFi. Then, the sky navigation image ZFi is stored in the sky navigation image memory 131b.

また、三次元地図モデルMi上の起点位置kiを現在のドライバ視線画像DHiの今回表示位置Pki(三次元地図モデルMi上の座標)とし、上空ナビ画像ZFiの次の交差点を次表示位置Pkni(三次元地図モデルMi上の座標)とし、これらを上空ナビ画像付属情報FZFi(今回表示位置Pkiの座標と表示マークの種類及び色(黄色)、次表示位置Pkniの座標と表示マークの色(ピンク))として上空ナビ画像ZFiに関連付けている。 The starting point position ki on the three-dimensional map model Mi is set as the current display position Pki (coordinates on the three-dimensional map model Mi) of the current driver line-of-sight image DHi, and the next intersection of the sky navigation image ZFi is set as the next display position Pkni( The coordinates on the three-dimensional map model Mi) are used as these, and these are included in the navigation information attached to the image FZFi (the coordinates of the current display position Pki and the type and color of the display mark (yellow), the coordinates of the next display position Pkni and the color of the display mark (pink). )) is associated with the sky navigation image ZFi.

前述の上空ナビ画像ZFiは三次元地図モデルMi上の起点位置Kiが変わる毎に更新される。つまり、ドライバ視線画像DHiが更新される毎に変わる。また、三次元地図モデルMi上の起点位置Kiが変わる毎に、次表示位置Pkniが今回表示位置Pkiとなる。 The above-mentioned sky navigation image ZFi is updated every time the starting point position Ki on the three-dimensional map model Mi changes. That is, it changes every time the driver line-of-sight image DHi is updated. Also, each time the starting point position Ki on the three-dimensional map model Mi changes, the next display position Pkni becomes the current display position Pki.

さらに、ドライバ画像作成部135は、ドライバ視線画像DHiに関連する道路施設交通案内情報DJiを検索し、この検索された道路施設交通案内情報DJiをドライバ視線画像DHiに関連付ける。 Further, the driver image creating unit 135 searches the road facility traffic guidance information DJi related to the driver line-of-sight image DHi and associates the searched road facility traffic guidance information DJi with the driver line-of-sight image DHi.

また、この道路施設交通案内情報DJiに含まれている標識の枠を異なる色(色エリアという)で定義する。このとき、目的地到達用レーンと標識の枠の色エリアとが接続されるようにした形状で定義するのが好ましい。 Further, the frame of the sign included in this road facility traffic guidance information DJi is defined in different colors (called color areas). At this time, it is preferable that the lane for reaching the destination and the color area of the frame of the sign are connected to each other.

そして、送信データ作成用サーバ170に、ドライバ視線画像DHi、上空ナビ画像ZFi等を定義したことを知らせる情報(フラグ)を出力する。 Then, information (flag) is output to the transmission data creation server 170 to inform that the driver's line-of-sight image DHi, the sky navigation image ZFi, etc. have been defined.

進行矢印設定部136は、車両情報Jiに含まれているカメラ認識自走行レーン情報CZJiを受信する。このカメラ認識自走行レーン情報CZJiを受信する毎に、ドライバ画像情報提供用メモリ131aにドライバ視線画像DHiが記憶されているかどうかを判定する。 The traveling arrow setting unit 136 receives the camera-recognized traveling lane information CZJi included in the vehicle information Ji. Every time the camera recognition self-driving lane information CZJi is received, it is determined whether or not the driver line-of-sight image DHi is stored in the driver image information providing memory 131a.

そして、記憶されている場合は、カメラ認識自走行レーン情報C Z J i に含まれている
カメラ認識自走レーンC Z R i に一致するドライバ視線画像D H i におけるドライバ視線画像上レーン番号D B R i を有するドライバ視線画像上レーンD R i をドライバ視線画像上カメラ認識自走レーンD C R i として定義する。
When stored, the camera recognizes the own lane information C Z J i in Including camera recognizes self lane C Z R i to the driver sight line image D H i driver sight line image on the lane number in the matching A lane D R i on the driver's line-of-sight image having D B R i is defined as a camera recognition free-running lane D C R i on the driver's line-of-sight image.

そして、ドライバ視線画像上カメラ認識自走レーンDCRiに自車両進行方向矢印ZYiを定義する。この自車両進行方向矢印ZYiは、ドライバ視線画像DHi又はドライバ視線画像上カメラ認識自走レーンDCRiの上になるように定義する。 Then, the vehicle traveling direction arrow ZYi is defined in the camera-recognized self-propelled lane DCRi on the driver line-of-sight image. This own vehicle traveling direction arrow ZYi is defined to be on the driver line-of-sight image DHi or on the driver line-of-sight image on the camera recognition self-running lane DCRi.

自車両進行方向矢印ZYiは、ドライバ視線画像DHiの番号と、ドライバ視線画像上カメラ認識自走レーン番号DCBRiと、自車両進行方向矢印ZYiの情報(自車進行方向矢印Zyiの始点座標、大きさ、矢印の種類、色(例えば黄土色)等)を関連付けて自車両進行方向矢印情報ZYJiとして定義するのが好ましい。 The own-vehicle advancing direction arrow ZYi is the number of the driver's line-of-sight image DHi, the camera-recognized self-propelled lane number DCBRi on the driver's line-of-sight image, and the information of the own-vehicle advancing direction arrow ZYi (starting point coordinate of the own-vehicle advancing direction Zyi, size , Arrow type, color (for example, ocher), and the like are preferably defined as the own vehicle traveling direction arrow information ZYJi.

そして、送信データ作成用サーバ170に、自車両進行方向矢印ZYiを定義したことを知らせる情報(フラグ)を出力する。 Then, it outputs to the transmission data creating server 170 information (flag) notifying that the own vehicle traveling direction arrow ZYi has been defined.

レーン変更矢印設定部138は、振分サーバ120からの車両情報Jiに含まれているカメラ認識自走行レーン情報CZJiを受信する。このカメラ認識自走行レーン情報CZJiを受信する毎に、ドライバ画像情報提供用メモリ131aにドライバ視線画像DHiが記憶(生成)され、かつドライバ視線画像上カメラ認識自走レーンDCRi上に目的地到達レーンであることを示す目的地到達レーン表示色Fi(例えば紫)を定義され、自車両進行方向矢印ZYi、レーン変更矢印HZYiが定義されているかどうかを判定する。 The lane change arrow setting unit 138 receives the camera-recognized traveling lane information CZJi included in the vehicle information Ji from the distribution server 120. Each time the camera-recognized self-propelled lane information CZJi is received, the driver line-of-sight image DHi is stored (generated) in the driver image information providing memory 131a, and the destination-destination lane is located on the driver-recognized line-of-sight image on the camera-recognized self-propelled lane DCRi. It is determined whether or not the destination arrival lane display color Fi (for example, purple) indicating that is defined, and the own vehicle traveling direction arrow ZYi and the lane change arrow HZYi are defined.

定義されている場合は、自車両進行方向矢印ZYiがドライバ視線画像上カメラ認識自走レーンDCRi上に定義されているかどうかを判定する。そして、自車両進行方向矢印ZYiがドライバ視線画像上カメラ認識自走レーンDCRi上に定義されている場合は、ドライバ視線画像上カメラ認識自走レーンDCRi上におけるレーン変更矢印HZYiを消去する。そして、送信データ作成用サーバ170に、レーン変更矢印HZYiの消去したことを知らせる情報(フラグ)を出力する。 If it is defined, it is determined whether or not the own vehicle traveling direction arrow ZYi is defined on the camera recognition self-running lane DCRi on the driver line-of-sight image. When the own vehicle traveling direction arrow ZYi is defined on the driver's line-of-sight image camera recognition self-running lane DCRi, the lane change arrow HZYi on the driver's line-of-sight image camera recognition self-running lane DCRi is deleted. Then, information (flag) indicating that the lane change arrow HZYi has been deleted is output to the transmission data creation server 170.

また、レーン変更矢印設定部138は、ドライバ視線画像DHiのドライバ視線画像上カメラ認識自走レーン番号DCBRiと、ドライバ視線画像上目的地到達レーン番号PDBRiとが一致しているかどうかを判定する。 In addition, the lane change arrow setting unit 138 determines whether or not the driver's line-of-sight image DHi on the driver's line-of-sight image camera-recognized lane number DCBRi matches the driver's line-of-sight image destination lane number PDBRi.

不一致の場合は、ドライバ視線画像DHiのドライバ視線画像上カメラ認識自走レーンDCRi上に定義されている自車両進行方向矢印ZYiの頭から所定位置を始点としたレーン変更矢印HZYiの頭をドライバ視線画像上目的地到達レーンPDRiに向けて定義する。 In the case of disagreement, the head of the lane change arrow HZYi starting from a predetermined position as the starting point from the head of the vehicle traveling direction arrow ZYi defined on the camera recognition self-propelled lane DCRi on the driver sight line image of the driver sight line image DHi It is defined toward the destination arrival lane PDRi on the image.

そして、送信データ作成用サーバ170に、レーン変更矢印HZYiを定義したことを知らせる情報(フラグ)を出力する。 Then, information (flag) notifying that the lane change arrow HZYi has been defined is output to the transmission data creation server 170.

(カメラ画像三次元モデル生成用サーバ150)
カメラ画像三次元モデル生成用サーバ150は、図4に示すように、カメラ画像三次元モデル生成部152と、カメラ画像三次元モデル用メモリ154と、車載カメラのパラメータ情報(画角、半値幅、取付高、解像度、・・)を記憶した車載カメラ用パラメータデータベース153と、車載カメラ撮影画像情報CJi(車載カメラ撮影画像CGiを含む)が記憶される車載カメラ撮影画像情報用メモリ155等を備えている。
(Camera image three-dimensional model generation server 150)
As shown in FIG. 4, the camera image 3D model generation server 150 includes a camera image 3D model generation unit 152, a camera image 3D model memory 154, and in-vehicle camera parameter information (angle of view, half width, The in-vehicle camera parameter database 153 storing the mounting height, the resolution,..., And the in-vehicle camera captured image information memory 155 in which the in-vehicle camera captured image information CJi (including the in-vehicle camera captured image CGi) is stored. There is.

カメラ画像三次元モデル生成部152は、振分サーバ120からの車載カメラ撮影画像情報CJiを受信して車載カメラ撮影画像情報用メモリ155に記憶(上書)する。 The camera image three-dimensional model generation unit 152 receives the vehicle-mounted camera captured image information CJi from the distribution server 120 and stores it in the vehicle-mounted camera captured image information memory 155 (overwrite).

そして、車載カメラ撮影画像情報CJiが記憶される毎に、車載カメラ用パラメータデータベース153に記憶されている車載カメラのパラメータ情報(画角、半値幅、取付高、解像度、・・)と車載カメラ撮影画像情報CJiの撮影時刻Cti、姿勢θi、速度Vi、現在位置GPi、ハンドル角Hθi及び三次元地図モデルMiの基準座標等に基づいて車載カメラ撮影画像CGiの画素当たりの三次元座標を求め、これを画素に割り当てたカメラ画像三次元モデルCMiをカメラ画像三次元モデル用メモリ154に生成(記憶)する。 Then, every time the vehicle-mounted camera captured image information CJi is stored, the vehicle-mounted camera parameter information (angle of view, half-width, mounting height, resolution,...) And the vehicle-mounted camera captured, which are stored in the vehicle-mounted camera parameter database 153. Three-dimensional coordinates per pixel of the in-vehicle camera photographed image CGi are obtained based on the photographing time Cti of the image information CJi, the posture θi, the speed Vi, the current position GPi, the steering wheel angle Hθi, the reference coordinates of the three-dimensional map model Mi, and the like. A camera image three-dimensional model CMi in which is assigned to pixels is generated (stored) in the camera image three-dimensional model memory 154.

(変化検出用サーバ)
変化検出用サーバ190は、図4に示すように、変化判定部192を備えている。変化判定部192は、三次元地図モデルMiにおけるエリアEMiが定義される毎に、このエリアEMi内の三次元地図モデル上ドライバ視線画像MEDHiをメモリ194に記憶(コピー)する。
(Change detection server)
The change detection server 190 includes a change determination unit 192, as shown in FIG. Every time the area EMi in the three-dimensional map model Mi is defined, the change determination unit 192 stores (copies) the driver line-of-sight image MEDHi on the three-dimensional map model in the area EMi in the memory 194.

そして、このメモリ194の三次元地図モデル上ドライバ視線画像MEDHiと、カメラ画像三次元モデル用メモリ154に記憶された今回のカメラ画像三次元モデルCMiと比較し、今回のカメラ画像三次元モデルCMiに変化があるかどうかを判定する。 Then, the driver line-of-sight image MEDHi on the three-dimensional map model in the memory 194 is compared with the current camera image three-dimensional model CMi stored in the camera image three-dimensional model memory 154 to obtain the current camera image three-dimensional model CMi. Determine if there is a change.

変化がある場合は、この変化領域CMHiをドライバ画像情報提供用メモリ131aのドライバ視線画像DHiに上書きする(貼り付ける)(図3、図8参照)。 If there is a change, the change area CMHi is overwritten (pasted) on the driver line-of-sight image DHi in the driver image information providing memory 131a (see FIGS. 3 and 8).

また、三次元地図モデルMi上の三次元モデル上道路レーンMRiに補正現在位置HPGiを定義し、この補正現在位置HPGiからカメラ画像三次元モデルCMiにおける変化領域CMHiの中心座標までの距離CGRiを求める。 Further, the corrected current position HPGI is defined in the road lane MRi on the three-dimensional model on the three-dimensional map model Mi, and the distance CGRi from the corrected current position HPGI to the center coordinates of the change area CMHi in the camera image three-dimensional model CMi is calculated. ..

そして、変化領域CMHi付のドライバ視線画像DHiと距離CGRi等をカメラ画像上変化検出領域付ドライバ視線画像CMHDGiとして送信データ作成用サーバ170に出力する。
(三次元モデル更新用サーバ160)
三次元モデル更新用サーバ160は、図4に示すように、該当エリア引当部162と、該当エリア更新部164等を備えている。
Then, the driver line-of-sight image DHi with the change region CMHi, the distance CGRi, and the like are output to the transmission data creation server 170 as the driver line-of-sight image CMHDGi with the change detection region on the camera image.
(3D model update server 160)
As shown in FIG. 4, the three-dimensional model updating server 160 includes a relevant area allocation unit 162, a relevant area updating unit 164, and the like.

該当エリア引当部162は、変化検出用サーバ190が変化ありと判定した場合は、三次元地図モデルMiにおけるドライバ視線に対応するエリアEMiを引き当てる。 When the change detection server 190 determines that there is a change, the corresponding area allocation unit 162 allocates the area EMi corresponding to the driver's line of sight in the three-dimensional map model Mi.

該当エリア引当部162は、このエリアEMiをカメラ画像三次元モデル用メモリ154に記憶された今回のカメラ画像三次元モデルCMiに更新(書き換える)する(図8参照)。 The corresponding area allocation unit 162 updates (rewrites) this area EMi with the current camera image three-dimensional model CMi stored in the camera image three-dimensional model memory 154 (see FIG. 8).

(送信データ作成用サーバ170)
送信データ作成用サーバ170は、図4に示すように、送信車両決定部172を備えている。
(Transmission data creation server 170)
The transmission data creation server 170 includes a transmission vehicle determination unit 172, as shown in FIG.

この送信車両決定部172は、変化検出用サーバ190が変化個所ありとしてカメラ画像上変化検出領域付ドライバ視線画像CMHDGiを出力した場合は、車両情報蓄積用サーバ110に蓄積されている全ての車両情報Jiを読み込む。 When the change detection server 190 outputs the driver line-of-sight image CMHDGi with the change detection area on the camera image because the change detection server 190 determines that there is a change point, the transmission vehicle determination unit 172 outputs all the vehicle information stored in the vehicle information storage server 110. Read Ji.

そして、各々の車両情報J i に含まれている姿勢θ i 、速度V i 、現在位置G P i 、ハンドル角H θ i 、カメラ認識自走レーンC Z R iを含む車載カメラ撮影画像CGi 、撮影時刻C t i と、カメラ画像上変化検出領域付ドライバ視線画像C M H D G i の現在位置G P i とからこの変化箇所に向かう道路ネットワーク上を走行している車両がどれかを決定する。

Then, the posture is included in each of the vehicle information J i theta i, the speed V i, the current location G P i, the steering wheel angle H theta i, vehicle camera captured image includes a camera recognition self lane C Z R i CGi , The photographing time C t i and the current position G P i of the driver line-of-sight image C MH D G i on the camera image on which a change detection region is present, which vehicle is traveling on the road network toward this change point? decide.

そして、決定した車両の車両情報に含まれている端末番号、車両番号宛てで送信データSDJiを送信する。 Then, the transmission data SDJi is transmitted to the terminal number and the vehicle number included in the vehicle information of the determined vehicle.

また、レーン種類ドライバ視線画像作成用サーバ130が生成したドライバ視線画像DHi(更新含む)と、目的地到達レーン表示色Fi(例えば紫)と、上空ナビ画像ZFiとを組とする送信データSDJiを生成して無線通信網で車両10宛てに送信する。 Further, transmission data SDJi which is a combination of the driver line-of-sight image DHi (including update) generated by the lane type driver line-of-sight image creating server 130, the destination arrival lane display color Fi (for example, purple), and the sky navigation image ZFi. It is generated and transmitted to the vehicle 10 via the wireless communication network.

<全体動作>
図5は車載カメラ画像を用いたナビ情報提供システムの概略全体動作を説明するシーケンス図である。
<Overall operation>
FIG. 5 is a sequence diagram illustrating a schematic overall operation of the navigation information providing system using the in-vehicle camera image.

図5に示すように、車両10(10a、10b、・・・)は、車載カメラ部12、カメラコントローラ15、ナビ端末13によって一定時間毎に撮影した前方の画像を含む車両情報Jiをデータセンタ100に送信する(d10)。 As shown in FIG. 5, the vehicle 10 (10a, 10b,...) The vehicle center Ji, the camera controller 15, and the navigation terminal 13, the vehicle information Ji including the front image taken at regular intervals by the data center. It is transmitted to 100 (d10).

データセンタ100の車両情報蓄積用サーバ110は、車両10(10a、10b・・)からの車両情報Jiを受信して車両情報蓄積用メモリ115に蓄積する(d12)。 The vehicle information storage server 110 of the data center 100 receives the vehicle information Ji from the vehicle 10 (10a, 10b...) And stores it in the vehicle information storage memory 115 (d12).

振分サーバ120は、車両情報蓄積用サーバ110に車両情報Jiが蓄積される毎に、この車両情報Jiに含まれている撮影時刻Cti、カメラ番号Jci、車載カメラ撮影画像CGi、姿勢θi、速度Vi、現在位置GPi、ハンドル角Hθi等を車載カメラ撮影画像情報CJiとしてカメラ画像三次元モデル生成用サーバ150に出力(振分け)する(d14)。 Each time the distribution server 120 stores the vehicle information Ji in the vehicle information storage server 110, the shooting time Cti, the camera number Jci, the in-vehicle camera shot image CGi, the attitude θi, and the speed included in the vehicle information Ji. Vi, the current position GPi, the steering wheel angle Hθi, etc. are output (sorted) to the camera image three-dimensional model generation server 150 as vehicle-mounted camera captured image information CJi (d14).

また、振分サーバ120は、車両情報Jiの車両番号Jaiと端末番号Jbiと姿勢θiと速度Viと目的地Poiと現在位置GPiとハンドル角Hθiと撮影時刻Ctiとドライバ視線位置DSi等をカメラ認識自走行レーン情報CZJiとしてレーン種類ドライバ視線画像作成用サーバ130に出力(振分け)する(d16)。 The distribution server 120 also recognizes the vehicle number Jai of the vehicle information Ji, the terminal number Jbi, the attitude θi, the speed Vi, the destination Poi, the current position GPi, the steering wheel angle Hθi, the photographing time Cti, the driver's line-of-sight position DSi, and the like. The information is output (sorted) to the lane type driver line-of-sight image creation server 130 as the own lane information CZJi (d16).

カメラ画像三次元モデル生成用サーバ150は、振分サーバ120からの今回の車載カメラ撮影画像情報CJiに含まれている車載カメラ撮影画像CGiの画素毎の三次元座標を三次元地図モデルMiの基準座標に基づいて求め、この三次元座標を車載カメラ撮影画像CGiの各画素に割り当てたカメラ画像三次元モデルCMiを生成する(d18)。 The camera image three-dimensional model generation server 150 uses the three-dimensional coordinates of each pixel of the vehicle-mounted camera captured image CGi included in the current vehicle-mounted camera captured image information CJi from the distribution server 120 as a reference of the three-dimensional map model Mi. A camera image three-dimensional model CMi in which the three-dimensional coordinates are obtained and assigned to each pixel of the vehicle-mounted camera captured image CGi is generated based on the coordinates (d18).

すなわち、カメラ画像三次元モデル生成部152が振分サーバ120からの車載カメラ撮影画像情報CJiを受信して車載カメラ撮影画像情報用メモリ155に記憶(上書)する。 That is, the camera image three-dimensional model generation unit 152 receives the vehicle-mounted camera captured image information CJi from the distribution server 120 and stores it in the vehicle-mounted camera captured image information memory 155 (overwrite).

そして、車載カメラ撮影画像情報CJiが記憶される毎に、車載カメラ用パラメータデータベース153に記憶されている車載カメラのパラメータ情報(画角、半値幅、取付高、解像度、・・)と車載カメラ撮影画像情報CJiの撮影時刻Cti、姿勢θi、速度Vi、現在位置GPi、ハンドル角Hθi及び三次元地図モデルMiの基準座標等に基づいて車載カメラ撮影画像CGiの画素当たりの三次元座標を求め、これを画素に割り当てたカメラ画像三次元モデルCMiをカメラ画像三次元モデル用メモリ154に生成する。 Then, every time the vehicle-mounted camera captured image information CJi is stored, the vehicle-mounted camera parameter information (angle of view, half width, mounting height, resolution,...) Stored in the vehicle-mounted camera parameter database 153 and vehicle-mounted camera shooting. Three-dimensional coordinates per pixel of the in-vehicle camera photographed image CGi are obtained based on the photographing time Cti of the image information CJi, the posture θi, the speed Vi, the current position GPi, the steering wheel angle Hθi, the reference coordinates of the three-dimensional map model Mi, and the like. A camera image three-dimensional model CMi in which is assigned to pixels is generated in the camera image three-dimensional model memory 154.

そして、レーン種類ドライバ視線画像作成用サーバ130は、ドライバ画像生成処理及び矢印生成処理を行う(d20)。 Then, the lane type driver line-of-sight image creation server 130 performs driver image generation processing and arrow generation processing (d20).

ドライバ画像生成処理は、ドライバ画像作成部135が行う。ドライバ画像作成部135は、車両情報Jiに含まれているカメラ認識自走行レーン情報CZJiを受信する。このカメラ認識自走行レーン情報CZJiを受信する毎に、このカメラ認識自走行レーン情報CZJiに含まれている現在位置GPi、姿勢θi、速度Vi、ハンドル角Hθi、撮影時刻Cti、車両番号Jai、端末番号Jbi、ドライバ視線位置DSiをドライバ画像作成基本情報DKJiとして読み込む。 The driver image creation processing is performed by the driver image creation unit 135. The driver image creation unit 135 receives the camera-recognized self-driving lane information CZJi included in the vehicle information Ji. Every time this camera-recognized self-traveling lane information CZJi is received, the current position GPi, attitude θi, speed Vi, steering wheel angle Hθi, shooting time Cti, vehicle number Jai, terminal included in this camera-recognized self-traveling lane information CZJi. The number Jbi and the driver line-of-sight position DSi are read as driver image creation basic information DKJi.

そして、ドライバ画像作成基本情報DKJiに含まれているドライバ視線位置DSiを三次元地形モデル用データベース180bの三次元地図モデルMi上に三次元地図モデル上ドライバ視点位置DMPiとして設定する。そして、この三次元地図モデル上ドライバ視点位置DMPiの画角でのエリアEMiを三次元地図モデルMiに定義し、エリアEMiにおける三次元地図モデル上ドライバ視線画像MEDHiをドライバ視線画像DHiとしてドライバ画像情報提供用メモリ131aに記憶する。 Then, the driver line-of-sight position DSi included in the driver image creation basic information DKJi is set as the driver viewpoint position DMPi on the three-dimensional map model on the three-dimensional map model Mi of the three-dimensional topographic model database 180b. Then, the area EMi at the angle of view of the driver viewpoint position DMPi on the three-dimensional map model is defined as the three-dimensional map model Mi, and the driver line-of-sight image MEDHi on the three-dimensional map model in the area EMi is set as the driver line-of-sight image DHi. It is stored in the providing memory 131a.

前述の三次元地図モデル上ドライバ視点位置DMPiには、前回の現在位置GPi等で決定した視線方向を割り付けている。 The line-of-sight direction determined by the previous current position GPi or the like is assigned to the driver viewpoint position DMPi on the three-dimensional map model described above.

また、ドライバ画像作成部135は、ドライバ画像作成基本情報DKJiに含まれている現在位置GPi、姿勢θi、速度Vi、撮影時刻Cti等に基づいて、三次元地図モデルMi上に三次元地図モデルMi上の起点位置kiを決定(例えば高さ200m)する。 Further, the driver image creation unit 135 uses the three-dimensional map model Mi on the three-dimensional map model Mi based on the current position GPi, the posture θi, the speed Vi, the shooting time Cti and the like included in the driver image creation basic information DKJi. The upper starting point position ki is determined (for example, height 200 m).

そして、この三次元地図モデルMi上の起点位置kiから進行方向に例えば500mの範囲を上空ナビ画像ZFiとする。そして、この上空ナビ画像ZFiを上空ナビ画像用メモリ131bに記憶する。 Then, a range of, for example, 500 m in the traveling direction from the starting point position ki on the three-dimensional map model Mi is set as the sky navigation image ZFi. Then, the sky navigation image ZFi is stored in the sky navigation image memory 131b.

また、三次元地図モデルMi上の起点位置kiを現在のドライバ視線画像DHiの今回表示位置Pki(三次元地図モデルMi上の座標)とし、上空ナビ画像ZFiの次の交差点を次表示位置Pkni(三次元地図モデルMi上の座標)とし、これらを上空ナビ画像付属情報FZFi(今回表示位置Pkiの座標と表示マークの種類及び色(黄色)、次表示位置Pkniの座標と表示マークの色(ピンク))として上空ナビ画像ZFiに関連付けている。 The starting point position ki on the three-dimensional map model Mi is set as the current display position Pki (coordinates on the three-dimensional map model Mi) of the current driver line-of-sight image DHi, and the next intersection of the sky navigation image ZFi is set as the next display position Pkni( The coordinates on the three-dimensional map model Mi) are used as the above, and these are the navigation information attached to the sky image FZFi (the coordinates of the current display position Pki and the type and color of the display mark (yellow), the coordinates of the next display position Pkni and the color of the display mark (pink). )) is associated with the sky navigation image ZFi.

前述の上空ナビ画像ZFiは三次元地図モデルMi上の起点位置Kiが変わる毎に更新される。つまり、ドライバ視線画像DHiが更新される毎に変わる。また、三次元地図モデルMi上の起点位置Kiが変わる毎に、次表示位置Pkniが今回表示位置Pkiとなる。 The above-mentioned sky navigation image ZFi is updated every time the starting point position Ki on the three-dimensional map model Mi changes. That is, it changes every time the driver line-of-sight image DHi is updated. Also, each time the starting point position Ki on the three-dimensional map model Mi changes, the next display position Pkni becomes the current display position Pki.

さらに、ドライバ画像作成部135は、ドライバ視線画像DHiに関連する道路施設交通案内情報DJiを検索し、この検索された道路施設交通案内情報DJiをドライバ視線画像DHiに関連付ける。 Further, the driver image creating unit 135 searches the road facility traffic guidance information DJi related to the driver line-of-sight image DHi and associates the searched road facility traffic guidance information DJi with the driver line-of-sight image DHi.

また、この道路施設交通案内情報DJiに含まれている標識の枠を異なる色(色エリアという)で定義する。このとき、目的地到達用レーンと標識の枠の色エリアとが接続されるようにした形状で定義するのが好ましい。 Further, the frame of the sign included in this road facility traffic guidance information DJi is defined in different colors (called color areas). At this time, it is preferable that the lane for reaching the destination and the color area of the frame of the sign are connected to each other.

そして、送信データ作成用サーバ170に、ドライバ視線画像DHi、上空ナビ画像ZFi等を定義したことを知らせる情報(フラグ)を出力する。 Then, information (flag) is output to the transmission data creation server 170 to inform that the driver's line-of-sight image DHi, the sky navigation image ZFi, etc. have been defined.

前述の画角は、右車載カメラ12a、左車載カメラ12b(CCD内蔵)の画角であり、予めメモリ(図示せず)に記憶されている車載カメラ12a、12bのパラメータ(CCDサイズ、カメラ高さ、方向、解像度・・)を用いて算出する。 The angle of view described above is the angle of view of the right vehicle-mounted camera 12a and the left vehicle-mounted camera 12b (built-in CCD), and the parameters (CCD size, camera height) of the vehicle-mounted cameras 12a and 12b stored in advance in a memory (not shown). , Direction, resolution...).

一方、矢印生成処理は、目的地到達レーン表示と、自車両進行方向矢印表示処理と、レーン変更矢印処理を行う。 On the other hand, in the arrow generation processing, destination arrival lane display, own vehicle traveling direction arrow display processing, and lane change arrow processing are performed.

目的地到達レーン表示は、目的地到達レーン色付部133が行う。目的地到達レーン色付部133は、振分サーバ120からの車両情報Jiに含まれているカメラ認識自走行レーン情報CZJiを受信する。このカメラ認識自走行レーン情報CZJiを受信する毎に、カメラ認識自走行レーン情報CZJiに含まれている目的地Poiの地理座標を有するネットワークレーンNRi(ノードNDi、リンクLRi、地理座標、幅、ノード間距離、ネットワークレーン番号NRBi)を三次元地図情報用サーバ180の道路ネットワークデータベース180aから検索する。 The destination arrival lane color display unit 133 displays the destination arrival lane. The destination arrival lane coloring unit 133 receives the camera-recognized self-driving lane information CZJi included in the vehicle information Ji from the distribution server 120. Every time the camera-recognized self-traveling lane information CZJi is received, the network lane NRi (node NDi, link LRi, geographical coordinate, width, node) having the geographic coordinates of the destination Poi included in the camera-recognized self-traveling lane information CZJi is received. The inter-distance, network lane number NRBi) is searched from the road network database 180a of the server 180 for three-dimensional map information.

具体的には、現在位置PGiをカメラ認識自走レーンCZRiの中心の画像座標と三次元地図モデルMiの基準座標とに基づいて補正し、これを補正現在位置HPGiとする。そして、補正現在位置HPGiが求められる毎に、この補正現在位置HPGiの座標を有する道路ネットワークDWiのネットワークレーンNRiを目的地到達ネットワークレーンPNRiとして三次元地図情報用サーバ180から検索する。つまり、目的地到達ネットワークレーンPNRiを検索する。 Specifically, the current position PGi is corrected based on the image coordinates of the center of the camera recognition self-propelled lane CZRi and the reference coordinates of the three-dimensional map model Mi, and this is set as the corrected current position HPGI. Then, each time the corrected current position HPGI is obtained, the network lane NRi of the road network DWi having the coordinates of the corrected current position HPGI is searched from the three-dimensional map information server 180 as the destination arrival network lane PNRi. That is, the destination arrival network lane PNRi is searched.

そして、ドライバ画像情報提供用メモリ131aにドライバ視線画像DHiが記憶(生成)されているかどうかを判定する。 Then, it is determined whether or not the driver line-of-sight image DHi is stored (generated) in the driver image information providing memory 131a.

生成されている場合は、このドライバ視線画像DHiを読み込み、検索した目的地到達ネットワークレーンPNRiの目的地到達ネットワークレーン番号PNBRiに該当するドライバ視線画像上レーンDRi上に目的地到達レーンであることを示す目的地到達レーン表示色Fi(例えば紫)を定義する。つまり、ドライバ視線画像DHiにドライバ視線画像上目的地到達レーンPDRi(紫)が定義されたことになる(図6参照)。 If it is generated, this driver line-of-sight image DHi is read, and it is confirmed that it is the destination arrival lane on the driver's line-of-sight image lane DRi corresponding to the destination arrival network lane number PNBRi of the searched destination arrival network lane PNRi. The destination arrival lane display color Fi shown (for example, purple) is defined. That is, the destination arrival lane PDRi (purple) on the driver line-of-sight image is defined in the driver line-of-sight image DHi (see FIG. 6).

また、自車両進行方向矢印表示処理は進行矢印設定部136が行う。進行矢印設定部136は、車両情報Jiに含まれているカメラ認識自走行レーン情報CZJiを受信する毎に、ドライバ画像情報提供用メモリ131aにドライバ視線画像DHiが記憶されているかどうかを判定する。 In addition, the traveling arrow setting unit 136 performs the processing for displaying the traveling vehicle arrow. The traveling arrow setting unit 136 determines whether or not the driver line-of-sight image DHi is stored in the driver image information providing memory 131a each time the camera recognition self-driving lane information CZJi included in the vehicle information Ji is received.

そして、記憶されている場合は、カメラ認識自走行レーン情報CZJiに含まれている現在位置PGiを有するドライバ視線画像DHiにおけるドライバ視線画像上レーンDRiをドライバ視線画像上カメラ認識自走レーンDCRiとして定義する(図7参照)。 Then, if it is stored, the driver line-of-sight image lane DRi in the driver line-of-sight image DHi having the current position PGi included in the camera-recognized own-lane lane information CZJi is defined as the driver line-of-sight image camera-recognized self-propelled lane DCRi. (See FIG. 7).

具体的には、現在位置PGiをカメラ認識自走レーンCZRiの中心の画像座標と三次元地図モデルMiの基準座標とに基づいて補正し、この補正現在位置HPGi(座標)を有するドライバ視線画像DHiにおけるドライバ視線画像上レーンDRiをドライバ視線画像上カメラ認識自走レーンDCRiとして定義する。つまり、GPS受信機で受信した現在位置PGiに誤差があっても、ドライバ視線画像DHi上での自走しているレーン(ドライバ視線画像上カメラ認識自走レーンDCRi)を正確に検索できる。 Specifically, the current position PGi is corrected based on the image coordinates of the center of the camera recognition self-propelled lane CZRi and the reference coordinates of the three-dimensional map model Mi, and the driver line-of-sight image DHi having the corrected current position HPGI (coordinates). The lane DRi on the driver's line-of-sight image in is defined as the camera recognition self-running lane DCRi on the driver's line-of-sight image. That is, even if there is an error in the current position PGi received by the GPS receiver, it is possible to accurately search the self-propelled lane on the driver line-of-sight image DHi (camera recognition self-propelled lane DCRi on the driver line-of-sight image).

そして、ドライバ視線画像上カメラ認識自走レーンDCRiに自車両進行方向矢印ZYiを定義する。この自車両進行方向矢印ZYiは、ドライバ視線画像DHi又はドライバ視線画像上カメラ認識自走レーンDCRiの上になるように定義する。 Then, the vehicle traveling direction arrow ZYi is defined in the camera-recognized self-propelled lane DCRi on the driver line-of-sight image. The own vehicle traveling direction arrow ZYi is defined so as to be on the driver line-of-sight image DHi or on the driver line-of-sight image camera recognition self-propelled lane DCRi.

自車両進行方向矢印ZYiは、ドライバ視線画像DHiの番号と、ドライバ視線画像上カメラ認識自走レーン番号DCBRiと、自車両進行方向矢印ZYiの情報(自車進行方向矢印Zyiの始点座標、大きさ、矢印の種類、色(例えば黄土色)等)を関連付けて自車両進行方向矢印情報ZYJiとして定義するのが好ましい。 The own-vehicle advancing direction arrow ZYi is the number of the driver's line-of-sight image DHi, the camera-recognized self-propelled lane number DCBRi on the driver's line-of-sight image, and the information of the own-vehicle advancing direction arrow ZYi (starting point coordinate of the own-vehicle advancing direction Zyi, size , Arrow type, color (for example, ocher), and the like are preferably defined as the own vehicle traveling direction arrow information ZYJi.

さらに、レーン変更矢印処理はレーン変更矢印設定部138が行う。レーン変更矢印設定部138はカメラ認識自走行レーン情報CZJiを受信する毎に、ドライバ画像情報提供用メモリ131aにドライバ視線画像DHiが記憶(生成)され、かつドライバ視線画像上カメラ認識自走レーンDCRi上に目的地到達レーンであることを示す目的地到達レーン表示色Fi(例えば紫)を定義され、自車両進行方向矢印ZYi、レーン変更矢印HZYiが定義されているかどうかを判定する。 Further, the lane change arrow processing is performed by the lane change arrow setting unit 138. The lane change arrow setting unit 138 stores (generates) the driver line-of-sight image DHi in the driver image information providing memory 131a each time it receives the camera-recognized self-running lane DCRi. The destination arrival lane display color Fi (for example, purple) indicating the destination arrival lane is defined above, and it is determined whether or not the own vehicle traveling direction arrow ZYi and the lane change arrow HZYi are defined.

定義されている場合は、自車両進行方向矢印ZYiがドライバ視線画像上カメラ認識自走レーンDCRi上に定義されているかどうかを判定する。そして、自車両進行方向矢印ZYiがドライバ視線画像上カメラ認識自走レーンDCRi上に定義されている場合は、ドライバ視線画像上カメラ認識自走レーンDCRi上におけるレーン変更矢印HZYiを消去する。 If it is defined, it is determined whether or not the own vehicle traveling direction arrow ZYi is defined on the camera recognition self-running lane DCRi on the driver line-of-sight image. When the own vehicle traveling direction arrow ZYi is defined on the driver's line-of-sight image camera recognition self-running lane DCRi, the lane change arrow HZYi on the driver's line-of-sight image camera recognition self-running lane DCRi is deleted.

また、レーン変更矢印設定部138は、ドライバ視線画像DHiのドライバ視線画像上カメラ認識自走レーン番号DCBRiと、ドライバ視線画像上目的地到達レーン番号PDBRiとが一致しているかどうかを判定する。 In addition, the lane change arrow setting unit 138 determines whether or not the driver's line-of-sight image DHi on the driver's line-of-sight image camera-recognized lane number DCBRi matches the driver's line-of-sight image destination lane number PDBRi.

不一致の場合は、ドライバ視線画像DHiのドライバ視線画像上カメラ認識自走レーンDCRi上に定義されている自車両進行方向矢印ZYiの頭から所定位置を始点としたレーン変更矢印HZYiの頭をドライバ視線画像上目的地到達レーンPDRiに向けて定義する(図7参照)。 In the case of disagreement, the head of the lane change arrow HZYi starting from a predetermined position as the starting point from the head of the vehicle traveling direction arrow ZYi defined on the camera recognition self-propelled lane DCRi on the driver sight line image of the driver sight line image DHi It is defined toward the destination arrival lane PDRi on the image (see FIG. 7).

一方、変化検出用サーバ190は、変化検出処理を行う(d22)。変化検出用サーバ190は、図4に示すように、変化判定部192を備えている。変化判定部192は、三次元地図モデルMiにおけるエリアEMiが定義される毎に、このエリアEMi内の三次元地図モデル上ドライバ視線画像MEDHiをメモリ194に記憶(コピー)する。 On the other hand, the change detection server 190 performs change detection processing (d22). The change detection server 190 includes a change determination unit 192, as shown in FIG. Every time the area EMi in the three-dimensional map model Mi is defined, the change determination unit 192 stores (copies) the driver line-of-sight image MEDHi on the three-dimensional map model in the area EMi in the memory 194.

そして、このメモリ194の三次元地図モデル上ドライバ視線画像MEDHiと、カメラ画像三次元モデル用メモリ154に記憶された今回のカメラ画像三次元モデルCMiと比較し、今回のカメラ画像三次元モデルCMiに変化があるかどうかを判定する。 Then, the driver line-of-sight image MEDHi on the three-dimensional map model in the memory 194 is compared with the current camera image three-dimensional model CMi stored in the camera image three-dimensional model memory 154 to obtain the current camera image three-dimensional model CMi. Determine if there is a change.

変化がある場合は、この変化領域CMHiをドライバ画像情報提供用メモリ131aのドライバ視線画像DHiに上書きする(図8参照)。 If there is a change, the change area CMHi is overwritten on the driver line-of-sight image DHi in the driver image information providing memory 131a (see FIG. 8).

また、三次元地図モデルMi上の三次元モデル上道路レーンMRiに補正現在位置HPGiを定義し、この補正現在位置HPGiからカメラ画像三次元モデルCMiにおける変化領域CMHiの中心座標までの距離CGRiを求める。 Further, the corrected current position HPGI is defined in the road lane MRi on the three-dimensional model on the three-dimensional map model Mi, and the distance CGRi from the corrected current position HPGI to the center coordinates of the change area CMHi in the camera image three-dimensional model CMi is calculated. ..

そして、変化領域CMHi付のドライバ視線画像DHiと距離CGRi等をカメラ画像上変化検出領域付ドライバ視線画像CMHDGiとして送信データ作成用サーバ170に出力する。このカメラ画像上変化検出領域付ドライバ視線画像CMHDGiには、距離CGRiを読み込んで何メートル先に障害物があるかを知らせるコメント等を付加するのが好ましい。 Then, the driver line-of-sight image DHi with the change region CMHi, the distance CGRi, and the like are output to the transmission data creation server 170 as the driver line-of-sight image CMHDGi with the change detection region on the camera image. It is preferable to add a comment or the like to the driver's line-of-sight image CMHDGi with change detection area on the camera image to read the distance CGRi and inform how many meters ahead the obstacle is.

また、三次元モデル更新用サーバ160は三次元モデル更新処理を行う(d24)。この三次元モデル更新処理は、三次元モデル更新用サーバ160が行う。 Further, the three-dimensional model updating server 160 performs a three-dimensional model updating process (d24). The three-dimensional model update processing is performed by the three-dimensional model update server 160.

三次元モデル更新用サーバ160の該当エリア引当部162は、変化検出用サーバ190が変化ありと判定した場合は、三次元地図モデルMiにおけるドライバ視線に対応するエリアEMiを引き当る。そして、このエリアEMiをカメラ画像三次元モデル用メモリ154に記憶された今回のカメラ画像三次元モデルCMiに更新(書き換える)する(図8参照)。 When the change detection server 190 determines that there is a change, the corresponding area allocation unit 162 of the three-dimensional model update server 160 assigns the area EMi corresponding to the driver's line of sight in the three-dimensional map model Mi. Then, this area EMi is updated (rewritten) with the current camera image three-dimensional model CMi stored in the camera image three-dimensional model memory 154 (see FIG. 8).

また、送信データ作成用サーバ170は、変化があることが知らせられると、送信データ決定処理を行う(d28)。 In addition, when the transmission data creation server 170 is notified that there is a change, the transmission data creation server 170 performs transmission data determination processing (d28).

送信データ作成用サーバ170の送信車両決定部172は、変化検出用サーバ190が変化個所ありとしてカメラ画像上変化検出領域付ドライバ視線画像CMHDGiを出力した場合は、車両情報蓄積用サーバ110に蓄積されている全ての車両情報Jiを読み込む。 If the change detection server 190 outputs the driver line-of-sight image CMHDGi with the change detection area on the camera image because the change detection server 190 determines that there is a change point, the transmission vehicle determination unit 172 of the transmission data creation server 170 stores the change in the vehicle information storage server 110. All the vehicle information Ji that is present is read.

そして、各々の車両情報Jiに含まれている姿勢θi、速度Vi、現在位置GPi、ハンドル角Hθi、カメラ認識自走レーン番号CZBRi、撮影時刻Ctiと、カメラ画像上変化検出領域付ドライバ視線画像CMHDGiの現在位置GPiとからこの変化箇所に向かう道路ネットワーク上を走行している車両がどれかを決定する。 Then, the posture θi, the speed Vi, the current position GPi, the steering wheel angle Hθi, the camera-recognized self-propelled lane number CZBRi, the photographing time Cti, and the driver line-of-sight image CMHDGi on the camera image included in each vehicle information Ji. The current position GPi of the vehicle is determined and which vehicle is traveling on the road network heading for this change point.

そして、決定した車両の車両情報に含まれている端末番号、車両番号宛てで送信データSDJiを送信する(d30)。 Then, the transmission data SDJi is transmitted to the terminal number and the vehicle number included in the vehicle information of the determined vehicle (d30).

また、レーン種類ドライバ視線画像作成用サーバ130が生成したドライバ視線画像DHi(更新含む)と、目的地到達レーン表示色Fi(例えば紫)と、上空ナビ画像ZFiとを組とする送信データSDJiを生成して無線通信網で車両10宛てに送信する(d32)。 Further, transmission data SDJi which is a combination of the driver line-of-sight image DHi (including update) generated by the lane type driver line-of-sight image creating server 130, the destination arrival lane display color Fi (for example, purple), and the sky navigation image ZFi. It is generated and transmitted to the vehicle 10 via the wireless communication network (d32).

従って、ナビ端末13の画面13aに表示される画像は、図6(a)〜図6(c)に示すように、ドライバ視線画像DHiのドライバ視線画像上目的地到達レーンPDRiが紫色で表示される。また、ドライバ視線画像上目的地到達レーンPDRiがドライバ視線画像上カメラ認識自走レーンDCRiとされた場合は、自車両進行方向矢印ZYiがドライバ視線画像上目的地到達レーンPDRi上に表示される。 Therefore, in the image displayed on the screen 13a of the navigation terminal 13, as shown in FIGS. 6A to 6C, the destination arrival lane PDRi is displayed in purple on the driver line-of-sight image DHi. It When the driver's line-of-sight image destination lane PDRi is set as the driver's line-of-sight image camera recognition self-propelled lane DCRi, the vehicle traveling direction arrow ZYi is displayed on the driver's line-of-sight image destination lane PDRi.

さらに、図6(a)〜図6(c)に示すように、ドライバ視線画像DHiの隣に上空ナビ画像ZFiが表示される。 Further, as shown in FIGS. 6A to 6C, the sky navigation image ZFi is displayed next to the driver line-of-sight image DHi.

若しくは、ナビ端末13の画面13aに表示される画像は、図7(a)〜図7(c)に示すように、レーン変更矢印HZYi(赤色)を含むドライバ視線画像DHiが表示される。 Alternatively, as the image displayed on the screen 13a of the navigation terminal 13, as shown in FIGS. 7A to 7C, a driver line-of-sight image DHi including a lane change arrow HZYi (red) is displayed.

或いは、ナビ端末13の画面13aに表示される画像は、図8(a)〜図8(c)に示すように、カメラ画像上変化検出領域付ドライバ視線画像CMHDGiが表示される。 Alternatively, as the image displayed on the screen 13a of the navigation terminal 13, as shown in FIGS. 8A to 8C, a driver line-of-sight image CMHDGi with a camera image change detection area is displayed.

従って、図8に示すように、このカメラ画像上変化検出領域付ドライバ視線画像CMHDGiに前方に存在している車両が撮影して得た障害物としての変化領域CMHiと距離CGRiとが表示されるので、運転者は前方にどんな障害物があるかを知ることができる。このため、安全に走行できる。 Therefore, as shown in FIG. 8, the change area CMHi as the obstacle and the distance CGRi obtained by the vehicle in front of the vehicle are displayed in the driver line-of-sight image CMHDGi with the change detection area on the camera image. Therefore, the driver can know what obstacle is ahead. Therefore, it is possible to drive safely.

さらに、ナビ端末13の画面13aに表示される画像は、図9(a)〜図9(c)に示すように、車載カメラ撮影画像CGiに基づいて作成されたカメラ画像三次元モデルCMi付のドライバ視線画像DHiが表示される。 Further, as shown in FIGS. 9A to 9C, the image displayed on the screen 13a of the navigation terminal 13 includes a camera image three-dimensional model CMi created based on the vehicle-mounted camera captured image CGi. The driver line-of-sight image DHi is displayed.

10 車両
12 車載カメラ部
100 データセンタ
110 車両情報蓄積用サーバ
120 振分サーバ
130 レーン種類ドライバ視線画像作成用サーバ
150 カメラ画像三次元モデル生成用サーバ
160 三次元モデル更新用サーバ
170 送信データ作成用サーバ
180 三次元地図情報用サーバ
190 変化検出用サーバ
133 目的地到達レーン色付部
135 ドライバ画像作成部
136 進行矢印設定部
138 レーン変更矢印設定部
152 カメラ画像三次元モデル生成部
10 vehicle 12 vehicle-mounted camera unit 100 data center 110 vehicle information storage server 120 distribution server 130 lane type driver line-of-sight image creation server 150 camera image 3D model generation server 160 3D model update server 170 transmission data creation server 180 Three-dimensional map information server 190 Change detection server 133 Destination arrival lane colored section 135 Driver image creation section 136 Progress arrow setting section 138 Lane change arrow setting section 152 Camera image three-dimensional model generation section

Claims (8)

車両に搭載された車載カメラ付ナビ端末からの車両情報(Ji)をデータセンタが無線通信回線を介して受信し、該データセンタがこの車両情報(Ji)に基づいて作成した送信データ(SDJi)を前記車載カメラ付ナビ端末に送信するナビ情報提供システムであって、
前記車載カメラ付ナビ端末は、
GPS受信機と、撮影カメラ付ナビ部と、ナビ端末とを備え、
前記撮影カメラ付ナビ部は、
前記車両の左右側に設けられ、前方を撮影する左車載カメラ及び右車載カメラよりなる撮影カメラ部と、コントローラ部とを備え、
前記コントローラ部は、
前記右車載カメラが撮影した右カメラ画像(Cai)と左車載カメラが撮影した左カメラ画像(Cbi)とが入力する毎に、これらを合成した車載カメラ撮影画像(CGi)を生成し、この車載カメラ撮影画像(CGi)毎に、この車載カメラ撮影画像(CGi)上にカメラ視線中心を定義し、このカメラ視線中心を挟む車線画像(Di)と車線画像(Di)との間の画像領域をカメラ認識自走レーン(CZRi)とし、このカメラ認識自走レーン(CZRi)を含む車載カメラ撮影画像(CGi)を出力する手段と、
前記ナビ端末は、
前記車載カメラ撮影画像(CGi)が入力する毎に、この車載カメラ撮影画像(CGi)と、端末番号(Jbi)と、姿勢(θi)と、目的地(Poi)と、前記GPS受信機で得た現在位置(GPi)とを有する前記車両情報(Ji)を生成し、これを前記データセンタに送信する手段と、
前記データセンタからの送信データ(SDJi)に基づくドライバ視線画像(DHi)を画面に表示する手段とを備え、
前記データセンタは、サーバ群を備え、
前記サーバ群は、
前記車両が走行する道路を含む三次元地図モデル(Mi)及びこの三次元地図モデル(Mi)の道路であるレーンの画像領域に対して、このレーンに該当する道路ネットワーク(DWi)のレーン番号を関連付けて記憶した三次元地図情報用サーバと、さらに、
前記車両情報(Ji)を受信して蓄積する車両情報蓄積用サーバと、レーン種類ドライバ視線画像作成用サーバと、送信データ作成用サーバとを備え、
前記レーン種類ドライバ視線画像作成用サーバは、
ドライバ画像情報提供用メモリ部を備え、
前記車両情報(Ji)が前記車両情報蓄積用サーバに蓄積される毎に、この車両情報(Ji)に含まれている前記現在位置(GPi)、前記姿勢(θi)、予め記憶されているカメラパラメータ情報、基準の地理座標に基づいて求めた前記三次元地図モデル(Mi)における位置を三次元地図モデル上ドライバ視点位置(DMPi)として前記三次元地図モデル(Mi)上に設定する手段と、
前記三次元地図モデル上ドライバ視点位置(DMPi)に、前記カメラパラメータ情報、前記姿勢(θi)に基づくエリア(EMi)を前記三次元地図モデル(Mi)に定義し、このエリア内の画像を前記ドライバ視線画像(DHi)として読み込み、これを前記ドライバ画像情報提供用メモリ部に記憶する手段と、
前記車両情報(Ji)が前記車両情報蓄積用サーバに蓄積される毎に、この前記車両情報(Ji)に含まれている前記目的地(Poi)の地理座標を有する前記道路ネットワーク(DWi)のレーン番号のネットワークレーン(NRi)を前記目的地(Poi)に到達するための目的地到達ネットワークレーン(PNRi)として前記三次元地図情報用サーバから検索する手段と、
記目的地到達ネットワークレーン(PNRi)が検索される毎に、この目的地到達ネットワークレーン(PNRi)のレーン番号が関連付けられている前記ドライバ視線画像(DHi)の画像領域に、目的地到達ネットワークレーン(PNRi)であることを示す目的地到達レーン表示色(Fi)を定義した画像をドライバ視線画像上目的地到達レーン(PDRi)として得る手段と、
前記車両情報(Ji)を受信する毎に、この車両情報(Ji)の前記車載カメラ撮影画像(CGi)に含まれている前記カメラ認識自走レーン(CZRi)に該当する前記ドライバ視線画像(DHi)の画像領域をドライバ視線画像上カメラ認識自走レーン(DCRi)として決定する手段と、
前記決定したドライバ視線画像上カメラ認識自走レーン(DCRi)に自車両進行方向矢印(ZYi)を定義する手段とを備え、
前記送信データ作成用サーバは、
前記ドライバ画像情報提供用メモリ部のドライバ視線画像(DHi)の前記ドライバ視線画像上目的地到達レーン(PDRi)が得られ、かつドライバ視線画像上カメラ認識自走レーン(DCRi)に自車両進行方向矢印(ZYi)定義される毎に、前記ドライバ視線画像上目的地到達レーン(PDRi)を含むドライバ視線画像(DHi)及び前記自車両進行方向矢印(ZYi)を前記送信データ(SDJi)として、前記車両情報(Ji)に含まれている前記端末番号(Jbi)の前記ナビ端末に送信する手段と
を有することを特徴とするナビ情報提供システム。
The data center receives the vehicle information (Ji) from the on-vehicle camera-equipped navigation terminal mounted on the vehicle through the wireless communication line, and the data center creates transmission data (SDJi) based on the vehicle information (Ji). Is a navigation information providing system for transmitting to the navigation terminal with a vehicle-mounted camera,
The in-vehicle camera navigation terminal,
A GPS receiver, a navigation unit with a photographing camera, and a navigation terminal,
The navigation unit with the photographing camera is
Provided on the left and right sides of the vehicle, a photographing camera unit including a left vehicle-mounted camera and a right vehicle-mounted camera for capturing the front, and a controller unit,
The controller unit is
Each time the right camera image (Cai) captured by the right vehicle-mounted camera and the left camera image (Cbi) captured by the left vehicle-mounted camera are input, a vehicle-mounted camera captured image (CGi) is generated by combining these, and the vehicle-mounted image is generated. For each camera-captured image (CGi), a camera line-of-sight center is defined on the vehicle-mounted camera image-captured image (CGi), and an image region between the lane image (Di) and the lane-line image (Di) sandwiching the camera line-of-sight center is defined. A means for outputting a camera-recognized self-propelled lane (CZRi), and means for outputting a vehicle-mounted camera image (CGi) including the camera-recognized self-propelled lane (CZRi);
The navigation terminal is
Every time the vehicle-mounted camera captured image (CGi) is input, the vehicle-mounted camera captured image (CGi), the terminal number (Jbi), the attitude (θi), the destination (Poi), and the GPS receiver are acquired. Means for generating the vehicle information (Ji) having the present position (GPi) and transmitting the vehicle information (Ji) to the data center;
Means for displaying on the screen a driver line-of-sight image (DHi) based on transmission data (SDJi) from the data center,
The data center includes a server group,
The server group is
The lane number of the road network (DWi) corresponding to this lane is assigned to the image area of the lane that is the road of the three-dimensional map model (Mi) and the three-dimensional map model (Mi) including the road on which the vehicle travels. A server for 3D map information stored in association with each other,
A vehicle information storage server that receives and stores the vehicle information (Ji), a lane type driver line-of-sight image creation server, and a transmission data creation server,
The lane type driver line-of-sight image creation server,
A memory unit for providing driver image information is provided,
Every time the vehicle information (Ji) is stored in the vehicle information storage server, the current position (GPi), the attitude (θi), and the camera stored in advance included in the vehicle information (Ji). Means for setting the position in the three-dimensional map model (Mi) obtained based on the parameter information and the reference geographical coordinates as a driver viewpoint position (DMPi) on the three-dimensional map model on the three-dimensional map model (Mi);
An area (EMi) based on the camera parameter information and the posture (θi) is defined in the three-dimensional map model (Mi) at the driver viewpoint position (DMPi) on the three-dimensional map model, and an image in this area is defined as described above. Means for reading in as a driver line-of-sight image (DHi) and storing this in the driver image information providing memory unit;
Each time the vehicle information (Ji) is stored in the vehicle information storage server, the road network (DWi) having the geographical coordinates of the destination (Poi) included in the vehicle information (Ji) is stored. Means for searching the network lane (NRi) of the lane number from the three-dimensional map information server as a destination arrival network lane (PNRi) for reaching the destination (Poi);
Each time before Symbol their destinations reached network lane (PNRI) is retrieved, the image area of the driver sight image is associated lane number for the destination reached network lane (PNRi) (DHi), destination reached A means for obtaining an image defining a destination arrival lane display color (Fi) indicating a network lane (PNRi) as a destination arrival lane (PDRi) on the driver's line-of-sight image;
Each time the vehicle information (Ji) is received, the driver line-of-sight image (DHi) corresponding to the camera recognition self-propelled lane (CZRi) included in the vehicle-mounted camera captured image (CGi) of the vehicle information (Ji). ), a means for determining the image area of the camera recognition self-running lane (DCRi) on the driver's line-of-sight image,
Means for defining a vehicle traveling direction arrow (ZYi) in the camera-recognized self-propelled lane (DCRi) on the determined driver line-of-sight image,
The transmission data creation server,
A destination lane (PDRi) on the driver line-of-sight image of the driver line-of-sight image (DHi) of the driver image information providing memory is obtained, and the vehicle traveling direction is set to the camera-recognized self-running lane (DCRi) on the driver line-of-sight image. Every time an arrow (ZYi) is defined, a driver line-of-sight image (DHi) including the destination lane (PDRi) on the driver line-of-sight image and the own vehicle traveling direction arrow (ZYi) are set as the transmission data (SDJi). A means for transmitting to the navigation terminal of the terminal number (Jbi) included in the vehicle information (Ji), the navigation information providing system.
前記レーン種類ドライバ視線画像作成用サーバは、
前記目的地到達ネットワークレーン(PNRi)の番号と、前記カメラ認識自走レーン(CZRi)の番号とが一致しているかどうかを判定する手段と、
不一致の場合は、ドライバ視線画像(DHi)の前記自車両進行方向矢印(ZYi)の所定位置を始点としたレーン変更矢印(HZYi)を前記ドライバ視線画像上目的地到達レーン(PDRi)に向けて定義する手段とを備え、
前記送信データ作成用サーバは、
前記ドライバ画像情報提供用メモリ部のドライバ視線画像(DHi)に前記レーン変更矢印(HZYi)が定義される毎に、このレーン変更矢印(HZYi)と、このドライバ視線画像(DHi)とを前記送信データ(SDJi)として前記車両情報(Ji)に含まれている前記端末番号(Jbi)の前記ナビ端末に送信する手段と
を有することを特徴とする請求項1に記載のナビ情報提供システム。
The lane type driver line-of-sight image creation server,
A means for judging whether or not the number of the destination reaching network lane (PNRi) and the number of the camera recognition self-propelled lane (CZRi) match;
If they do not match, the lane change arrow (HZYi) starting from the predetermined position of the vehicle traveling direction arrow (ZYi) of the driver line-of-sight image (DHi) is directed toward the destination arrival lane (PDRi) on the driver line-of-sight image. And means for defining,
The transmission data creation server,
Every time the lane change arrow (HZYi) is defined in the driver line-of-sight image (DHi) of the driver image information providing memory unit, the lane change arrow (HZYi) and the driver line-of-sight image (DHi) are transmitted. A means for transmitting to the navigation terminal of the terminal number (Jbi) included in the vehicle information (Ji) as data (SDJi), the navigation information providing system according to claim 1.
カメラ画像三次元モデル生成用サーバを備え、
前記カメラ画像三次元モデル生成用サーバは、
車載カメラ撮影画像(CGi)が記憶される車載カメラ撮影画像情報用メモリと、
車載カメラのパラメータ情報が記憶された車載カメラ用パラメータデータベースとを備え、さらに、
前記車両情報蓄積用サーバに車両情報(Ji)が蓄積される毎に、この車両情報(Ji)に含まれている前記車載カメラ撮影画像(CGi)を前記車載カメラ撮影画像情報用メモリに記憶する手段と、
前記車載カメラ用パラメータデータベースの車載カメラのパラメータ情報と、前記車両情報(Ji)に含まれている姿勢(θi)、現在位置(GPi)及び、前記三次元地図モデル(Mi)内の基準の地理座標に基づいて前記車載カメラ撮影画像(CGi)の画素当たりの前記三次元地図モデル(Mi)における三次元座標を求め、これを前記車載カメラ撮影画像(CGi)の該当する画素に割り当てたカメラ画像三次元モデル(CMi)を生成してカメラ画像三次元モデル用メモリに記憶する手段を有することを特徴とする請求項1に記載のナビ情報提供システム。
Equipped with a server for camera image 3D model generation,
The camera image three-dimensional model generation server,
An on-vehicle camera captured image information memory in which an on-vehicle camera captured image (CGi) is stored,
An in-vehicle camera parameter database in which in-vehicle camera parameter information is stored, and further,
Every time vehicle information (Ji) is stored in the vehicle information storage server, the vehicle-mounted camera captured image (CGi) included in the vehicle information (Ji) is stored in the vehicle-mounted camera captured image information memory. Means and
In-vehicle camera parameter information of the in-vehicle camera parameter database, posture (θi) included in the vehicle information (Ji), current position (GPi), and reference geography in the three-dimensional map model (Mi). A camera image obtained by obtaining three-dimensional coordinates in the three-dimensional map model (Mi) per pixel of the vehicle-mounted camera captured image (CGi) based on the coordinates and assigning the three-dimensional coordinates to the corresponding pixel of the vehicle-mounted camera captured image (CGi). The navigation information providing system according to claim 1, further comprising means for generating a three-dimensional model (CMi) and storing it in a memory for a camera image three-dimensional model.
前記車両情報(Ji)は、鳥瞰図表示又はドライバ視点表示の指示情報が含まれており、
前記送信データ作成用サーバは、
前記指示情報に基づいて前記ドライバ視線画像(DHi)を鳥瞰図又はドライバ視点位置の画像に変換する手段を有することを特徴とする請求項1に記載のナビ情報提供システム。
The vehicle information (Ji) includes instruction information for bird's eye view display or driver viewpoint display,
The transmission data creation server,
The navigation information providing system according to claim 1, further comprising means for converting the driver line-of-sight image (DHi) into an image of a bird's-eye view or a driver's viewpoint position based on the instruction information .
車載カメラ付ナビ端末からの車両の前方を撮影する左右のカメラによる撮影画像に基づいて認識した車線画像(Di)と車線画像(Di)との間の画像領域であるカメラ認識自走レーン(CZRi)を含む車載カメラ撮影画像(CGi)と、端末番号(Jbi)と、姿勢(θi)と、目的地(Poi)と、GPS受信機で得た現在位置(GPi)とを有する車両情報(Ji)を無線通信回線を介して受信し、この車両情報(Ji)に基づいて作成した送信データ(SDJi)を前記車載カメラ付ナビ端末に送信するナビ情報提供装置であって、A camera recognition self-propelled lane (CZRi), which is an image area between the lane image (Di) and the lane image (Di) recognized based on the images captured by the left and right cameras capturing the front of the vehicle from the on-vehicle camera-equipped navigation terminal. Vehicle information (Ji) including a vehicle-mounted camera captured image (CGi), a terminal number (Jbi), a posture (θi), a destination (Poi), and a current position (GPi) obtained by a GPS receiver. ) Via a wireless communication line, and transmits transmission data (SDJi) created based on this vehicle information (Ji) to the in-vehicle camera-equipped navigation terminal,
前記車両が走行する道路を含む三次元地図モデル(Mi)及びこの三次元地図モデル(Mi)の道路であるレーンの画像領域に対して、このレーンに該当する道路ネットワーク(DWi)のレーン番号を関連付けて記憶した三次元地図情報記憶部と、 The lane number of the road network (DWi) corresponding to this lane is assigned to the image area of the lane that is the road of the three-dimensional map model (Mi) and the three-dimensional map model (Mi) including the road on which the vehicle travels. A three-dimensional map information storage unit stored in association with each other,
前記車載カメラ付ナビ端末からの車両情報(Ji)を受信して、これを順次記憶する車両情報用蓄積部と、 A vehicle information storage unit that receives vehicle information (Ji) from the in-vehicle camera-equipped navigation terminal and sequentially stores it.
さらに、ドライバ画像情報提供用メモリ部と、レーン種類ドライバ視線画像作成部と、 Furthermore, a memory unit for providing driver image information, a lane type driver line-of-sight image creating unit,
送信データ作成部とを備え、With a transmission data creation unit,
前記レーン種類ドライバ視線画像作成部は、 The lane type driver line-of-sight image creation unit,
前記車両情報(Ji)が前記車両情報用蓄積部に蓄積される毎に、この車両情報(Ji)に含まれている現在位置(GPi)、前記車両情報(Ji)に含まれている姿勢(θi)、予め記憶されているカメラパラメータ情報、前記三次元地図モデル(Mi)内の基準の地理座標に基づいて求めた前記三次元地図モデル(Mi)における位置を三次元地図モデル上ドライバ視点位置(DMPi)として前記三次元地図モデル(Mi)に設定する手段と、Each time the vehicle information (Ji) is stored in the vehicle information storage unit, the current position (GPi) included in the vehicle information (Ji) and the posture (Ji) included in the vehicle information (Ji) ( θi), the camera parameter information stored in advance, and the position in the 3D map model (Mi) obtained based on the reference geographical coordinates in the 3D map model (Mi) are the driver viewpoint positions on the 3D map model. Means for setting the three-dimensional map model (Mi) as (DMPi),
前記三次元地図モデル上ドライバ視点位置(DMPi)に、前記カメラパラメータ情報、前記姿勢(θi)に基づくエリア(EMi)を前記三次元地図モデル(Mi)に定義し、このエリア内の画像をドライバ視線画像(DHi)として読み込み、これを前記ドライバ画像情報提供用メモリ部に記憶する手段と、 An area (EMi) based on the camera parameter information and the posture (θi) is defined in the three-dimensional map model (Mi) at the driver viewpoint position (DMPi) on the three-dimensional map model, and an image in this area is driven by the driver. Means for reading in as a line-of-sight image (DHi) and storing it in the driver image information providing memory unit;
前記車両情報(Ji)が前記車両情報用蓄積部に蓄積される毎に、この車両情報(Ji)に含まれている目的地(Poi)の地理座標を有する前記道路ネットワーク(DWi)のレーン番号のネットワークレーン(NRi)を前記目的地(Poi)に到達するための目的地到達ネットワークレーン(PNRi)として前記三次元地図情報記憶部から検索する手段と、 Each time the vehicle information (Ji) is stored in the vehicle information storage unit, the lane number of the road network (DWi) having the geographical coordinates of the destination (Poi) included in the vehicle information (Ji). Means for searching the network lane (NRi) as a destination reaching network lane (PNRi) for reaching the destination (Poi) from the three-dimensional map information storage unit;
前記目的地到達ネットワークレーン(PNRi)が検索される毎に、この目的地到達ネットワークレーン(PNRi)のレーン番号が関連付けられている前記ドライバ視線画像(DHi)の画像領域に、目的地到達ネットワークレーン(PNRi)であることを示す目的地到達レーン表示色(Fi)を定義した画像をドライバ視線画像上目的地到達レーン(PDRi)として得る手段と、 Each time the destination arrival network lane (PNRi) is searched, the destination arrival network lane is displayed in the image area of the driver line-of-sight image (DHi) associated with the lane number of the destination arrival network lane (PNRi). Means for obtaining an image defining a destination arrival lane display color (Fi) indicating (PNRi) as a destination arrival lane (PDRi) on the driver line-of-sight image;
前記車両情報(Ji)を受信する毎に、この車両情報(Ji)の前記車載カメラ撮影画像(CGi)に含まれている前記カメラ認識自走レーン(CZRi)に該当する前記ドライバ視線画像(DHi)の画像領域をドライバ視線画像上カメラ認識自走レーン(DCRi)として決定する手段と、 Each time the vehicle information (Ji) is received, the driver line-of-sight image (DHi) corresponding to the camera recognition self-propelled lane (CZRi) included in the vehicle-mounted camera captured image (CGi) of the vehicle information (Ji). ), a means for determining the image region of the driver recognition line image on the driver's line-of-sight image (DCRi),
前記決定したドライバ視線画像上カメラ認識自走レーン(DCRi)に自車両進行方向矢印(ZYi)を定義する手段とを備え、 Means for defining a vehicle traveling direction arrow (ZYi) in the camera-recognized self-propelled lane (DCRi) on the determined driver line-of-sight image,
前記送信データ作成部は、 The transmission data creation unit,
前記ドライバ画像情報提供用メモリ部のドライバ視線画像(DHi)の前記ドライバ視線画像上目的地到達レーン(PDRi)が得られ、かつドライバ視線画像上カメラ認識自走レーン(DCRi)に自車両進行方向矢印(ZYi)が定義される毎に、前記ドライバ視線画像上目的地到達レーン(PDRi)を含むドライバ視線画像(DHi)及び前記自車両進行方向矢印(ZYi)を前記送信データ(SDJi)として、前記車両情報(Ji)に含まれている前記端末番号(Jbi)の前記車載カメラ付ナビ端末に送信する手段と A destination lane (PDRi) on the driver line-of-sight image of the driver line-of-sight image (DHi) in the driver image information providing memory is obtained, and the vehicle traveling direction is set to the camera-recognized self-running lane (DCRi) on the driver line-of-sight image. Every time an arrow (ZYi) is defined, the driver line-of-sight image (DHi) including the destination lane (PDRi) on the driver line-of-sight image and the own vehicle traveling direction arrow (ZYi) are set as the transmission data (SDJi). Means for transmitting to the in-vehicle camera-equipped navigation terminal having the terminal number (Jbi) included in the vehicle information (Ji);
を有することを特徴とするナビ情報提供装置。 A navigation information providing device characterized by having.
前記レーン種類ドライバ視線画像作成部は、
前記目的地到達ネットワークレーン(PNRi)の番号と、前記カメラ認識自走レーン(CZRi)の番号とが一致しているかどうかを判定する手段と、
不一致の場合は、ドライバ視線画像(DHi)の前記自車両進行方向矢印(ZYi)の所定位置を始点としたレーン変更矢印(HZYi)を前記ドライバ視線画像上目的地到達レーン(PDRi)に向けて定義する手段とを備え、
前記送信データ作成部は、
前記ドライバ画像情報提供用メモリ部のドライバ視線画像(DHi)に前記レーン変更矢印(HZYi)が定義される毎に、このレーン変更矢印(HZYi)と、このドライバ視線画像(DHi)とを前記送信データ(SDJi)として前記車両情報(Ji)に含まれている前記端末番号(Jbi)の前記車載カメラ付ナビ端末に送信する手段と
を有することを特徴とする請求項5に記載のナビ情報提供装置
The lane type driver line-of-sight image creation unit,
A means for judging whether or not the number of the destination reaching network lane (PNRi) and the number of the camera recognition self-propelled lane (CZRi) match;
If they do not match, the lane change arrow (HZYi) starting from the predetermined position of the vehicle traveling direction arrow (ZYi) of the driver line-of-sight image (DHi) is directed toward the destination arrival lane (PDRi) on the driver line-of-sight image. And means for defining,
The transmission data creation unit,
Every time the lane change arrow (HZYi) is defined in the driver line-of-sight image (DHi) of the driver image information providing memory unit, the lane change arrow (HZYi) and the driver line-of-sight image (DHi) are transmitted. A means for transmitting as data (SDJi) to the in-vehicle camera-equipped navigation terminal of the terminal number (Jbi) included in the vehicle information (Ji);
The navigation information providing device according to claim 5, further comprising:
さらに、カメラ画像三次元モデル作成部を備え、
前記カメラ画像三次元モデル作成部は、
車載カメラ撮影画像(CGi)が記憶される車載カメラ撮影画像情報用メモリと、
車載カメラのパラメータ情報が記憶された車載カメラ用パラメータデータベースとを備え、さらに、
前記車両情報用蓄積部に車両情報(Ji)が蓄積される毎に、この車両情報(Ji)に含まれている前記車載カメラ撮影画像(CGi)を前記車載カメラ撮影画像情報用メモリに記憶する手段と、
前記車載カメラ用パラメータデータベースの車載カメラのパラメータ情報と、姿勢(θi)、現在位置(GPi)及び前記三次元地図モデル(Mi)内の基準の地理座標に基づいて前記車載カメラ撮影画像(CGi)の画素当たりの前記三次元地図モデル(Mi)における三次元座標を求め、これを前記車載カメラ撮影画像(CGi)の該当する画素に割り当てたカメラ画像三次元モデル(CMi)を生成してカメラ画像三次元モデル用メモリに記憶する手段を
有することを特徴とする請求項5に記載のナビ情報提供装置
Furthermore, equipped with a camera image three-dimensional model creation unit,
The camera image three-dimensional model creation unit,
An on-vehicle camera captured image information memory in which an on-vehicle camera captured image (CGi) is stored,
An in-vehicle camera parameter database in which in-vehicle camera parameter information is stored, and further,
Every time vehicle information (Ji) is stored in the vehicle information storage unit, the vehicle-mounted camera captured image (CGi) included in the vehicle information (Ji) is stored in the vehicle-mounted camera captured image information memory. Means and
The vehicle-mounted camera photographed image (CGi) based on the vehicle-mounted camera parameter information of the vehicle-mounted camera parameter database, the orientation (θi), the current position (GPi), and the reference geographical coordinates in the three-dimensional map model (Mi). 3D coordinates per pixel in the 3D map model (Mi) are obtained, and the camera image 3D model (CMi) is generated by assigning the 3D coordinates to the corresponding pixel of the vehicle-mounted camera image (CGi) to generate the camera image. Means to store in the memory for the 3D model
The navigation information providing apparatus according to claim 5, characterized in that it has .
前記車両情報(Ji)は、鳥瞰図表示又はドライバ視点表示の指示情報が含まれており、
前記送信データ作成部は、
前記指示情報に基づいて前記ドライバ視線画像(DHi)を鳥瞰図又はドライバ視点位置の画像に変換する手段を有することを特徴とする請求項5に記載のナビ情報提供装置。
The vehicle information (Ji) includes instruction information for bird's eye view display or driver viewpoint display,
The transmission data creation unit,
The navigation information providing device according to claim 5, further comprising means for converting the driver line-of-sight image (DHi) into an image of a bird's-eye view or a driver's viewpoint position based on the instruction information .
JP2015257498A 2015-12-28 2015-12-28 Navigation information providing system and navigation information providing device Active JP6723744B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015257498A JP6723744B2 (en) 2015-12-28 2015-12-28 Navigation information providing system and navigation information providing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015257498A JP6723744B2 (en) 2015-12-28 2015-12-28 Navigation information providing system and navigation information providing device

Publications (2)

Publication Number Publication Date
JP2017120238A JP2017120238A (en) 2017-07-06
JP6723744B2 true JP6723744B2 (en) 2020-07-15

Family

ID=59271979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015257498A Active JP6723744B2 (en) 2015-12-28 2015-12-28 Navigation information providing system and navigation information providing device

Country Status (1)

Country Link
JP (1) JP6723744B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111158355A (en) * 2018-11-07 2020-05-15 富华科精密工业(深圳)有限公司 Automatic navigation cloud server and automatic navigation control method
CN110070712A (en) * 2019-04-12 2019-07-30 同济大学 A kind of low speed sweeper Global localization system and method
KR20210087271A (en) * 2020-01-02 2021-07-12 삼성전자주식회사 Apparatus and method for displaying navigation information of three dimention augmented reality
CN116592908B (en) * 2023-05-17 2024-07-19 浙江高信技术股份有限公司 Positioning navigation method and system based on high-precision map

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4892741B2 (en) * 2005-03-30 2012-03-07 国立大学法人 熊本大学 Navigation device and navigation method
JP4980118B2 (en) * 2007-04-06 2012-07-18 アルパイン株式会社 Car navigation system
JP5356770B2 (en) * 2008-10-20 2013-12-04 アルパイン株式会社 Navigation device and interrupt information display method

Also Published As

Publication number Publication date
JP2017120238A (en) 2017-07-06

Similar Documents

Publication Publication Date Title
CN112204343B (en) Visualization of high definition map data
KR102113816B1 (en) System for autonomous driving service of vehicle, cloud server thereof and method thereof
JP5435306B2 (en) Image processing system and positioning system
EP3333803A1 (en) Pose error estimation and localization using static features
JP4847090B2 (en) Position positioning device and position positioning method
US20180045516A1 (en) Information processing device and vehicle position detecting method
US20210199437A1 (en) Vehicular component control using maps
KR100887721B1 (en) Image car navigation system and method
EP3553752A1 (en) Information processing apparatus, information processing method, and computer-readable medium for generating an obstacle map
US10942519B2 (en) System and method for navigating an autonomous driving vehicle
EP3671623B1 (en) Method, apparatus, and computer program product for generating an overhead view of an environment from a perspective image
JP6723744B2 (en) Navigation information providing system and navigation information providing device
CN102208036A (en) Vehicle position detection system
US20100245561A1 (en) Navigation device
JP2010134499A (en) Remote place image display device, remote control apparatus, vehicle control apparatus, remote control system, remote control method, remote control program, vehicle control program, remote place image display method, and remote place image display program
CN110998684B (en) Image collection system, image collection method, image collection device, and recording medium
EP2829844A1 (en) Navigation system
US20230392943A1 (en) Server apparatus and information processing method
JP2007122247A (en) Automatic landmark information production method and system
JP5883723B2 (en) 3D image display system
US20220221298A1 (en) Vehicle control system and vehicle control method
KR20100004022A (en) Apparatus, system for navigating using road signs and method using the same
JP2020166691A (en) Imaging system, server, control method, and program
EP3339808A1 (en) Positioning objects in an augmented reality display
JP6773473B2 (en) Survey information management device and survey information management method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180629

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190730

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190730

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200110

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200115

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200624

R150 Certificate of patent or registration of utility model

Ref document number: 6723744

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250