JP2008145364A - Route guiding device - Google Patents

Route guiding device Download PDF

Info

Publication number
JP2008145364A
JP2008145364A JP2006335358A JP2006335358A JP2008145364A JP 2008145364 A JP2008145364 A JP 2008145364A JP 2006335358 A JP2006335358 A JP 2006335358A JP 2006335358 A JP2006335358 A JP 2006335358A JP 2008145364 A JP2008145364 A JP 2008145364A
Authority
JP
Japan
Prior art keywords
vehicle
route guidance
camera
image
predetermined time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006335358A
Other languages
Japanese (ja)
Inventor
Toshiaki Takahashi
利彰 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2006335358A priority Critical patent/JP2008145364A/en
Publication of JP2008145364A publication Critical patent/JP2008145364A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a route guiding device capable of reducing a feeling of incongruity generated when a driver confirms a vehicle foreground image displayed on an on-vehicle display device and then views directly the foreground. <P>SOLUTION: When performing route guide by displaying a road image on a display 112, the direction of a camera or an enlargement quantity is calculated by an oscillation and enlargement/reduction quantity calculation part 107 to acquire a road image estimated to be viewed by the driver after traveling as long as a prescribed time from the present, and a peripheral image photographing camera 109 is controlled by a camera oscillation and enlargement/reduction mechanism part 108. Route guide is performed by using a camera image after traveling as long as the prescribed time, and thereby, when the driver views a display screen on the display 112 and then views the foreground, the road image displayed on the display 112 becomes the same as the foreground viewed by the driver, and the feeling of incongruity is not generated. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、経路案内装置、特に車両前方を撮影した画像に経路案内図を重畳して表示する装置に関する。   The present invention relates to a route guidance device, and more particularly to a device that superimposes and displays a route guidance map on an image taken in front of a vehicle.

従来、車両に搭載されたカメラによって車両前方を撮像し、撮像した実際の車両前方画像に、CGなどによって作成した道案内情報(交差点進行方向指示、車線変更指示など)を重畳した画像を車載表示装置に表示する車両用案内表示装置が知られている。
このような装置として、たとえば特開平10−281795号公報に記載されたものがある。
また、このような車両用案内表示装置によれば、比較的ドライバが視認する風景に近い画像を車載表示装置に表示するので、プランビュー(上面図)で表示される経路案内表示と比べて経路をドライバが理解しやすくなる。
特開平10−281795号公報
Conventionally, an image of the front of the vehicle is captured by a camera mounted on the vehicle, and an image in which road guidance information (intersection traveling direction instruction, lane change instruction, etc.) created by CG is superimposed on the captured actual vehicle front image is displayed on-vehicle 2. Description of the Related Art A vehicle guidance display device that displays on a device is known.
An example of such an apparatus is described in Japanese Patent Application Laid-Open No. 10-281795.
In addition, according to such a vehicle guidance display device, an image that is relatively close to the scenery visually recognized by the driver is displayed on the in-vehicle display device, so that the route is compared with the route guidance display displayed in the plan view (top view). The driver will be easier to understand.
Japanese Patent Laid-Open No. 10-281795

しかしながらこのような従来の装置においては、ドライバが車載表示装置に表示されたカメラの映像を確認している間にも車両は移動しているため、ドライバが車載表示装置に表示された映像を見た後に車両前方を直接視認した場合、車載表示装置の映像と視認した前景とにズレが生じてしまいドライバは違和感を受けるといった問題があった。   However, in such a conventional apparatus, since the vehicle is moving while the driver confirms the camera image displayed on the in-vehicle display device, the driver views the image displayed on the in-vehicle display device. When the front of the vehicle is directly visually recognized afterward, there is a problem that the driver feels uncomfortable because a difference occurs between the image of the in-vehicle display device and the visually recognized foreground.

そこで本発明はこのような問題点に鑑み、ドライバが車載表示装置に表示されている車両前景画像を確認した後に前景を直接視認した時の違和感を低減することができる経路案内装置を提供することを目的とする。   Therefore, in view of such problems, the present invention provides a route guidance device that can reduce a sense of discomfort when the driver directly views the foreground after confirming the vehicle foreground image displayed on the in-vehicle display device. With the goal.

本発明は、車両位置検出手段によって検出された車両の現在位置と、地図データベースに記憶された地図情報とより、経路設定手段が目的地までの経路と経路案内を行う経路案内ポイントを設定し、領域作成手段が、車両周辺画像を撮像するカメラが現在時刻よりも所定時間後に撮像する領域を推定して、カメラによって撮像された画像より所定時間後の撮像画像を作成し、図形作成手段によって作成された経路案内図形と、所定時間経過後の撮像画像とを重畳させて表示手段に表示するものとした。   The present invention sets a route guidance point where the route setting means performs route guidance to the destination and route guidance based on the current position of the vehicle detected by the vehicle position detection means and the map information stored in the map database, The area creation means estimates the area that the camera that captures the vehicle surrounding image captures after a predetermined time from the current time, creates a captured image after a predetermined time from the image captured by the camera, and creates it by the graphic creation means The route guidance figure made and the captured image after a predetermined time have been superimposed and displayed on the display means.

本発明によれば、現在から所定時間走行後に運転者が視認することが推定される撮像画像を用いて経路誘導を行うことにより、運転者が表示手段の表示画面を見た後、前景を見たときに、表示手段に表示されていた道路映像と運転者が視認した前景とが同じとなり、違和感が生じることがない。   According to the present invention, by performing route guidance using a captured image estimated to be visually recognized by the driver after traveling for a predetermined time from the present, the driver views the foreground after viewing the display screen of the display means. The road image displayed on the display means is the same as the foreground visually recognized by the driver, and there is no sense of incongruity.

次に本発明の実施の形態を実施例により説明する。
まず第1の実施例について説明する。
図1に、本実施例の全体構成を示す。
なお本実施例における経路案内装置100は、周辺映像撮影カメラ109によって撮影された映像に進行方向などを示す矢印映像を重ねてディスプレイ112に表示するものである。
車両の目的地情報を入力するための目的地入力部101と、自車両の現在位置を検出する自車両位置検出部102と、車両の車速と舵角を検出する車速&舵角センサ106と、カメラ首振り&拡大縮小機構部108を備えた周辺映像撮影カメラ109と、映像を表示するディスプレイ112とが車載コンピュータ130に接続されて経路案内装置100が構成される。
目的地入力部101は、たとえばディスプレイ112に重ねられたタッチパネルであり、入力された目的地の住所や電話番号の入力を受け付ける。
自車両位置検出部102は、たとえばGPSレシーバであり、衛星から送られる情報をもとに、自車両の現在位置を検出する。
Next, embodiments of the present invention will be described by way of examples.
First, the first embodiment will be described.
FIG. 1 shows the overall configuration of this embodiment.
Note that the route guidance apparatus 100 according to the present embodiment displays an arrow image indicating the traveling direction on the image captured by the peripheral image capturing camera 109 and displays it on the display 112.
A destination input unit 101 for inputting vehicle destination information, a host vehicle position detection unit 102 for detecting a current position of the host vehicle, a vehicle speed & steering angle sensor 106 for detecting a vehicle speed and a steering angle of the vehicle, A route guidance apparatus 100 is configured by connecting a peripheral video camera 109 having a camera swing & enlargement / reduction mechanism unit 108 and a display 112 for displaying video to an in-vehicle computer 130.
The destination input unit 101 is, for example, a touch panel overlaid on the display 112, and receives input of an input destination address and telephone number.
The own vehicle position detection unit 102 is a GPS receiver, for example, and detects the current position of the own vehicle based on information sent from a satellite.

車速&舵角センサ106は、たとえば車両の車輪速センサとハンドル切れ角を検出する舵角センサとより構成され、車速と舵角に対応する値を車載コンピュータ130に向けて出力する。
カメラ首振り&拡大縮小機構部108は、たとえば電動ステージと電動ズームレンズより構成され、車載コンピュータ130からの指示にもとづいて周辺映像撮影カメラ109の撮影領域の移動および拡大縮小を行う。
The vehicle speed & rudder angle sensor 106 includes, for example, a wheel speed sensor of the vehicle and a rudder angle sensor that detects the steering angle, and outputs a value corresponding to the vehicle speed and the rudder angle to the in-vehicle computer 130.
The camera swinging / enlarging / reducing mechanism unit 108 includes, for example, an electric stage and an electric zoom lens, and moves and enlarges / reduces the imaging area of the peripheral video imaging camera 109 based on an instruction from the in-vehicle computer 130.

車載コンピュータ130は、経路探索部103と、地図データベース104、経路誘導部105、首振り&拡大縮小量計算部107、案内矢印映像作成部110、映像合成部111とを備える。
経路探索部103は、目的地入力部101と自車両位置検出部102から入力されたデータをもとに、たとえばダイクストラ法を用いて最小コスト経路を探索するものであり、地図データベース104から地図データを読み出して、経路とその経路のルート特徴量を算出し、経路誘導部105に送る。
経路誘導部105では、経路探索部103で算出された経路や自車両位置にもとづいて車両の経路誘導を行うための経路誘導情報(たとえば曲がるべき交差点(経路案内ポイント)の案内情報など)を算出する。
The in-vehicle computer 130 includes a route search unit 103, a map database 104, a route guidance unit 105, a swing & enlargement / reduction amount calculation unit 107, a guidance arrow video creation unit 110, and a video synthesis unit 111.
The route search unit 103 searches for a minimum cost route using, for example, the Dijkstra method based on data input from the destination input unit 101 and the vehicle position detection unit 102. , And a route and a route feature amount of the route are calculated and sent to the route guidance unit 105.
The route guidance unit 105 calculates route guidance information (for example, guidance information for intersections (route guidance points) to be bent) for performing vehicle route guidance based on the route calculated by the route search unit 103 and the vehicle position. To do.

首振り&拡大縮小量計算部107は、車速&舵角センサ106によって検出された車速値をもとに周辺映像撮影カメラ109の拡大縮小量を算出し、舵角値にもとづいて周辺映像撮影カメラ109の首振り量を算出する。算出結果はカメラ首振り&拡大縮小機構部108および案内矢印映像作成部110へ出力される。
首振り&拡大縮小量計算部107は、車速が増加すると周辺映像撮影カメラ109のズーム量を増やし、車速が減少すると周辺映像撮影カメラ109のズーム量を減らすものである。
また、舵角が右に向くと舵角に応じて周辺映像撮影カメラ109の撮影方向を右に移動させ、舵角が左に向くと舵角に応じて周辺映像撮影カメラ109の撮影方向を左に移動させる。
The swing & enlargement / reduction amount calculation unit 107 calculates the enlargement / reduction amount of the peripheral video camera 109 based on the vehicle speed value detected by the vehicle speed & steering angle sensor 106, and the peripheral video camera based on the steering angle value. 109 swing amounts are calculated. The calculation result is output to the camera swing & enlargement / reduction mechanism unit 108 and the guide arrow image creation unit 110.
The head swing & enlargement / reduction amount calculator 107 increases the zoom amount of the peripheral video camera 109 when the vehicle speed increases, and decreases the zoom amount of the peripheral video camera 109 when the vehicle speed decreases.
Also, when the rudder angle turns to the right, the shooting direction of the peripheral video camera 109 is moved to the right according to the rudder angle. When the rudder angle turns to the left, the shooting direction of the peripheral video camera 109 changes to the left according to the rudder angle. Move to.

図2に、周辺映像撮影カメラ109による撮影範囲を示す。
なお周辺映像撮影カメラ109は車両内に取り付けられており、カメラが正面を向き、ズームを行っていない状態で撮影映像の下側に車両のボンネットE1やダッシュボードE2が映っている。
周辺映像撮影カメラ109の撮影範囲の拡大縮小や移動を行っていない通常時の場合には、図2の撮影範囲Aのように、周辺映像撮影カメラ109は車両の正面を向き、車両前方の比較的広い範囲を撮影している。
たとえば車両の舵角が右に向き、車速が早い場合には、通常時よりも映像が拡大され、さらにカメラが右方向に傾けられることにより通常時よりも右にずらされた映像となる。
したがって周辺映像撮影カメラ109は、図2の撮影範囲Bに示す範囲を撮影する。
FIG. 2 shows a shooting range by the peripheral video camera 109.
Note that the peripheral video camera 109 is mounted in the vehicle, and the hood E1 and dashboard E2 of the vehicle are shown below the captured video in a state where the camera faces the front and is not zoomed.
In the normal time when the shooting range of the peripheral video camera 109 is not enlarged or reduced or moved, the peripheral video camera 109 faces the front of the vehicle as shown in the shooting range A of FIG. Shooting a wide range.
For example, when the steering angle of the vehicle is directed to the right and the vehicle speed is high, the image is enlarged as compared with the normal time, and further, the image is shifted to the right as compared with the normal time by tilting the camera to the right.
Therefore, the peripheral video camera 109 captures a range indicated by a shooting range B in FIG.

なお周辺映像撮影カメラ109の撮影領域は、現在時刻より所定時間経過後に運転者が視認すると推定される領域とする。
すなわち車速が速い場合には、ズーム撮影を行うことによって遠くのものが近くに映るように撮影し、車速が遅い場合にはズーム量を減らす。これにより、運転者がディスプレイ112に表示される道路映像を視認した後、前景を見たときに、ディスプレイ112に表示される映像の視認後から前景を見るまでの間に車両が移動していたとしても、ディスプレイ112に表示されていた道路の映像と前景とが同じとなり、違和感が防止される。
またハンドルが操作されている場合には、舵角に応じてカメラの撮影方向を変化させることにより、上記と同様に、運転者がディスプレイ112に表示される道路映像を視認した後、前景を見たときに、ディスプレイ112に表示されていた道路の映像と前景とが同じとなり、違和感が防止される。
Note that the shooting area of the peripheral video camera 109 is an area that is estimated to be visually recognized by the driver after a predetermined time has elapsed from the current time.
In other words, when the vehicle speed is high, zoom shooting is performed so that a distant object appears close, and when the vehicle speed is low, the zoom amount is reduced. As a result, when the driver views the foreground after visually recognizing the road image displayed on the display 112, the vehicle has moved between the time after viewing the image displayed on the display 112 and the time when the foreground is viewed. In this case, the road image displayed on the display 112 and the foreground are the same, and a sense of incongruity is prevented.
When the steering wheel is operated, the camera's shooting direction is changed according to the steering angle, so that the driver views the foreground after viewing the road image displayed on the display 112 in the same manner as described above. The road image displayed on the display 112 becomes the same as the foreground, and a sense of incongruity is prevented.

案内矢印映像作成部110は、経路誘導部105によって算出された経路誘導情報にもとづいて、経路誘導時に運転者に提示する矢印映像(たとえば交差点の右折を促す右に折れ曲がった矢印など)を作成する。
さらに案内矢印映像作成部110は、周辺映像撮影カメラ109の首振りや拡大縮小が行われている場合には、首振り&拡大縮小量計算部107によって算出された周辺映像撮影カメラ109の拡大縮小量や首振り量にもとづいて、表示位置や大きさが補正された矢印映像を作成する。
この補正によって、周辺映像撮影カメラ109が首振りや撮影範囲の拡大縮小を行った場合でも、経路案内のために表示する矢印と周辺映像撮影カメラ109によって撮影された映像の道路とにずれが生じることを防止することができる。
映像合成部111では、周辺映像撮影カメラ109によって撮影された映像と、案内矢印映像作成部110によって作成された矢印映像とを重ね合わせる。
映像合成部111で合成された映像はディスプレイ112に表示される。
Based on the route guidance information calculated by the route guidance unit 105, the guide arrow image creation unit 110 creates an arrow image to be presented to the driver at the time of route guidance (for example, an arrow bent to the right for prompting a right turn at an intersection). .
Further, the guide arrow video creation unit 110 enlarges / reduces the peripheral video shooting camera 109 calculated by the swing & enlargement / reduction amount calculation unit 107 when the peripheral video shooting camera 109 is swung or enlarged / reduced. An arrow image in which the display position and size are corrected is created based on the amount and the swing amount.
Due to this correction, even when the peripheral video camera 109 swings or enlarges / reduces the shooting range, a deviation occurs between the arrow displayed for route guidance and the road of the video shot by the peripheral video camera 109. This can be prevented.
The video composition unit 111 superimposes the video shot by the peripheral video camera 109 and the arrow video created by the guide arrow video creation unit 110.
The video synthesized by the video synthesis unit 111 is displayed on the display 112.

ここで図3に、ディスプレイ112に表示される映像例を示す。
なお図3は、図2における撮影範囲Bの映像(車速が速く、舵角が右の場合の映像)に右折を促すための矢印映像を重ねたものである。
案内矢印映像作成部110において、矢印の表示位置や大きさの補正を行っていることにより、周辺映像撮影カメラ109が通常時よりも右にずれた範囲を撮影し、さらにカメラの拡大を行っていたとしても、矢印の位置と撮影された映像とにずれが生じない。
なお本実施例において、自車両位置検出部102が本発明における車両位置検出手段を構成し、経路探索部103および経路誘導部105が本発明における経路設定手段を構成する。また周辺映像撮影カメラ109が本発明におけるカメラを構成し、首振り&拡大縮小量計算部107が領域作成手段を構成する。ディスプレイ112が本発明における表示手段を構成し、案内矢印映像作成部110が本発明における図形作成手段を構成する。
Here, FIG. 3 shows an example of an image displayed on the display 112.
Note that FIG. 3 is an image in which an arrow image for prompting a right turn is superimposed on the image of the imaging range B in FIG. 2 (image when the vehicle speed is fast and the steering angle is right).
By correcting the display position and size of the arrow in the guide arrow image creation unit 110, the peripheral image capturing camera 109 captures a range shifted to the right from the normal time, and further enlarges the camera. Even so, there is no deviation between the position of the arrow and the captured image.
In this embodiment, the host vehicle position detection unit 102 constitutes a vehicle position detection unit in the present invention, and the route search unit 103 and the route guidance unit 105 constitute a route setting unit in the present invention. The peripheral video camera 109 constitutes the camera of the present invention, and the swing & enlargement / reduction amount calculation unit 107 constitutes the area creating means. The display 112 constitutes display means in the present invention, and the guide arrow image creation unit 110 constitutes graphic creation means in the present invention.

本実施例は以上のように構成され、ディスプレイ112に道路映像を表示して経路誘導を行う場合に、現在から所定時間走行後に運転者が視認することが推定される道路映像(以下、先読み映像とも呼ぶ)を用いて経路誘導を行うことにより、運転者がディスプレイ112の表示画面を見た後、前景を見たときに、ディスプレイ112に表示されていた道路映像と運転者が視認した前景とが同じとなり、違和感が生じることがない。
また、車速&舵角センサ106によって検出された車速や舵角にもとづいて、周辺映像撮影カメラ109のズーム量や撮影方向を変化させるものとしたので、車速が変化しても、変化する車速に応じて先読み映像を正確に得ることができる。
The present embodiment is configured as described above. When a road image is displayed on the display 112 and route guidance is performed, a road image (hereinafter referred to as a prefetched image) that is estimated to be visually recognized by the driver after traveling for a predetermined time from the present time. The road image displayed on the display 112 and the foreground visually recognized by the driver when the driver views the foreground after viewing the display screen of the display 112. Are the same, and there is no sense of incongruity.
Further, since the zoom amount and shooting direction of the peripheral video camera 109 are changed based on the vehicle speed and the steering angle detected by the vehicle speed & steering angle sensor 106, the vehicle speed changes even if the vehicle speed changes. Accordingly, prefetched video can be obtained accurately.

なお本実施例において、車両の速度の変化に応じてズーム量を変化させるものとしたが、車両が走行中の場合には、所定時間走行後に運転者が視認することが推定される道路映像が撮影範囲となるように、あらかじめ定められたズーム量や撮影方向に周辺映像撮影カメラ109を変化させることもできる。
この場合には、車速に応じた細かな制御が不要となり、周辺映像撮影カメラ109の制御が容易となる。
In this embodiment, the zoom amount is changed according to the change in the speed of the vehicle. However, when the vehicle is running, a road image estimated to be visually recognized by the driver after running for a predetermined time is displayed. It is also possible to change the peripheral video camera 109 to a predetermined zoom amount or shooting direction so that the shooting range is reached.
In this case, fine control according to the vehicle speed is unnecessary, and control of the peripheral video camera 109 becomes easy.

次に第2の実施例について説明する。
図4に、本実施例の全体構成を示す。
なお、第1の実施例と同一の構成物については同一番号を付して説明を省略する。
車両の目的地情報を入力するための目的地入力部101と、自車両の現在位置を検出する自車両位置検出部102と、車両の車速と舵角を検出する車速&舵角センサ106と、車両前景を撮影する周辺映像撮影カメラ109Aと、映像を表示するディスプレイ112とが車載コンピュータ230に接続されて経路案内装置200が構成される。
なお本実施例において周辺映像撮影カメラ109Aは、車両の前景の所定範囲を撮影可能なように車両に固定されている。
Next, a second embodiment will be described.
FIG. 4 shows the overall configuration of this embodiment.
In addition, the same number is attached | subjected about the same structure as a 1st Example, and description is abbreviate | omitted.
A destination input unit 101 for inputting vehicle destination information, a host vehicle position detection unit 102 for detecting a current position of the host vehicle, a vehicle speed & steering angle sensor 106 for detecting a vehicle speed and a steering angle of the vehicle, A route guidance apparatus 200 is configured by connecting a peripheral video photographing camera 109A for photographing a vehicle foreground and a display 112 for displaying a video to an in-vehicle computer 230.
In this embodiment, the peripheral video camera 109A is fixed to the vehicle so as to capture a predetermined range of the foreground of the vehicle.

車載コンピュータ230は、経路探索部103、地図データベース104、経路誘導部105を備える。
さらに車載コンピュータ230は、座標変換式格納部208、映像変換部209、案内矢印映像作成部210、および映像合成部211を備える。
座標変換式格納部208は、所定時間経過後の車両の位置から見える前景となるように、周辺映像撮影カメラ109Aによって撮影された映像の変換を行うための座標変換式を格納している。
The in-vehicle computer 230 includes a route searching unit 103, a map database 104, and a route guiding unit 105.
Further, the in-vehicle computer 230 includes a coordinate conversion type storage unit 208, a video conversion unit 209, a guide arrow video creation unit 210, and a video synthesis unit 211.
The coordinate conversion formula storage unit 208 stores a coordinate conversion formula for converting a video shot by the peripheral video shooting camera 109A so that a foreground can be seen from the position of the vehicle after a predetermined time has elapsed.

映像変換部209は、車速&舵角センサ106によって検出された車速や舵角にもとづいて、座標変換式記憶部208に格納された座標変換式を用いて、周辺映像撮影カメラ109Aによって撮影された映像の座標変換を行う。
この座標変換によって、所定時間経過後の表示画面を作成することができる。
案内矢印映像作成部210は、経路誘導部105によって算出された経路誘導情報にもとづいて運転者に提示する矢印映像を作成する。
また案内矢印映像作成部210は、座標変換式格納部208によって算出された座標変換式にもとづいて、表示位置や大きさが補正された矢印映像を作成する。
The video conversion unit 209 was photographed by the peripheral video photographing camera 109 </ b> A using the coordinate conversion formula stored in the coordinate conversion formula storage unit 208 based on the vehicle speed and the steering angle detected by the vehicle speed & steering angle sensor 106. Perform coordinate conversion of video.
By this coordinate conversion, a display screen after a predetermined time has elapsed can be created.
The guide arrow video creation unit 210 creates an arrow video to be presented to the driver based on the route guidance information calculated by the route guidance unit 105.
In addition, the guide arrow image creation unit 210 creates an arrow image whose display position and size are corrected based on the coordinate conversion formula calculated by the coordinate conversion formula storage unit 208.

映像合成部211では、映像変換部209によって座標変換された映像と、案内矢印映像作成部210によって作成された矢印映像とを重ね合わせる。
映像合成部211で合成された映像はディスプレイ112に表示される。
The video composition unit 211 superimposes the video coordinate-converted by the video conversion unit 209 and the arrow video created by the guide arrow video creation unit 210.
The video synthesized by the video synthesis unit 211 is displayed on the display 112.

次に、座標変換式格納部208に格納されている座標変換式の詳細について説明する。
なお、ディスプレイ112に表示される画面上の座標を表示座標と呼び、前景の路面を上方から見たときの座標を地面座標と呼ぶ。
図5の(a)は、カメラによって撮影された表示画像であり、図5の(b)は、表示画像上の任意の点を地面座標上に表したものであり、図5の(c)は、所定時間後の自車両位置から見える表示座標を表したものである。
また図5の(a)、(c)に示すように、表示座標は映像の消失点を原点とする。
また図6は、地面やカメラを側面から見た図であり、図7は、地面やカメラを上から見た図である。
図6において、地面150が地面座標となり、周辺映像撮影カメラ109Aの受光素子109Bが表示座標となっている。
Next, the details of the coordinate conversion formula stored in the coordinate conversion formula storage unit 208 will be described.
The coordinates on the screen displayed on the display 112 are referred to as display coordinates, and the coordinates when the foreground road surface is viewed from above are referred to as ground coordinates.
FIG. 5A shows a display image taken by a camera, and FIG. 5B shows an arbitrary point on the display image on the ground coordinates. FIG. Represents the display coordinates that can be seen from the vehicle position after a predetermined time.
Further, as shown in FIGS. 5A and 5C, the display coordinates have the vanishing point of the video as the origin.
6 is a view of the ground and the camera as viewed from the side, and FIG. 7 is a view of the ground and the camera as viewed from above.
In FIG. 6, the ground 150 is ground coordinates, and the light receiving element 109B of the peripheral video camera 109A is display coordinates.

地面150からの光は、周辺映像撮影カメラ109Aのレンズ109Cを介して受光素子109Bに入射する。
レンズ109Cと受光素子109Bとの間は所定の間隔DSが設定されている。
受光素子109Bは、レンズ109Cの向きを示す線と垂直となるように配置されている。
地面150から周辺映像撮影カメラ109Aのレンズ109Cの中央位置までの高さをhとし、レンズ109Cの中央位置を通り受光素子109Bと垂直に交わる線と地面150との角度をθとする。
Light from the ground 150 enters the light receiving element 109B via the lens 109C of the peripheral video camera 109A.
A predetermined distance DS is set between the lens 109C and the light receiving element 109B.
The light receiving element 109B is disposed so as to be perpendicular to a line indicating the direction of the lens 109C.
The height from the ground 150 to the central position of the lens 109C of the peripheral video camera 109A is h, and the angle between a line passing through the central position of the lens 109C and perpendicular to the light receiving element 109B and the ground 150 is θ.

地面座標上の任意の点Yとレンズ109Cの中央位置を通る線と、レンズ109Cの中央位置を通り受光素子109Bと垂直に交わる線との角度をωとする。
レンズ109Cの中心を通りレンズの向きと垂直に交わる線と地面150とが交わる点Cから地面座標の原点との間を距離cとする。
レンズ109Cの中心を通り地面座標と平行な線と表示座標とが交わる点が、表示座標のy軸方向の原点となる。
地面座標上の点Yからの光は、レンズ109Cを通過して表示座標上に点yとして照射される。
また図7において、地面座標上の点Xからの光は、レンズ109Cを通過して表示座標上に点xとして照射される。
地面座標のX軸方向の原点と表示座標のx軸方向の原点は同じ位置にあるものとする。
なお、角度θ、高さh、間隔DS、距離cは、周辺映像撮影カメラ109Aの取り付け位置、方向等によって定まる値である。
An angle between an arbitrary point Y on the ground coordinate and a line passing through the center position of the lens 109C and a line passing through the center position of the lens 109C and perpendicular to the light receiving element 109B is represented by ω.
A distance c is defined between a point C where a line passing through the center of the lens 109C and perpendicular to the direction of the lens intersects the ground 150 and the ground coordinate origin.
The point where the display coordinate and the line passing through the center of the lens 109C and parallel to the ground coordinate intersect is the origin of the display coordinate in the y-axis direction.
The light from the point Y on the ground coordinates passes through the lens 109C and is irradiated as the point y on the display coordinates.
In FIG. 7, the light from the point X on the ground coordinates passes through the lens 109C and is irradiated as the point x on the display coordinates.
It is assumed that the origin of the ground coordinates in the X-axis direction and the origin of the display coordinates in the x-axis direction are at the same position.
Note that the angle θ, the height h, the interval DS, and the distance c are values determined by the attachment position, direction, and the like of the peripheral video camera 109A.

座標変換式格納部208に格納されている座標変換式の算出手順について説明する。
図6に示すように、地面座標上のY方向に関して、表示座標上の任意の点yは、
y=−DS・tanθ−DStanω=−DS(tanθ+tanω)
となる。
また、地面座標上の任意の点は、
Y=[h/sin(θ+ω)]・(cosω/sinθ)+c
となる。整理すると、
Y=[h/(tanθ+tanω)]・(1/cos2θ)+c
を満たす。
A procedure for calculating the coordinate transformation formula stored in the coordinate transformation formula storage unit 208 will be described.
As shown in FIG. 6, with respect to the Y direction on the ground coordinates, an arbitrary point y on the display coordinates is
y = −DS · tan θ−DS tan ω = −DS (tan θ + tan ω)
It becomes.
Also, any point on the ground coordinates is
Y = [h / sin (θ + ω)] · (cos ω / sin θ) + c
It becomes. Organize
Y = [h / (tan θ + tan ω)] · (1 / cos 2θ) + c
Meet.

したがって、
Y=(−h・DS/cos2θ)・(1/y)+c
が成り立つ。ここで、
b=h・DS/cos2θ
とおけば、
Y=(−b/y)+c (1)
が成り立つ。
Therefore,
Y = (− h · DS / cos 2θ) · (1 / y) + c
Holds. here,
b = h · DS / cos 2θ
If you
Y = (− b / y) + c (1)
Holds.

また図7に示すように、地面座標上のX方向に関して、表示座標上の任意の点xは、
X/[(Y−c)・cosθ]=x/DS
となる。整理すると、
X=(cosθ/DS)・x・(Y−c)
となり、上記の式(1)を用いて変換すると、
X=(cosθ・DS)・x・(−b/y)
X=−b・(cosθ/DS)・(x/y)
となる。
Further, as shown in FIG. 7, with respect to the X direction on the ground coordinates, an arbitrary point x on the display coordinates is
X / [(Yc) · cos θ] = x / DS
It becomes. Organize
X = (cos θ / DS) · x · (Y−c)
And when converted using the above equation (1),
X = (cos θ · DS) · x · (−b / y)
X = −b · (cos θ / DS) · (x / y)
It becomes.

ここで、
a=b・(cosθ/DS)
とおけば、
X=−a・(x/y) (2)
が成り立つ。
したがって、式(1)、(2)を用いることにより、図5の(a)に示す表示座標を、図5の(b)に示す地面座標に変換することができる。
here,
a = b · (cos θ / DS)
If you
X = −a · (x / y) (2)
Holds.
Therefore, the display coordinates shown in FIG. 5A can be converted into the ground coordinates shown in FIG. 5B by using the equations (1) and (2).

例えば図5の(a)に示す表示座標中の点zは、座標変換を行うことにより図5の(b)に示す地面座標中の点Zとなる。
ここで地面座標上において、車速と舵角から算出したt秒後の自車両の位置を(Xt,Yt)とする。
自車両が地点(Xt,Yt)に移動したときの表示座標を(x’,y’)とすると、式(1)、(2)を用いて、
Y−Yt=(−b/y’)+c
X−Xt=−a・(x’,y’)
と表すことができる
For example, a point z in the display coordinates shown in FIG. 5A becomes a point Z in the ground coordinates shown in FIG. 5B by performing coordinate conversion.
Here, on the ground coordinates, the position of the host vehicle after t seconds calculated from the vehicle speed and the steering angle is defined as (Xt, Yt).
When the display coordinates when the host vehicle moves to the point (Xt, Yt) is (x ′, y ′), using the equations (1) and (2),
Y−Yt = (− b / y ′) + c
X−Xt = −a · (x ′, y ′)
It can be expressed as

さらに式(1)、(2)を代入して整理すると、
b/y’=b/y+Yt (3)
x’/y’=x/y+Xt/a (4)
となる。
この式(3)、(4)が座標変換式格納部208に格納されている。
Furthermore, when formulas (1) and (2) are substituted and arranged,
b / y ′ = b / y + Yt (3)
x ′ / y ′ = x / y + Xt / a (4)
It becomes.
Expressions (3) and (4) are stored in the coordinate conversion expression storage unit 208.

映像変換部209は、車速&舵角センサ106によって検出された車速や舵角に基づいて、地面座標上における所定時間後の自車両の位置(Xt,Yt)を算出し、座標変換式格納部208に格納された式(3)、(4)を用いて演算を行うことにより、表示座標で表された所定時間後の自車両の前景を得ることができる。
なおこの演算時には、式(3)、式(4)の各定数a、b、cに具体的な数値(視点や表示範囲等に対応する値)を代入して、x’、y’を求める。
これにより、例えば図5の(b)に示す地面座標上において、車速と舵角から算出したt秒後の自車両の位置が点Z(Xt,Yt)であった場合、式(3)、(4)を用いて座標変換を行うことにより、図5の(c)に示すように自車両が点Zにいるときに見える前景となるように映像変換することができる。
The video conversion unit 209 calculates the position (Xt, Yt) of the host vehicle after a predetermined time on the ground coordinates based on the vehicle speed and the steering angle detected by the vehicle speed & steering angle sensor 106, and a coordinate conversion formula storage unit By performing calculations using equations (3) and (4) stored in 208, the foreground of the host vehicle after a predetermined time represented by the display coordinates can be obtained.
At this time, x ′ and y ′ are obtained by substituting specific numerical values (values corresponding to the viewpoint, display range, etc.) into the constants a, b, and c in the equations (3) and (4). .
Thus, for example, when the position of the host vehicle after t seconds calculated from the vehicle speed and the steering angle is the point Z (Xt, Yt) on the ground coordinates shown in FIG. By performing coordinate conversion using (4), it is possible to perform video conversion so that the foreground can be seen when the vehicle is at point Z as shown in FIG.

なお本実施例において、自車両位置検出部102が本発明における車両位置検出手段を構成し、経路探索部103および経路誘導部105が本発明における経路設定手段を構成する。また周辺映像撮影カメラ109Aが本発明におけるカメラを構成し、映像変換部209が本発明における領域作成手段を構成する。案内矢印映像作成部210が本発明における図形作成手段を構成し、ディスプレイ112が本発明における表示手段を構成する。   In this embodiment, the host vehicle position detection unit 102 constitutes a vehicle position detection unit in the present invention, and the route search unit 103 and the route guidance unit 105 constitute a route setting unit in the present invention. The peripheral video camera 109A constitutes the camera according to the present invention, and the video conversion unit 209 constitutes the area creating means according to the present invention. The guide arrow image creation unit 210 constitutes the figure creation means in the present invention, and the display 112 constitutes the display means in the present invention.

本実施例は以上のように構成され、周辺映像撮影カメラ109Aによって撮影された映像を座標変換式を用いて縦方向に圧縮または拡大、トリミングして、所定時間走行後の位置から見える映像に変換することによって、周辺映像撮影カメラ109Aの首振りや拡大縮小などの機構が不要となり、周辺映像撮影カメラ109Aの構造を簡素化することができる。
また、車速&舵角センサ106によって検出された車速や舵角に基づいて算出された座標変換式を用いて画像変換することにより、車速や舵角が変化しても、変化する車速や舵角に応じて現在から所定時間走行後に運転者が視認することが推定される道路映像を正確に得ることができる。
This embodiment is configured as described above, and the image captured by the peripheral image capturing camera 109A is compressed or enlarged and trimmed in the vertical direction using a coordinate conversion formula, and converted into an image that can be seen from a position after traveling for a predetermined time. This eliminates the need for a mechanism such as swinging and enlarging / reducing the peripheral video shooting camera 109A, and simplifies the structure of the peripheral video shooting camera 109A.
Further, by converting the image using a coordinate conversion formula calculated based on the vehicle speed and the steering angle detected by the vehicle speed & steering angle sensor 106, the vehicle speed and the steering angle that change even if the vehicle speed and the steering angle change. Accordingly, it is possible to accurately obtain a road image estimated to be visually recognized by the driver after traveling for a predetermined time from the present.

次に第3の実施例について説明する。
図8に、本実施例の全体構成を示す。
なお本実施例における経路案内装置200Aは、第2の実施例における座標変換式格納部208を変換テーブル格納部208Aに置き換えたものである。
車両の目的地情報を入力するための目的地入力部101と、自車両の現在位置を検出する自車両位置検出部102と、車両の車速と舵角を検出する車速&舵角センサ106と、車両前景を撮影する周辺映像撮影カメラ109Aと、映像を表示するディスプレイ112とが車載コンピュータ230Aに接続されて経路案内装置200Aが構成される。
Next, a third embodiment will be described.
FIG. 8 shows the overall configuration of this embodiment.
The route guidance apparatus 200A in this embodiment is obtained by replacing the coordinate conversion formula storage unit 208 in the second embodiment with a conversion table storage unit 208A.
A destination input unit 101 for inputting vehicle destination information, a host vehicle position detection unit 102 for detecting a current position of the host vehicle, a vehicle speed & steering angle sensor 106 for detecting a vehicle speed and a steering angle of the vehicle, A route guidance device 200A is configured by connecting a peripheral video camera 109A that captures the vehicle foreground and a display 112 that displays video to the in-vehicle computer 230A.

車載コンピュータ230Aは、経路探索部103、地図データベース104、経路誘導部105、変換テーブル格納部208A、映像変換部209、案内矢印映像作成部210、映像合成部211を備える。
変換テーブル格納部208Aは、複数の変換テーブルが格納されている。
映像変換部209は、車速&舵角センサ106によって検出された車速や舵角にもとづいて、変換テーブル格納部208Aに複数備えられた変換テーブルから最適な変換テーブルを選択し、該変換テーブルにもとづいて周辺映像撮影カメラ109Aによって撮影された映像の座標変換を行う。
The in-vehicle computer 230A includes a route search unit 103, a map database 104, a route guidance unit 105, a conversion table storage unit 208A, a video conversion unit 209, a guidance arrow video creation unit 210, and a video synthesis unit 211.
The conversion table storage unit 208A stores a plurality of conversion tables.
The video conversion unit 209 selects an optimal conversion table from a plurality of conversion tables provided in the conversion table storage unit 208A based on the vehicle speed and the steering angle detected by the vehicle speed & steering angle sensor 106, and based on the conversion table. Then, coordinate conversion of the video shot by the peripheral video shooting camera 109A is performed.

案内矢印映像作成部210は、変換テーブル格納部208Aに格納された変換テーブルに基づいて矢印映像の座標変換を行う。
映像合成部211は、案内矢印映像作成部210および映像変換部209より出力された座標変換後の映像および矢印映像を合成し、ディスプレイ112に出力する。
他の構成は、第2の実施例と同様であり、同一番号を付して説明を省略する。
The guide arrow image creation unit 210 performs coordinate conversion of the arrow image based on the conversion table stored in the conversion table storage unit 208A.
The video synthesis unit 211 synthesizes the coordinate-converted video and the arrow video output from the guide arrow video creation unit 210 and the video conversion unit 209 and outputs them to the display 112.
Other configurations are the same as those of the second embodiment, and the same numbers are given and the description thereof is omitted.

次に、変換テーブル格納部208Aに備えられた変換テーブルの詳細について説明する。
図9の(a)に、表示画面における座標変換前の画素の配置を示し、図9の(b)に、表示画面における座標変換後の画素の配置を表す。
変換テーブル格納部208Aは、あらかじめ座標変換式を計算して基映像(周辺映像撮影カメラ109Aによって撮影された映像)と変換映像の画素データ間の位置関係を変換テーブルとして複数記憶している。
映像変換部209は、車速&舵角センサ106によって検出された車速や舵角に基づいて変換テーブルを選択し、該選択された変換テーブルを用いてテーブルルックアップ法によって映像の変換を行う。
案内矢印映像作成部210も同様に、車速&舵角センサ106によって検出された車速や舵角に基づいて変換テーブルを選択し、該選択された変換テーブルを用いて矢印映像の映像変換を行う。
なお図9の(b)は、図9の(a)の枠W内の映像を拡大して表示したものである。
Next, details of the conversion table provided in the conversion table storage unit 208A will be described.
9A shows the arrangement of pixels before coordinate conversion on the display screen, and FIG. 9B shows the arrangement of pixels after coordinate conversion on the display screen.
The conversion table storage unit 208A stores a plurality of positional relationships between the base video (video captured by the peripheral video camera 109A) and pixel data of the converted video as a conversion table by calculating a coordinate conversion formula in advance.
The video conversion unit 209 selects a conversion table based on the vehicle speed and the steering angle detected by the vehicle speed & steering angle sensor 106, and performs video conversion by the table lookup method using the selected conversion table.
Similarly, the guidance arrow image creation unit 210 selects a conversion table based on the vehicle speed and the rudder angle detected by the vehicle speed & rudder angle sensor 106, and performs an image conversion of the arrow image using the selected conversion table.
Note that FIG. 9B is an enlarged view of the video in the frame W of FIG. 9A.

本実施例は以上のように構成され、変換テーブルを用いて周辺映像撮影カメラ109Aによって撮影された映像の表示位置や大きさの変換を行うことにより、映像変換時の車載コンピュータ230の演算量を削減することができ、処理の高速化を図ることができる。
また、車速&舵角センサ106によって検出された車速や舵角に基づいて変換テーブルを選択し、該選択された変換テーブルを用いて映像の変換を行うことにより、車速や舵角が変化しても、車載コンピュータ230の演算量を削減しながら、変化する車速や舵角に応じた先読み映像を正確に得ることができる。
The present embodiment is configured as described above, and the amount of calculation of the in-vehicle computer 230 at the time of video conversion is changed by converting the display position and size of the video shot by the peripheral video camera 109A using the conversion table. This can be reduced and the processing speed can be increased.
Further, by selecting a conversion table based on the vehicle speed and the steering angle detected by the vehicle speed & steering angle sensor 106 and converting the video using the selected conversion table, the vehicle speed and the steering angle change. In addition, it is possible to accurately obtain a prefetched video corresponding to the changing vehicle speed and steering angle while reducing the amount of computation of the in-vehicle computer 230.

次に、第4の実施例について説明する。
図10に、本実施例の全体構成を示す。
なお本実施例における経路案内装置400は、第2の実施例における車載コンピュータ230に、新たに音声通知装置306を接続し、車載コンピュータ230内の経路誘導部105の処理内容を変更した経路誘導部105Aを備えるものである。
車両の目的地情報を入力するための目的地入力部101と、自車両の現在位置を検出する自車両位置検出部102と、車両の車速と舵角を検出する車速&舵角センサ106と、車両前景を撮影する周辺映像撮影カメラ109Aと、映像を表示するディスプレイ112と、音声通知装置306とが車載コンピュータ330に接続されて経路案内装置400が構成される。
Next, a fourth embodiment will be described.
FIG. 10 shows the overall configuration of this embodiment.
The route guidance device 400 in the present embodiment is a route guidance unit in which the voice notification device 306 is newly connected to the in-vehicle computer 230 in the second example and the processing content of the route guidance unit 105 in the in-vehicle computer 230 is changed. 105A is provided.
A destination input unit 101 for inputting vehicle destination information, a host vehicle position detection unit 102 for detecting a current position of the host vehicle, a vehicle speed & steering angle sensor 106 for detecting a vehicle speed and a steering angle of the vehicle, A route guidance device 400 is configured by connecting a peripheral video photographing camera 109 </ b> A for photographing a vehicle foreground, a display 112 for displaying a video, and a voice notification device 306 to an in-vehicle computer 330.

車載コンピュータ330は、経路探索部103、地図データベース104、経路誘導部105A、座標変換式格納部208、映像変換部209、案内矢印映像作成部210、映像合成部211を備える。
経路誘導部105Aは、経路探索部103によって探索された経路と自車両位置検出部102によって検出された自車両位置とより、経路案内を行うポイント(交差点など)に近づいた(たとえば100m)と判断した場合、音声通知データを音声通知装置306へ送る。
経路誘導部105A以外の構成は、第2の実施例と同様であり、説明を省略する。
The in-vehicle computer 330 includes a route search unit 103, a map database 104, a route guidance unit 105A, a coordinate conversion formula storage unit 208, a video conversion unit 209, a guidance arrow video creation unit 210, and a video synthesis unit 211.
Based on the route searched by the route searching unit 103 and the own vehicle position detected by the own vehicle position detecting unit 102, the route guiding unit 105A determines that the route guidance point (intersection or the like) has approached (for example, 100 m). If so, the voice notification data is sent to the voice notification device 306.
The configuration other than the route guiding unit 105A is the same as that of the second embodiment, and a description thereof will be omitted.

音声通知装置306は、音声通知データを受信すると、音声によって運転者に通知を行う。
この音声通知データは、ディスプレイ112に先読み映像(現在から所定時間走行後に運転者が視認することが推定される道路映像)が表示されていることを通知するものである。
すなわち、経路案内が行われるため運転者がディスプレイ112の画面を視認する可能性が高い場合に、先読み映像が表示されている旨の通知を行う。
なお本実施例において、経路案内を行うポイント以外の場所を車両が走行している場合には、先読み映像や先読み映像ではない通常の映像のどちらを表示していてもよい。
When the voice notification device 306 receives the voice notification data, the voice notification device 306 notifies the driver by voice.
This voice notification data notifies the display 112 that a pre-reading video (a road video estimated to be visually recognized by the driver after traveling for a predetermined time from now) is displayed.
That is, when the route guidance is performed and the driver is highly likely to visually recognize the screen of the display 112, a notification that the pre-read video is displayed is given.
In this embodiment, when the vehicle is traveling in a place other than the point where the route guidance is performed, either the pre-read video or the normal video that is not the pre-read video may be displayed.

なお本実施例において、自車両位置検出部102が本発明における車両位置検出手段を構成し、経路探索部103および経路誘導部105Aが本発明における経路設定手段を構成する。また周辺映像撮影カメラ109Aが本発明におけるカメラを構成し、映像変換部209が本発明における領域作成手段を構成する。案内矢印映像作成部210が本発明における図形作成手段を構成し、ディスプレイ112が本発明における表示手段を構成する。さらに音声通知装置306が本発明における報知手段を構成する。   In the present embodiment, the host vehicle position detection unit 102 constitutes the vehicle position detection unit in the present invention, and the route search unit 103 and the route guidance unit 105A constitute the route setting unit in the present invention. The peripheral video camera 109A constitutes the camera according to the present invention, and the video conversion unit 209 constitutes the area creating means according to the present invention. The guide arrow image creation unit 210 constitutes the figure creation means in the present invention, and the display 112 constitutes the display means in the present invention. Furthermore, the voice notification device 306 constitutes notification means in the present invention.

本実施例は以上のように構成され、先読み映像を表示して経路案内を行うポイントに近づいたときに音声通知を行うものとしたので、運転者がディスプレイ112の画面を視認する可能性の高い場合に音声通知がされ、運転者はディスプレイ112に表示されている映像が先読み映像であることを認識することができ、運転者が前景を見ている状態からディスプレイ112を視認した場合でも運転者が感じる違和感を低減することができる。   Since the present embodiment is configured as described above and the voice notification is performed when the pre-read video is displayed and the route guidance point is approached, the driver is highly likely to visually recognize the screen of the display 112. The driver is able to recognize that the video displayed on the display 112 is a pre-read video, and even if the driver views the display 112 from the state of looking at the foreground, Can reduce the sense of incongruity.

次に、第5の実施例について説明する。
図11に、本実施例の全体構成を示す。
なお本実施例における経路案内装置500は、第4の実施例における車載コンピュータ330に、CG作成部411と市街地図データベース412とを追加したものである。
車両の目的地情報を入力するための目的地入力部101と、自車両の現在位置を検出する自車両位置検出部102と、車両の車速と舵角を検出する車速&舵角センサ106と、車両前景を撮影する周辺映像撮影カメラ109Aと、映像を表示するディスプレイ112と、音声通知装置306とが車載コンピュータ430に接続されて経路案内装置500が構成される。
Next, a fifth embodiment will be described.
FIG. 11 shows the overall configuration of this embodiment.
In addition, the route guidance apparatus 500 in a present Example adds the CG preparation part 411 and the city map database 412 to the vehicle-mounted computer 330 in a 4th Example.
A destination input unit 101 for inputting vehicle destination information, a host vehicle position detection unit 102 for detecting a current position of the host vehicle, a vehicle speed & steering angle sensor 106 for detecting a vehicle speed and a steering angle of the vehicle, A route guidance device 500 is configured by connecting a peripheral video photographing camera 109A for photographing a vehicle foreground, a display 112 for displaying a video, and a voice notification device 306 to an in-vehicle computer 430.

車載コンピュータ430は、経路探索部103Aと、地図データベース104、経路誘導部105A、案内矢印映像作成部210、映像合成部211A、座標変換式格納部208B、映像変換部209とを備え、さらにCG作成部411、市街地図データベース412とを備える。
経路探索部103Aは、目的地入力部101と自車両位置検出部102から入力されたデータと、地図データベース104内の地図データをもとに車両の走行経路を探索し、探索結果を経路誘導部105AおよびCG作成部411へ送る。
The in-vehicle computer 430 includes a route search unit 103A, a map database 104, a route guidance unit 105A, a guide arrow video creation unit 210, a video composition unit 211A, a coordinate conversion formula storage unit 208B, and a video conversion unit 209, and further creates a CG. A section 411 and a city map database 412.
The route search unit 103A searches for a travel route of the vehicle based on the data input from the destination input unit 101 and the own vehicle position detection unit 102 and the map data in the map database 104, and the search result is obtained as a route guidance unit. 105A and the CG creation unit 411.

CG作成部411は、車速&舵角センサ106によって検出された車速や舵角にもとづいて、座標変換式記憶部208Bに格納された座標変換式を用いて周辺映像撮影カメラ109Aによって撮影された映像を変換したときに、周辺映像撮影カメラ109Aによって撮影された範囲を超えてディスプレイ112に表示しなければならない領域があるかどうかを判断する。
具体的には、たとえば車両の舵角が最大限右方向となった場合には、ディスプレイ112に表示する範囲の右端部分が、周辺映像撮影カメラ109Aによって撮影された映像の右端を超えてしまい、ディスプレイ112に表示する範囲のうち右端部分が空白(周辺映像撮影カメラ109Aによって撮影された範囲を超えている部分)となる。
The CG creation unit 411 uses the coordinate conversion formula stored in the coordinate conversion formula storage unit 208B based on the vehicle speed and the steering angle detected by the vehicle speed & steering angle sensor 106, and the video shot by the peripheral video camera 109A. Is converted, it is determined whether or not there is an area that must be displayed on the display 112 beyond the range imaged by the peripheral video camera 109A.
Specifically, for example, when the rudder angle of the vehicle is rightward as much as possible, the right end portion of the range displayed on the display 112 exceeds the right end of the image captured by the peripheral image capturing camera 109A. The right end portion of the range displayed on the display 112 is blank (a portion exceeding the range photographed by the peripheral video photographing camera 109A).

CG作成部411は、市街地図データベース412に記憶されたデータをもとに、ディスプレイ112の表示範囲が周辺映像撮影カメラ109Aの撮影範囲を超えた空白部分のCG映像を作成し、映像合成部211Aへ送る。
市街地図データベース412には、建物の形状などのデータが備えられ、該データより建物を立体的に表示可能となっている。
Based on the data stored in the city map database 412, the CG creation unit 411 creates a blank CG video in which the display range of the display 112 exceeds the shooting range of the peripheral video shooting camera 109A, and the video synthesis unit 211A Send to.
The city map database 412 includes data such as the shape of a building, and the building can be displayed in three dimensions from the data.

映像合成部211Aは、案内矢印映像作成部210によって作成された矢印映像と、映像変換部209によって変換された周辺映像撮影カメラ109Aの映像と、CG作成部411によって作成されたCG映像とを合成する。
これにより、ディスプレイ112に表示すべき映像が周辺映像撮影カメラ109Aの撮影範囲を超えていたとしても、図12に示すように周辺映像撮影カメラ109Aの撮影範囲を超えた部分にCG作成部411で作成されたCG映像を合成することにより、ディスプレイ112に空白などが生じることがない。
なお図12中、領域FがCG作成部411によって作成されたCG映像である。
他の構成は、第4の実施例と同様であり、説明を省略する。
The video composition unit 211A synthesizes the arrow video created by the guide arrow video creation unit 210, the video of the peripheral video shooting camera 109A converted by the video conversion unit 209, and the CG video created by the CG creation unit 411. To do.
As a result, even if the video to be displayed on the display 112 exceeds the shooting range of the peripheral video camera 109A, the CG creation unit 411 creates a portion exceeding the shooting range of the peripheral video camera 109A as shown in FIG. By synthesizing the created CG video, no blank or the like is generated on the display 112.
In FIG. 12, a region F is a CG image created by the CG creation unit 411.
Other configurations are the same as those of the fourth embodiment, and a description thereof will be omitted.

なお本実施例において、自車両位置検出部102が本発明における車両位置検出手段を構成し、経路探索部103および経路誘導部105Aが本発明における経路設定手段を構成する。また周辺映像撮影カメラ109Aが本発明におけるカメラを構成し、映像変換部209が本発明における領域作成手段を構成する。案内矢印映像作成部210が本発明における図形作成手段を構成し、ディスプレイ112が本発明における表示手段を構成する。さらに音声通知装置306が本発明における報知手段を構成し、CG作成部411が本発明における映像作成手段を構成する。   In the present embodiment, the host vehicle position detection unit 102 constitutes the vehicle position detection unit in the present invention, and the route search unit 103 and the route guidance unit 105A constitute the route setting unit in the present invention. The peripheral video camera 109A constitutes the camera according to the present invention, and the video conversion unit 209 constitutes the area creating means according to the present invention. The guide arrow image creation unit 210 constitutes the figure creation means in the present invention, and the display 112 constitutes the display means in the present invention. Furthermore, the voice notification device 306 constitutes notification means in the present invention, and the CG creation unit 411 constitutes video creation means in the present invention.

本実施例は以上のように構成され、ディスプレイ112に先読み映像として表示する映像の範囲が、周辺映像撮影カメラ109Aによって撮影された範囲を超えている場合、周辺映像撮影カメラ109Aの撮影映像の不足部分をCG作成部411によって作成されたCG映像によって補うことにより、ディスプレイ112の表示画面に周辺映像撮影カメラ109Aの撮影範囲を超えたことによる空白部分ができてしまうことが防止され、常に先読み映像を表示することができる。   This embodiment is configured as described above, and when the range of the video displayed as the pre-read video on the display 112 exceeds the range shot by the peripheral video camera 109A, there is a shortage of the video shot by the peripheral video camera 109A. By supplementing the portion with the CG video created by the CG creation unit 411, it is possible to prevent a blank portion from being generated by exceeding the shooting range of the peripheral video shooting camera 109A on the display screen of the display 112, and always read ahead video. Can be displayed.

第1の実施例の全体構成を示す図である。It is a figure which shows the whole structure of a 1st Example. 周辺映像撮影カメラによる撮影範囲を示す図である。It is a figure which shows the imaging | photography range by a peripheral video imaging camera. 矢印映像を重ねた表示画像例を示す図である。It is a figure which shows the example of a display image which accumulated the arrow image | video. 第2の実施例の全体構成を示す図である。It is a figure which shows the whole structure of a 2nd Example. 地面座標と表示座標を示す図である。It is a figure which shows a ground coordinate and a display coordinate. 地面やカメラを側面から見た図である。It is the figure which looked at the ground and the camera from the side. 地面やカメラを上から見た図である。It is the figure which looked at the ground and the camera from the top. 第3の実施例の全体構成を示す図である。It is a figure which shows the whole structure of a 3rd Example. 変換テーブルを用いて変換した画素の配置を示す図である。It is a figure which shows arrangement | positioning of the pixel converted using the conversion table. 第4の実施例の全体構成を示す図である。It is a figure which shows the whole structure of a 4th Example. 第5の実施例の全体構成を示す図である。It is a figure which shows the whole structure of the 5th Example. CG映像を付加した表示画像例を示す図である。It is a figure which shows the example of a display image which added the CG image | video.

符号の説明Explanation of symbols

100、200、200A、400、500 経路案内装置
101 目的地入力部
102 自車両位置検出部
103、103A 経路探索部
104 地図データベース
105、105A 経路誘導部
106 車速&舵角センサ
107 首振り&拡大縮小量計算部
108 カメラ首振り&拡大縮小機構部
109、109A 周辺映像撮影カメラ
110、210 案内矢印映像作成部
111、211、211A 映像合成部
112 ディスプレイ
130、230、230A、330、430 車載コンピュータ
208、208B 座標変換式格納部
208A 変換テーブル格納部
209 映像変換部
306 音声通知装置
411 CG作成部
412 市街地図データベース
100, 200, 200A, 400, 500 Route guidance device 101 Destination input unit 102 Own vehicle position detection unit 103, 103A Route search unit 104 Map database 105, 105A Route guidance unit 106 Vehicle speed & rudder angle sensor 107 Swing & enlargement / reduction Quantity calculation unit 108 Camera swing & enlargement / reduction mechanism unit 109, 109A Peripheral image capturing camera 110, 210 Guide arrow image creation unit 111, 211, 211A Image composition unit 112 Display 130, 230, 230A, 330, 430 On-board computer 208, 208B Coordinate conversion expression storage unit 208A Conversion table storage unit 209 Video conversion unit 306 Audio notification device 411 CG creation unit 412 City map database

Claims (11)

車両の現在位置を検出する車両位置検出手段と、
地図情報を記憶する地図データベースと、
車両の現在位置から目的地までの経路を前記地図データベースにもとづいて設定し、経路案内を行う経路案内ポイントを設定する経路設定手段と、
車両周辺画像を撮像するカメラと、
該カメラが現在時刻よりも所定時間後に撮像する領域を推定し、前記カメラによって撮像された画像より所定時間後の撮像画像を作成する領域作成手段と、
前記経路設定手段によって設定された経路と、前記領域作成手段によって作成された所定時間後の撮像画像とにもとづいて、前記経路案内ポイントにおいて経路案内を行うための経路案内図形を作成する図形作成手段と、
前記所定時間経過後の撮像画像と、前記経路案内図形を重畳させて表示する表示手段と、を有することを特徴とする経路案内装置。
Vehicle position detection means for detecting the current position of the vehicle;
A map database for storing map information;
A route setting means for setting a route from the current position of the vehicle to the destination based on the map database and setting a route guidance point for performing route guidance;
A camera that captures images around the vehicle;
An area creating means for estimating an area captured by the camera after a predetermined time from the current time, and creating a captured image after a predetermined time from the image captured by the camera;
Based on the route set by the route setting unit and the captured image after a predetermined time created by the region creating unit, a graphic creating unit for creating a route guidance figure for performing route guidance at the route guidance point When,
A route guidance apparatus comprising: a captured image after the predetermined time has elapsed; and display means for displaying the route guidance graphic in a superimposed manner.
前記表示手段に表示されている画像が所定時間経過後の画像であることを車両の乗員に報知する報知手段を備え、
前記経路設定手段は、車両が経路案内ポイントに所定距離まで近づくと前記報知手段に対して報知を行う旨の指示を出し、前記報知手段が報知を行うことを特徴とする請求項1に記載の経路案内装置。
Informing means for informing the vehicle occupant that the image displayed on the display means is an image after a predetermined time has elapsed,
The said route setting means gives the instruction | indication to alert | report to the said alerting | reporting means when a vehicle approaches a route guidance point to a predetermined distance, The said alerting | reporting means alert | reports, The said alerting | reporting means performs the alerting | reporting. Route guidance device.
前記カメラの撮影範囲を移動および拡大縮小する駆動部とを備え、
前記領域作成手段は、前記駆動部を制御して前記カメラの撮影範囲を移動および拡大縮小させて前記所定時間後の撮像画像を作成することを特徴とする請求項1または2に記載の経路案内装置。
A drive unit for moving and enlarging / reducing the shooting range of the camera,
3. The route guidance according to claim 1, wherein the area creating unit creates the captured image after the predetermined time by moving and enlarging / reducing the shooting range of the camera by controlling the driving unit. apparatus.
車両の速度を検出する車速センサと、
舵角を検出する舵角センサとを備え、
前記領域作成手段は、前記車両の速度および舵角にもとづいて前記駆動部を制御して、前記カメラの撮影範囲の移動および拡大縮小を行うことによって前記所定時間後の撮像画像を作成することを特徴とする請求項3に記載の経路案内装置。
A vehicle speed sensor for detecting the speed of the vehicle;
A rudder angle sensor for detecting the rudder angle,
The region creating means creates the captured image after the predetermined time by controlling the drive unit based on the speed and steering angle of the vehicle and moving and enlarging / reducing the photographing range of the camera. The route guidance device according to claim 3, wherein
前記領域作成手段は、前記カメラによって撮像された画像を切り取り、縦方向に圧縮または拡大することによって、前記所定時間後の撮像画像を作成することを特徴とする請求項1または2に記載の経路案内装置。 3. The path according to claim 1, wherein the area creating unit creates a captured image after the predetermined time by cutting out an image captured by the camera and compressing or expanding the image in the vertical direction. Guide device. 前記領域作成手段は、前記カメラによって撮像された画像を座標変換式を用いて画像変換することによって、前記所定時間後の撮像画像を作成することを特徴とする請求項5に記載の経路案内装置。 6. The route guidance device according to claim 5, wherein the area creating unit creates a captured image after the predetermined time by converting an image captured by the camera using a coordinate conversion formula. . 車両の速度を検出する車速センサと、
舵角を検出する舵角センサとを備え、
前記領域作成手段は、前記車両の速度および舵角にもとづいて前記所定時間後の撮像画像を作成することを特徴とする請求項5または6に記載の経路案内装置。
A vehicle speed sensor for detecting the speed of the vehicle;
A rudder angle sensor for detecting the rudder angle,
The route guidance device according to claim 5 or 6, wherein the area creation means creates a captured image after the predetermined time based on a speed and a steering angle of the vehicle.
前記領域作成手段は、あらかじめ座標変換式によってカメラの撮像画像と画像変換後の画素データ間の位置関係を求めたテーブルを用いて、前記所定時間後の撮像画像を作成することを特徴とする請求項1または2に記載の経路案内装置。 The area creating means creates a captured image after the predetermined time using a table in which a positional relationship between a captured image of a camera and pixel data after image conversion is obtained in advance by a coordinate conversion formula. Item 3. The route guidance device according to Item 1 or 2. 前記車両の速度を検出する車速センサと、
舵角を検出する舵角センサとを備え、
前記領域作成手段は、前記車両の速度および舵角にもとづいて複数の前記テーブルから1つを選択し、該選択したテーブルを用いて前記所定時間後の撮像画像を作成することを特徴とする請求項8に記載の経路案内装置。
A vehicle speed sensor for detecting the speed of the vehicle;
A rudder angle sensor for detecting the rudder angle,
The region creating means selects one from a plurality of the tables based on the speed and steering angle of the vehicle, and creates a captured image after the predetermined time using the selected table. Item 9. The route guidance device according to Item 8.
コンピュータグラフィックによって風景画像を作成する映像作成手段を備え、
前記領域作成手段は、前記所定時間後の撮像画像として作成する画像が、前記カメラによって撮影された範囲を超えた部分を含んでいる場合、該カメラによって撮影された範囲を超えた部分を、前記映像作成手段によって作成された画像で補うことによって、前記所定時間後の撮像画像を作成することを特徴とする請求項1〜9のいずれか1に記載の経路案内装置。
Provided with video creation means for creating landscape images with computer graphics,
When the image created as the captured image after the predetermined time includes a portion that exceeds the range photographed by the camera, the region creating means includes a portion exceeding the range photographed by the camera. The route guidance device according to any one of claims 1 to 9, wherein a captured image after the predetermined time is created by supplementing with an image created by a video creation unit.
車両位置と地図データベースとにもとづいて車両の現在位置から目的地までの経路を設定し、該経路上において経路案内を行う経路案内ポイントを設定し、車両周辺画像を撮像するカメラが現在時刻よりも所定時間後に撮像する領域を推定し、前記カメラによって撮像された画像より所定時間後の撮像画像を作成し、該所定時間後の画像と、前記現在位置から目的地までの経路とにもとづいて、前記経路案内ポイントにおいて経路案内を行うための経路案内図形を作成し、前記所定時間経過後の撮像画像と、前記経路案内図形とを重畳させて表示することを特徴とする経路案内方法。 A route from the current position of the vehicle to the destination is set based on the vehicle position and the map database, a route guidance point for performing route guidance is set on the route, and a camera that captures a vehicle peripheral image is more than the current time. Estimate the area to be imaged after a predetermined time, create a captured image after a predetermined time from the image captured by the camera, based on the image after the predetermined time and the route from the current position to the destination, A route guidance method for creating a route guidance figure for performing route guidance at the route guidance point, and displaying the captured image after the predetermined time has been superimposed with the route guidance figure.
JP2006335358A 2006-12-13 2006-12-13 Route guiding device Pending JP2008145364A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006335358A JP2008145364A (en) 2006-12-13 2006-12-13 Route guiding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006335358A JP2008145364A (en) 2006-12-13 2006-12-13 Route guiding device

Publications (1)

Publication Number Publication Date
JP2008145364A true JP2008145364A (en) 2008-06-26

Family

ID=39605693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006335358A Pending JP2008145364A (en) 2006-12-13 2006-12-13 Route guiding device

Country Status (1)

Country Link
JP (1) JP2008145364A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011169651A (en) * 2010-02-16 2011-09-01 J&K Car Electronics Corp Information processing apparatus, navigation device, navigation system, navigation method, and navigation program
CN102338639A (en) * 2010-07-26 2012-02-01 联想(北京)有限公司 Information processing device and information processing method
WO2012086053A1 (en) * 2010-12-24 2012-06-28 パイオニア株式会社 Image adjustment device, control method, program, and storage medium
KR101191040B1 (en) 2010-11-24 2012-10-15 주식회사 엠씨넥스 Road displaying apparatus for a car
JP2013130505A (en) * 2011-12-22 2013-07-04 Aisin Aw Co Ltd Lane guide display system, method and program
US20130321629A1 (en) * 2012-05-31 2013-12-05 GM Global Technology Operations LLC Dynamic guideline overlay with image cropping
JP2016038349A (en) * 2014-08-11 2016-03-22 株式会社ゼンリンデータコム Route guide device, route guide method, and route guide program
JP7314834B2 (en) 2020-02-27 2023-07-26 株式会社デンソー Video information output device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011169651A (en) * 2010-02-16 2011-09-01 J&K Car Electronics Corp Information processing apparatus, navigation device, navigation system, navigation method, and navigation program
CN102338639A (en) * 2010-07-26 2012-02-01 联想(北京)有限公司 Information processing device and information processing method
CN102338639B (en) * 2010-07-26 2015-04-22 联想(北京)有限公司 Information processing device and information processing method
KR101191040B1 (en) 2010-11-24 2012-10-15 주식회사 엠씨넥스 Road displaying apparatus for a car
WO2012086053A1 (en) * 2010-12-24 2012-06-28 パイオニア株式会社 Image adjustment device, control method, program, and storage medium
JPWO2012086053A1 (en) * 2010-12-24 2014-05-22 パイオニア株式会社 Image adjustment apparatus, control method, program, and storage medium
JP5517176B2 (en) * 2010-12-24 2014-06-11 パイオニア株式会社 Image adjustment apparatus, control method, program, and storage medium
JP2013130505A (en) * 2011-12-22 2013-07-04 Aisin Aw Co Ltd Lane guide display system, method and program
US20130321629A1 (en) * 2012-05-31 2013-12-05 GM Global Technology Operations LLC Dynamic guideline overlay with image cropping
US9738223B2 (en) * 2012-05-31 2017-08-22 GM Global Technology Operations LLC Dynamic guideline overlay with image cropping
JP2016038349A (en) * 2014-08-11 2016-03-22 株式会社ゼンリンデータコム Route guide device, route guide method, and route guide program
JP7314834B2 (en) 2020-02-27 2023-07-26 株式会社デンソー Video information output device

Similar Documents

Publication Publication Date Title
US8036823B2 (en) Navigation system
JP4895313B2 (en) Navigation apparatus and method
JP2007094045A (en) Navigation apparatus, navigation method and vehicle
US11511627B2 (en) Display device and computer program
US8880344B2 (en) Method for displaying images on a display device and driver assistance system
US7680570B2 (en) Parking assist devices, methods, and programs
JP5681569B2 (en) Information processing system, server device, and in-vehicle device
JP2008145364A (en) Route guiding device
WO2013002037A1 (en) Parking assistance device
JP2009020089A (en) System, method, and program for navigation
JP2008280026A (en) Driving assistance device
JP2013154730A (en) Apparatus and method for processing image, and parking support system
JP2008181330A (en) Image processor and image processing method
WO2015128959A1 (en) Navigation system, image server, mobile terminal, navigation assistance method, and navigation assistance program
JPH09304101A (en) Navigator
JP2010154304A (en) Mobile camera system and driving method
JP2005038225A (en) Lane follow-up device
JP2009067292A (en) In-vehicle camera system
JP2008213647A (en) Parking assist method and parking assist system
JP2009250714A (en) Road guidance display device and road guidance display method
JP2009100261A (en) Vehicle surrounding image supplying device, and method of correcting wide-angle image
JP2007292545A (en) Apparatus and method for route guidance
JP2008002965A (en) Navigation device and method therefor
JP4958005B2 (en) In-vehicle display device
JP6953088B2 (en) Electronic devices and parking assistance methods

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Effective date: 20080912

Free format text: JAPANESE INTERMEDIATE CODE: A7424