JP2002062148A - On vehicle navigation system - Google Patents

On vehicle navigation system

Info

Publication number
JP2002062148A
JP2002062148A JP2000252848A JP2000252848A JP2002062148A JP 2002062148 A JP2002062148 A JP 2002062148A JP 2000252848 A JP2000252848 A JP 2000252848A JP 2000252848 A JP2000252848 A JP 2000252848A JP 2002062148 A JP2002062148 A JP 2002062148A
Authority
JP
Japan
Prior art keywords
vehicle
image
navigation device
vehicle navigation
presentation method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000252848A
Other languages
Japanese (ja)
Inventor
Akihiro Morimoto
明宏 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2000252848A priority Critical patent/JP2002062148A/en
Publication of JP2002062148A publication Critical patent/JP2002062148A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To support operation at an intersection of low visibility. SOLUTION: An object position calculating means 106 calculates the position, moving speed and moving direction of an object based on stereo videos from image pickup means 104 and 105 and inputs them to a control mean 107. The control mean 107 generates the video of navigation by reading out a map in the vicinity of its own vehicle calculated by a position calculating means 101 and delivers the navigation video to a video synthesizing means 109. When presence of the object is detected, the navigation video is emphasized. A display means 110 displays the left and right forward videos of its own vehicle along with the navigation video or displays the navigation video while emphasizing when presence of the object is detected.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、自車の現在位置お
よび進行方向等を表示する機能と、運転を支援する機能
とを備えた車載用ナビゲーション装置の改良に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an improvement of an on-vehicle navigation device having a function of displaying a current position and a traveling direction of a vehicle and a function of supporting driving.

【0002】[0002]

【従来の技術】従来、ナビゲーション装置ではモニタに
より自車の現在地の地図表示を行っている。またナビゲ
ーション装置のモニタを利用して運転支援、すなわち、
見通しの悪い交差点で手動でカメラの映像をモニタに表
示したり、駐車を支援するものとして、車の後方の映像
をモニタに表示することが行われている。
2. Description of the Related Art Conventionally, a navigation device displays a map of a current position of a vehicle on a monitor. Driving assistance using the monitor of the navigation device, that is,
2. Description of the Related Art Manually displaying an image of a camera on a monitor at an intersection with poor visibility or displaying an image of the rear of a car on a monitor has been performed to assist parking.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
ナビゲーション装置では、見通しの悪い交差点で自車が
他の物体(他の車両、歩行者)と衝突するか否かの判断
を全て運転者が行わなければならないという問題があっ
た。
However, in the conventional navigation system, the driver makes all the judgments as to whether or not the vehicle collides with another object (another vehicle or a pedestrian) at an intersection with poor visibility. There was a problem that had to be.

【0004】また従来のナビゲーション装置では手動で
ナビゲーション機能と運転支援機能とを切り替えてい
る。
Further, in the conventional navigation device, the navigation function and the driving support function are manually switched.

【0005】本発明は上記従来の問題を解決するもの
で、見通しの悪い交差点での運転支援を行う優れた車載
用ナビゲーション装置を提供することを目的とする。
An object of the present invention is to solve the above-mentioned conventional problems, and an object of the present invention is to provide an excellent in-vehicle navigation device for assisting driving at an intersection with poor visibility.

【0006】また本発明はナビゲーション機能と運転支
援機能を自動的に切り替える優れた車載用ナビゲーショ
ン装置を提供することを目的とする。
Another object of the present invention is to provide an excellent in-vehicle navigation device for automatically switching between a navigation function and a driving support function.

【0007】[0007]

【課題を解決するための手段】本発明の車載用ナビゲー
ション装置は、自車の位置を算出する位置算出手段と、
地図情報を格納する地図情報格納手段と、物体位置を算
出する物体位置算出手段と、自車の付近の映像を取り込
む撮像手段と、前記位置算出手段の出力および前記地図
情報格納手段の出力および前記物体位置算出手段の出力
をもとにナビゲーションの映像を生成して出力する制御
手段と、前記撮像手段が取り込んだ映像と前記ナビゲー
ションの映像の提示方法を決定する提示方法決定手段
と、前記提示方法決定手段が決定した提示方法で複数の
映像を合成する映像合成手段とを有することを特徴とす
る。この構成により、見通しの悪い交差点での運転支援
を行うことができると共に、ナビゲーション機能と運転
支援機能とを自動的に切り替えることができる。
According to the present invention, there is provided an on-vehicle navigation device comprising: a position calculating means for calculating a position of a vehicle;
Map information storage means for storing map information; object position calculation means for calculating an object position; imaging means for capturing an image of the vicinity of the vehicle; output of the position calculation means and output of the map information storage means; Control means for generating and outputting a navigation image based on the output of the object position calculation means, presentation method determining means for determining a method of presenting the image captured by the imaging means and the navigation image, and the presentation method Video synthesizing means for synthesizing a plurality of videos by the presentation method determined by the determining means. With this configuration, it is possible to perform driving support at an intersection with poor visibility and automatically switch between the navigation function and the driving support function.

【0008】[0008]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0009】(第1の実施の形態)図1は、本発明の第
1の実施の形態における車載用ナビゲーション装置の構
成を示すブロック図である。この車載用ナビゲーション
装置は、GPS等により自車の現在位置を算出する位置
算出手段101と、地図情報を格納する地図情報格納手段1
02と、リモコン等の操作手段103と、CCDカメラなど
の撮像手段104および105と、複数の撮像手段104および1
05からのステレオ映像により物体の位置や移動速度およ
び移動方向を算出する物体位置算出手段106と、地図情
報格納手段102から自車位置付近の地図を読み出してナ
ビゲーションの映像を出力すると共に、物体位置算出手
段106で算出された物体の位置と操作手段103から入力さ
れた指令とをもとにナビゲーションの映像を加工する制
御手段107と、操作手段103からの入力に従って提示方法
を決定する提示方法決定手段108と、提示方法決定手段1
08の決定された合成方法で複数の映像を合成する映像合
成手段109と、映像合成手段109で合成された映像を表示
する表示手段110とを有する。
(First Embodiment) FIG. 1 is a block diagram showing a configuration of a vehicle-mounted navigation device according to a first embodiment of the present invention. This in-vehicle navigation device includes a position calculating unit 101 that calculates the current position of the vehicle using a GPS or the like, and a map information storing unit 1 that stores map information.
02, operation means 103 such as a remote controller, imaging means 104 and 105 such as a CCD camera, and a plurality of imaging means 104 and 1
Object position calculating means 106 for calculating the position, moving speed and moving direction of the object from the stereo image from 05, a map near the own vehicle position is read from the map information storing means 102, and a navigation image is output, A control unit 107 for processing a navigation image based on the position of the object calculated by the calculation unit 106 and a command input from the operation unit 103; and a presentation method determination for determining a presentation method according to an input from the operation unit 103 Means 108 and presentation method determining means 1
The video synthesizing unit 109 includes a video synthesizing unit 109 for synthesizing a plurality of videos by the determined synthesizing method, and a display unit 110 for displaying the video synthesized by the video synthesizing unit 109.

【0010】以上のように構成された車載用ナビゲーシ
ョン装置の動作について図2乃至図5を用いて説明す
る。
The operation of the navigation device having the above-described structure will be described with reference to FIGS.

【0011】位置算出手段101で算出された自車位置は
制御手段107に入力される。また撮像手段104および105
により取得された自車付近の映像は物体位置算出手段10
6に入力されると共に、映像合成手段109に入力される。
物体位置算出手段106は、撮像手段104および105からの
ステレオ映像により物体の位置や移動速度および移動方
向を算出して制御手段107に入力する。制御手段107は、
位置算出手段101で算出された自車位置付近の地図を地
図情報格納手段102から読み出してナビゲーションの映
像を生成し、映像合成手段109へ出力する。また後述す
るように、物体位置算出手段106で算出された位置によ
りナビゲーションの映像の表示状態を変化させる。
The vehicle position calculated by the position calculating means 101 is input to the control means 107. Also, the imaging means 104 and 105
The image near the own vehicle acquired by the object position calculating means 10
6 and to the video synthesizing means 109.
The object position calculating means 106 calculates the position, the moving speed, and the moving direction of the object based on the stereo images from the imaging means 104 and 105, and inputs them to the control means 107. The control means 107
The map near the vehicle position calculated by the position calculation means 101 is read from the map information storage means 102 to generate a navigation image, and output to the image synthesis means 109. Further, as described later, the display state of the navigation image is changed according to the position calculated by the object position calculation unit 106.

【0012】操作手段103によって、撮像手段104の映像
と、撮像手段105の映像と、ナビゲーションの映像のい
ずれを表示するか提示方法決定手段108に指示する。映
像合成手段109は提示方法決定手段108の決定に従って映
像を合成し、表示手段110ヘ出力する。
The operating means 103 instructs the presentation method determining means 108 which of the video of the imaging means 104, the video of the imaging means 105, and the video of navigation is to be displayed. The video synthesizing unit 109 synthesizes the video according to the determination of the presentation method determining unit 108, and outputs the synthesized video to the display unit 110.

【0013】図2は、見通しの悪い交差点を上方から見
た図である。この図において矢印は自車と物体の移動方
向を示している。撮像手段104および105が例えば図2の
様に自車の左前方と右前方に設置されているものとす
る。
FIG. 2 is a view of an intersection with poor visibility seen from above. In this figure, arrows indicate the moving directions of the vehicle and the object. It is assumed that the imaging means 104 and 105 are installed, for example, as shown in FIG.

【0014】図3は、提示方法決定手段108が、映像合
成手段109に対して、ナビゲーションの映像と撮像手段1
04および105で取得した自車左前方および右前方の映像
を合成することを指示し、合成映像を表示手段110で表
示した場合を示している。
FIG. 3 shows that the presentation method determining means 108 sends the navigation image and the imaging means 1 to the image synthesizing means 109.
This shows a case where an instruction is given to combine the images of the left front and right front of the vehicle acquired at 04 and 105, and the combined image is displayed on the display means 110.

【0015】図4は、物体位置算出手段106で算出され
た位置によりナビゲーションの映像の表示方法を変化さ
せる処理の一例であり、図5はその画面表示である。
FIG. 4 shows an example of a process for changing the display method of the navigation image according to the position calculated by the object position calculating means 106, and FIG. 5 shows the screen display.

【0016】通常はナビゲーションの映像を表示してい
るものとする。図4において、フローの開始に伴い、ま
ずステップ(図ではSt. と表記されている。以下同
じ)101において物体位置算出手段106より物体の位置情
報を取得する。ステップ101で物体の位置が算出された
場合、すなわち撮像手段104および105の視野内に物体が
存在し、その位置が算出された場合、ステップ102に進
む。ステップ102では、画面の点滅や色を変える等の強
調表示を行って運転手に注意を促す。
Normally, it is assumed that a navigation image is displayed. In FIG. 4, at the start of the flow, first, in step (denoted by St. in the figure, the same applies hereinafter) 101, the object position information is acquired from the object position calculating means 106. If the position of the object is calculated in step 101, that is, if the object exists in the field of view of the imaging means 104 and 105 and the position is calculated, the process proceeds to step 102. In step 102, the driver is alerted by highlighting such as blinking or changing the color of the screen.

【0017】図5は、画面を点滅表示している場合の例
である。この図において、矢印は時間の経過を示してい
る。つまり、上段に図示されている高輝度の画面の次に
中段に図示されている低輝度が画面が表示され、その次
に下段に図示されている高輝度の画面が表示される。
FIG. 5 shows an example in which the screen is blinking. In this figure, the arrows indicate the passage of time. In other words, a screen with low luminance shown in the middle is displayed next to the screen with high luminance shown in the upper part, and a screen with high luminance shown in the lower part is displayed next.

【0018】以上のように、本発明の第1の実施の形態
によれば、撮像手段104および105により、自車左前方お
よび右前方の映像を取得してそれらの映像をナビゲーシ
ョン映像と共に表示したり、前記映像をもとに物体の存
在が検知された場合にナビゲーション映像を強調表示し
たりすることで、見通しの悪い交差点での運転支援を行
うことができる。
As described above, according to the first embodiment of the present invention, the images of the left front and the right front of the own vehicle are acquired by the imaging means 104 and 105, and these images are displayed together with the navigation image. In addition, when the presence of an object is detected based on the image, the navigation image is highlighted, so that driving assistance at an intersection with poor visibility can be performed.

【0019】なお、ナビゲーションの映像と左前方およ
び右前方の映像を合成して表示する例を示したが、左前
方の映像と右前方の映像だけを合成して表示しても構わ
ない。また左前方の映像だけ、もしくは右前方の映像だ
けを表示しても構わない。さらにナビゲーションの映像
と左前方の映像、もしくはナビゲーションの映像と右前
方の映像を表示しても構わない。
Although the example in which the navigation image and the left front and right front images are combined and displayed has been described, only the left front image and the right front image may be combined and displayed. Alternatively, only the left front image or the right front image may be displayed. Further, a navigation image and a left front image or a navigation image and a right front image may be displayed.

【0020】また、物体位置算出手段は、複数の撮像手
段からのステレオ映像で物体の位置や移動速度および移
動方向を算出したが、レーダーで算出しても構わない。
そして撮像手段は左前方と右前方に設置されている例を
示したが、これ以外に左後方、右後方等複数台の撮像手
段を設置しても構わない。
The object position calculating means calculates the position, the moving speed and the moving direction of the object on the basis of the stereo images from the plurality of image pickup means.
Although the example in which the imaging units are installed on the left front and the right front is shown, a plurality of imaging units such as the left rear and the right rear may be installed.

【0021】(第2の実施の形態)本発明の第2の実施
の形態では、自車位置から一定の距離内に物体が存在す
る場合にナビゲーション映像の強調表示を行うことで運
転者に注意を促すように構成した。
(Second Embodiment) In a second embodiment of the present invention, attention is given to the driver by highlighting the navigation image when an object is present within a certain distance from the own vehicle position. Was configured to prompt.

【0022】本発明の第2の実施の形態における車載用
ナビゲーション装置は制御手段107が実行する処理以外
は第1の実施の形態における車載用ナビゲーション装置
と同一である。
The on-vehicle navigation device according to the second embodiment of the present invention is the same as the on-vehicle navigation device according to the first embodiment except for the processing executed by the control means 107.

【0023】次に、本発明の第2の実施の形態における
車載用ナビゲーション装置の動作について図6のフロー
チャートでその動作を説明する。図6のフローチャート
において図4と同じ符号が付されたステップは図4のス
テップと同じ処理を実行する。
Next, the operation of the vehicle-mounted navigation device according to the second embodiment of the present invention will be described with reference to the flowchart of FIG. In the flowchart of FIG. 6, steps denoted by the same reference numerals as those in FIG. 4 execute the same processing as the steps in FIG.

【0024】通常はナビゲーションの映像を表示してい
るものとする。図6において、フローの開始に伴い、ま
ずステップ201において物体位置算出手段106より物体の
位置を取得する。ステップ201で物体の位置が自車位置
から一定以内の距離の場合、ステップ102に進む。ステ
ップ102では画面の点滅や色を変える等の強調表示を行
って運転手に注意を促す。
Normally, it is assumed that a navigation image is displayed. In FIG. 6, at the start of the flow, first, in step 201, the position of the object is obtained from the object position calculating means 106. If the position of the object is within a certain distance from the own vehicle position in step 201, the process proceeds to step 102. In step 102, the driver is alerted by highlighting such as blinking or changing the color of the screen.

【0025】以上のように、本発明の第2の実施の形態
によれば、撮像手段104および105により、自車左前方お
よび右前方の映像を取得してそれらの映像をナビゲーシ
ョン映像と共に表示したり、前記映像をもとに自車位置
から一定以内の距離に物体の存在が検知された場合にナ
ビゲーション映像を強調表示したりすることで、見通し
の悪い交差点での運転支援を行うことができる。
As described above, according to the second embodiment of the present invention, the image pickup means 104 and 105 acquire the images of the left front and the right front of the vehicle and display those images together with the navigation image. Or, when the presence of an object is detected within a certain distance from the own vehicle position based on the image, the navigation image is highlighted, thereby enabling driving assistance at an intersection with poor visibility. .

【0026】なお物体が自車位置から一定以下の距離に
存在する場合であってもその物体が自車位置から遠ざか
っている場合には強調表示を行わなくても構わない。
Even when the object is located at a certain distance or less from the position of the own vehicle, highlighting may not be performed when the object is far from the position of the own vehicle.

【0027】また映像合成手段109における合成表示方
法の変形例、物体位置検出手段106の構成の変形例、お
よび撮像手段の設置位置の変形例については第1の実施
の形態におけるそれぞれの変形例と同様である。
Further, a modified example of the synthesizing display method in the video synthesizing means 109, a modified example of the configuration of the object position detecting means 106, and a modified example of the installation position of the image pickup means are the same as the respective modified examples in the first embodiment. The same is true.

【0028】(第3の実施の形態)本発明の第3の実施
の形態では、物体の存在が検知された場合にナビゲーシ
ョン映像に物体を示すマーク重ねて表示することで運転
者に注意を促すように構成した。
(Third Embodiment) In a third embodiment of the present invention, when the presence of an object is detected, a mark indicating the object is superimposed on the navigation image to alert the driver. It was configured as follows.

【0029】本発明の第3の実施の形態における車載用
ナビゲーション装置は制御手段107が実行する処理以外
は第1の実施の形態における車載用ナビゲーション装置
と同一である。
The on-vehicle navigation device according to the third embodiment of the present invention is the same as the on-vehicle navigation device according to the first embodiment except for the processing executed by the control means 107.

【0030】次に、本発明の第3の実施の形態における
車載用ナビゲーション装置の動作について図7のフロー
チャートでその動作を説明する。図7のフローチャート
において図4と同じ符号が付されたステップは図4のス
テップと同じ処理を実行する。
Next, the operation of the in-vehicle navigation device according to the third embodiment of the present invention will be described with reference to the flowchart of FIG. In the flowchart of FIG. 7, steps denoted by the same reference numerals as those in FIG. 4 execute the same processing as the steps in FIG.

【0031】まず、ステップ101において物体位置算出
手段106より物体の位置を取得する。ステップ101で物体
の位置が算出された場合、ステップ301に進む。ステッ
プ301では、物体の存在する位置に物体を表すマークを
ナビゲーションの映像に重ねて表示することで運転手に
注意を促す。
First, in step 101, the position of the object is obtained from the object position calculating means 106. When the position of the object is calculated in step 101, the process proceeds to step 301. In step 301, the driver is alerted by displaying a mark representing the object at the position where the object is present, superimposed on the navigation image.

【0032】図8は、ナビゲーションの映像上に物体の
マークを表示している例である。この場合、円の中に配
置した三角形の頂点により物体の進行方向を示し、自車
とは円の色を変えることで識別を容易にしている。
FIG. 8 shows an example in which an object mark is displayed on a navigation image. In this case, the advancing direction of the object is indicated by the vertices of a triangle disposed in the circle, and the color of the circle is changed from the own vehicle to facilitate identification.

【0033】以上のように、本発明の第3の実施の形態
によれば、撮像手段104および105により、自車左前方お
よび右前方の映像を取得してそれらの映像をナビゲーシ
ョン映像と共に表示したり、前記映像をもとに物体の存
在が検知された場合にナビゲーション映像に物体を示す
マーク重ねて表示したりすることで、見通しの悪い交差
点での運転支援を行うことができる。
As described above, according to the third embodiment of the present invention, the imaging means 104 and 105 acquire the images of the left front and the right front of the vehicle and display these images together with the navigation image. Or, when the presence of an object is detected based on the image, the mark indicating the object is superimposed on the navigation image and displayed, so that driving assistance at an intersection with poor visibility can be performed.

【0034】なお、物体が自車位置から一定以下の距離
に存在する場合のみ物体を表すマークを表示しても構わ
ない。また物体が自車位置から遠ざかる場合は物体を表
すマークの表示を行わなくても構わない。また映像合成
手段109における合成表示方法の変形例、物体位置検出
手段106の構成の変形例、および撮像手段の設置位置の
変形例については第1の実施の形態におけるそれぞれの
変形例と同様である。
Note that a mark representing an object may be displayed only when the object is present at a distance equal to or less than a predetermined distance from the own vehicle position. When the object moves away from the own vehicle position, the mark indicating the object does not have to be displayed. Further, a modified example of the combining display method in the video combining means 109, a modified example of the configuration of the object position detecting means 106, and a modified example of the installation position of the imaging means are the same as the respective modified examples in the first embodiment. .

【0035】(第4の実施の形態)本発明の第4の実施
の形態では、物体が検出された場合に音声出力を行うこ
とで運転者に注意を促すように構成した。
(Fourth Embodiment) In the fourth embodiment of the present invention, when an object is detected, a voice is output to alert the driver.

【0036】図9は、本発明の第4の実施の形態におけ
る車載用ナビゲーション装置の構成を示すブロック図で
ある。この図において、図1と同じ符号が付されたブロ
ックは図1のブロックと同じ構成を有し、同じ機能を有
する。
FIG. 9 is a block diagram showing a configuration of a vehicle-mounted navigation device according to a fourth embodiment of the present invention. In this figure, blocks denoted by the same reference numerals as in FIG. 1 have the same configuration and the same functions as the blocks in FIG.

【0037】この車載用ナビゲーション装置は、図1に
示した車載用ナビゲーション装置に対して音声出力手段
202を付加すると共に、音声出力手段202に対して音声の
出力を制御する機能を有する制御手段201を設けたこと
である。
This vehicle-mounted navigation device is different from the vehicle-mounted navigation device shown in FIG.
The control means 201 has a function of controlling the output of the sound to the sound output means 202 in addition to the addition of the control unit 201.

【0038】以上の構成を有する車載用ナビゲーション
装置の動作について図10のフローチャートでその動作
を説明する。図10のフローチャートにおいて図4と同
じ符号が付されたステップは図4のステップと同じ処理
を実行する。
The operation of the on-vehicle navigation device having the above configuration will be described with reference to the flowchart of FIG. In the flowchart of FIG. 10, steps denoted by the same reference numerals as those in FIG. 4 execute the same processing as the steps in FIG.

【0039】まずステップ101において物体位置算出手
段106より物体の位置を取得する。ステップ101で物体の
位置が算出された場合、ステップ401に進む。ステップ4
01では、音声出力手段202において合成音声の出力やブ
ザーを鳴らすことで運転手に注意を促す。
First, in step 101, the position of the object is obtained from the object position calculating means 106. When the position of the object is calculated in step 101, the process proceeds to step 401. Step 4
In 01, the voice output means 202 alerts the driver by outputting a synthesized voice or sounding a buzzer.

【0040】以上のように、本発明の第4の実施の形態
によれば、撮像手段104および105により、自車左前方お
よび右前方の映像を取得してそれらの映像をナビゲーシ
ョン映像と共に表示したり、自車左前方および右前方の
映像を取得してそれらの映像をもとに物体の存在が検知
された場合に音声出力を行うことにより、見通しの悪い
交差点での運転支援を行うことができる。
As described above, according to the fourth embodiment of the present invention, the imaging means 104 and 105 acquire the images of the left front and the right front of the vehicle and display these images together with the navigation image. Or, it can provide driving support at intersections with poor visibility by acquiring images of the left front and right front of the vehicle and outputting audio when the presence of an object is detected based on those images. it can.

【0041】なお、物体が自車位置から一定以下の距離
に存在する場合のみ音声出力を行っても構わない。また
物体が自車位置から遠ざかる場合は音声出力を行わなく
ても構わない。さらに物体位置検出手段106の構成の変
形例、および撮像手段の設置位置の変形例については第
1の実施の形態におけるそれぞれの変形例と同様であ
る。
Note that sound output may be performed only when the object is present at a distance equal to or less than a certain distance from the position of the host vehicle. When the object moves away from the own vehicle position, the sound output may not be performed. Further, a modified example of the configuration of the object position detecting means 106 and a modified example of the installation position of the imaging means are the same as the respective modified examples in the first embodiment.

【0042】(第5の実施の形態)本発明の第5の実施
の形態では、物体が検出された場合には物体の存在する
方向の映像をナビゲーション映像と共に表示するように
構成した。
(Fifth Embodiment) In the fifth embodiment of the present invention, when an object is detected, an image in the direction in which the object exists is displayed together with the navigation image.

【0043】図11は、本発明の第5の実施の形態にお
ける車載用ナビゲーション装置の構成を示すブロック図
である。この図において、図9と同じ符号が付されたブ
ロックは図9のブロックと同じ構成を有する。
FIG. 11 is a block diagram showing a configuration of a vehicle-mounted navigation device according to a fifth embodiment of the present invention. In this figure, blocks denoted by the same reference numerals as in FIG. 9 have the same configuration as the blocks in FIG.

【0044】図9に示した車載用ナビゲーション装置と
比較した本実施の形態の特徴は、物体位置算出手段106
の出力および制御手段301の出力を提示方法決定手段302
へ入力していることである。
The feature of this embodiment in comparison with the on-vehicle navigation device shown in FIG.
Output method and the output of the control means 301
Is that you have entered

【0045】以上のように構成された車載用ナビゲーシ
ョン装置の動作について図12のフローチャートを用い
て説明する。図12のフローチャートにおいて図4と同
じ符号が付されたステップは図4のステップと同じ処理
を実行する。
The operation of the on-vehicle navigation device configured as described above will be described with reference to the flowchart of FIG. In the flowchart of FIG. 12, steps denoted by the same reference numerals as those in FIG. 4 execute the same processing as the steps in FIG.

【0046】通常はナビゲーションの映像を表示してい
るものとする。図12において、フローの開始に伴い、
まずステップ101において物体位置算出手段106より物体
の位置を取得する。
Normally, it is assumed that a navigation image is displayed. In FIG. 12, with the start of the flow,
First, in step 101, the position of the object is obtained from the object position calculation means 106.

【0047】ステップ101で物体の位置が算出されない
場合、ステップ502に進み、ナビゲーションの映像を表
示する。
If the position of the object is not calculated in step 101, the flow advances to step 502 to display a navigation image.

【0048】ステップ101で物体の位置が算出された場
合、ステップ501に進み、自車の左側のみに物体が存在
するか、自車の右側のみに物体が存在するか、それ以外
か判定する。
When the position of the object is calculated in step 101, the process proceeds to step 501, and it is determined whether the object exists only on the left side of the own vehicle, the object exists only on the right side of the own vehicle, or the other.

【0049】そして自車の左側のみに物体が存在する場
合はステップ503に進み、左側に左前方の撮像手段の映
像、右側にナビゲーションの映像を表示する。自車の右
側のみに物体が存在する場合はステップ504に進み、右
側に右前方の撮像手段の映像、左側にナビゲーションの
映像を表示する。それ以外の場合はステップ505に進
み、左側に左前方の撮像手段の映像、右側に右前方の撮
像手段の映像、中央にナビゲーションの映像を表示す
る。図13に表示例として、ステップ504の出力する映
像を示す。
If there is an object only on the left side of the vehicle, the process proceeds to step 503, where the image of the imaging means at the front left is displayed on the left side, and the image of the navigation is displayed on the right side. If the object exists only on the right side of the host vehicle, the process proceeds to step 504, where the image of the imaging means on the right front is displayed on the right side, and the image of navigation is displayed on the left side. Otherwise, the process proceeds to step 505, where an image of the left front imaging unit is displayed on the left side, an image of the right front imaging unit is displayed on the right side, and a navigation image is displayed at the center. FIG. 13 shows a video output in step 504 as a display example.

【0050】以上のように、本発明の第5の実施の形態
によれば、撮像手段104および105により、自車左前方お
よび右前方の映像を取得してそれらの映像をもとに物体
の位置と自車の位置との関係を求め、物体が存在する場
合には物体の存在する方向の映像をナビゲーション映像
と共に表示することにより、見通しの悪い交差点での運
転支援を行うことができると共に、ナビゲーション機能
と運転支援機能を自動で切り替えることができる。
As described above, according to the fifth embodiment of the present invention, the imaging means 104 and 105 acquire the images of the left front and the right front of the own vehicle, and based on those images, the object is obtained. By obtaining the relationship between the position and the position of the own vehicle, and displaying an image of the direction in which the object is present together with the navigation image when an object is present, it is possible to assist driving at an intersection with poor visibility, Navigation function and driving support function can be switched automatically.

【0051】なお、物体が自車位置から一定以下の距離
に存在する場合のみ撮像手段の映像をナビゲーションの
映像と合成表示しても構わない。また物体が自車位置か
ら遠ざかる場合は合成を行わなくても構わない。さらに
物体位置検出手段106の構成の変形例、および撮像手段
の設置位置の変形例については第1の実施の形態におけ
るそれぞれの変形例と同様である。
It is to be noted that the image of the image pickup means may be combined with the image of the navigation and displayed only when the object exists at a distance equal to or less than a predetermined distance from the position of the own vehicle. When the object moves away from the own vehicle position, the composition need not be performed. Further, a modified example of the configuration of the object position detecting means 106 and a modified example of the installation position of the imaging means are the same as the respective modified examples in the first embodiment.

【0052】(第6の実施の形態)本発明の第6の実施
の形態では、自車が一定速度以下で走行中の場合にナビ
ゲーション映像と撮像手段で取り込まれた映像とを合成
表示するように構成した。
(Sixth Embodiment) In the sixth embodiment of the present invention, when the own vehicle is traveling at a certain speed or less, the navigation image and the image captured by the image pickup means are displayed in a combined manner. Configured.

【0053】図14は、本発明の第6の実施の形態にお
ける車載用ナビゲーション装置の構成を示すブロック図
である。この図において、図11と同じ符号が付された
ブロックは図11のブロックと同じ構成を有する。
FIG. 14 is a block diagram showing a configuration of a vehicle-mounted navigation device according to a sixth embodiment of the present invention. In this figure, blocks denoted by the same reference numerals as in FIG. 11 have the same configuration as the blocks in FIG.

【0054】図11に示した車載用ナビゲーション装置
と比較した本実施の形態の特徴は、自車速度算出手段40
1を付加し、その出力を提示方法決定手段402に入力して
いることである。
The feature of this embodiment in comparison with the on-vehicle navigation device shown in FIG.
1 means that the output is input to the presentation method determining means 402.

【0055】以上のように構成された車載用ナビゲーシ
ョン装置の動作について図15のフローチャートを用い
て説明する。通常はナビゲーションの映像を表示してい
るものとする。図15において、フローの開始に伴い、
まずステップ601において自車速度算出手段401より自車
の速度を取得する。ステップ601で自車の速度が一定速
度以下の場合、ステップ602に進む。ステップ602ではナ
ビゲーションの映像と撮像手段の映像とを合成して表示
する。表示方法は図3あるいは図10に示した方法を用
いればよい。
The operation of the in-vehicle navigation device configured as described above will be described with reference to the flowchart of FIG. Normally, it is assumed that a navigation image is displayed. In FIG. 15, with the start of the flow,
First, in step 601, the speed of the own vehicle is acquired from the own vehicle speed calculating means 401. If it is determined in step 601 that the speed of the own vehicle is equal to or lower than the predetermined speed, the process proceeds to step 602. In step 602, the image of the navigation and the image of the imaging means are combined and displayed. The display method may use the method shown in FIG. 3 or FIG.

【0056】以上のように、本発明の第6の実施の形態
によれば、通常はナビゲーション映像を表示し、自車の
速度が一定値以下の場合にナビゲーション映像と撮像手
段で取り込まれた映像とを合成表示することにより、見
通しの悪い交差点での運転支援を行うことができると共
に、ナビゲーション機能と運転支援機能を自動で切り替
えることができる。
As described above, according to the sixth embodiment of the present invention, a navigation image is normally displayed, and when the speed of the vehicle is equal to or less than a certain value, the navigation image and the image captured by the imaging means are displayed. Is displayed, the driving support at the intersection with poor visibility can be performed, and the navigation function and the driving support function can be automatically switched.

【0057】なお、自車が一定速度以下でかつ物体が存
在する場合のみ撮像手段の映像をナビゲーションの映像
と合成表示しても構わない。また自車が一定速度以下で
かつ物体が自車位置から一定以下の距離に存在する場合
のみ撮像手段の映像をナビゲーションの映像と合成表示
してもかまわない。さらに物体が自車位置から遠ざかる
場合は合成を行わなくても構わない。また物体位置検出
手段106の構成の変形例、および撮像手段の設置位置の
変形例については第1の実施の形態におけるそれぞれの
変形例と同様である。
It is to be noted that the image of the image pickup means may be displayed in combination with the image of the navigation only when the own vehicle is at a certain speed or less and an object is present. Further, only when the own vehicle is at a certain speed or less and the object is at a certain distance or less from the own vehicle position, the image of the image pickup means may be combined with the navigation image and displayed. Further, when the object moves away from the own vehicle position, the composition need not be performed. Further, a modified example of the configuration of the object position detecting means 106 and a modified example of the installation position of the imaging means are the same as the respective modified examples in the first embodiment.

【0058】(第7の実施の形態)本発明の第7の実施
の形態では、自車の現在位置が予め登録された位置から
一定距離内の場合にナビゲーションの映像と撮像手段の
映像とを合成して表示するように構成した。
(Seventh Embodiment) In a seventh embodiment of the present invention, when the current position of the own vehicle is within a certain distance from a position registered in advance, the navigation image and the image of the image pickup means are displayed. It was configured to be synthesized and displayed.

【0059】図16は、本発明の第7の実施の形態にお
ける車載用ナビゲーション装置の構成を示すブロック図
である。この図において、図14と同じ符号が付された
ブロックは図14のブロックと同じ構成を有し、同じ機
能を有する。
FIG. 16 is a block diagram showing a configuration of a vehicle-mounted navigation device according to a seventh embodiment of the present invention. In this figure, the blocks denoted by the same reference numerals as in FIG. 14 have the same configuration and the same functions as the blocks in FIG.

【0060】図14に示した車載用ナビゲーション装置
と比較した本実施の形態の特徴は、位置登録手段501
と、登録位置読み出し手段502とを設けたことである。
位置登録手段501には、撮像手段で取り込まれた映像を
表示した位置が操作手段103により登録されている。登
録位置読み出し手段502は、位置算出手段101で算出され
た自車の現在位置と、位置登録手段501から読み出され
た登録位置とを比較し、その結果を提示方法決定手段40
2へ与える。
The feature of the present embodiment in comparison with the on-vehicle navigation device shown in FIG.
And registration position reading means 502.
The position at which the image captured by the imaging unit is displayed is registered in the position registration unit 501 by the operation unit 103. The registered position reading means 502 compares the current position of the vehicle calculated by the position calculating means 101 with the registered position read from the position registering means 501, and presents the result to the presentation method determining means 40.
Give to 2.

【0061】以上のように構成された車載用ナビゲーシ
ョン装置の動作について図17のフローチャートを用い
て説明する。図17のフローチャートにおいて図15と
同じ符号が付されたステップは図15のステップと同じ
処理を実行する。
The operation of the in-vehicle navigation device configured as described above will be described with reference to the flowchart of FIG. In the flowchart of FIG. 17, steps denoted by the same reference numerals as those in FIG. 15 execute the same processing as the steps in FIG.

【0062】通常はナビゲーションの映像を表示してい
るものとする。図17において、フローの開始に伴い、
まずステップ701において自車位置算出手段101より自車
の位置を取得する。また位置登録手段501に登録してあ
る位置情報を登録位置読み出し手段502で読み出し、自
車の位置と比較する。自車の位置が登録済みの位置から
一定距離以内に近づいた場合は、ステップ602に進む。
ステップ602ではナビゲーションの映像と撮像手段の映
像とを合成して表示する。
Normally, it is assumed that a navigation image is displayed. In FIG. 17, with the start of the flow,
First, in step 701, the position of the own vehicle is acquired from the own vehicle position calculating means 101. Further, the position information registered in the position registering means 501 is read by the registered position reading means 502 and compared with the position of the own vehicle. If the position of the own vehicle approaches within a certain distance from the registered position, the process proceeds to step 602.
In step 602, the image of the navigation and the image of the imaging means are combined and displayed.

【0063】以上のように、本発明の第7の実施の形態
によれば、通常はナビゲーション映像を表示し、自車の
現在位置が予め登録された位置から一定距離内の場合に
ナビゲーションの映像と撮像手段の映像とを合成して表
示することにより、見通しの悪い交差点での運転支援を
行うことができると共に、ナビゲーション機能と運転支
援機能を自動で切り替えることができる。
As described above, according to the seventh embodiment of the present invention, the navigation image is normally displayed, and the navigation image is displayed when the current position of the own vehicle is within a certain distance from the position registered in advance. By synthesizing and displaying the image and the image of the imaging means, it is possible to perform driving support at an intersection with poor visibility and automatically switch between the navigation function and the driving support function.

【0064】なお、物体が自車位置から一定以下の距離
に存在する場合のみ合成表示しても構わない。また物体
が自車位置から遠ざかる場合は合成を行わなくても構わ
ない。さらに位置登録手段501に位置だけでなく車両の
進行方向や地図情報のリンク情報を登録しておき、自車
の位置だけでなく自車の進行方向や自車の乗線している
リンク情報が登録済みの位置や進行方向やリンク情報と
一致しているか否か判断しても構わない。また物体位置
検出手段106の構成の変形例、および撮像手段の設置位
置の変形例については第1の実施の形態におけるそれぞ
れの変形例と同様である。
It should be noted that composite display may be performed only when the object exists at a distance equal to or less than a predetermined distance from the position of the own vehicle. When the object moves away from the own vehicle position, the composition need not be performed. Further, not only the position but also the traveling direction of the vehicle and the link information of the map information are registered in the position registering means 501, so that not only the position of the own vehicle but also the traveling direction of the own vehicle and the link information of the own vehicle are included. It may be determined whether or not it matches the registered position, traveling direction, or link information. Further, a modified example of the configuration of the object position detecting means 106 and a modified example of the installation position of the imaging means are the same as the respective modified examples in the first embodiment.

【0065】(第8の実施の形態)本発明の第8の実施
の形態では、自車の位置が目的地から一定距離以内に近
づいた場合にナビゲーションの映像と撮像手段の映像と
を合成して表示するように構成した。
(Eighth Embodiment) In an eighth embodiment of the present invention, when the position of the own vehicle approaches within a certain distance from the destination, the image of the navigation and the image of the imaging means are combined. It was configured to display.

【0066】図18は、本発明の第8の実施の形態にお
ける車載用ナビゲーション装置の構成を示すブロック図
である。この図において、図16と同じ符号が付された
ブロックは図16のブロックと同じ構成を有する。
FIG. 18 is a block diagram showing a configuration of a vehicle-mounted navigation device according to an eighth embodiment of the present invention. In this figure, blocks denoted by the same reference numerals as in FIG. 16 have the same configuration as the blocks in FIG.

【0067】図16に示した車載用ナビゲーション装置
と比較した本実施の形態の特徴は、目的地が設定された
ときに目的地までの経路を算出する経路探索手段601を
付加すると共に、目的地までの経路を案内する機能を有
する制御手段602を設けたことである。
The feature of this embodiment as compared with the on-vehicle navigation device shown in FIG. 16 is that a route search means 601 for calculating a route to a destination when a destination is set is added, and the destination is added. That is, control means 602 having a function of guiding a route to the vehicle is provided.

【0068】以上のように構成された車載用ナビゲーシ
ョン装置の動作について図19のフローチャートを用い
て説明する。図19のフローチャートにおいて図17と
同じ符号が付されたステップは図17のステップと同じ
処理を実行する。
The operation of the on-vehicle navigation device configured as described above will be described with reference to the flowchart of FIG. In the flowchart of FIG. 19, steps denoted by the same reference numerals as those in FIG. 17 execute the same processing as the steps in FIG.

【0069】通常はナビゲーションの映像を表示してい
るものとする。図19において、フローの開始に伴い、
まずステップ801において自車位置算出手段101より自車
の位置を取得する。また経路探索手段601で設定した目
的地と自車の位置と比較する。自車の位置が目的地から
一定距離以内に近づいた場合はステップ602に進む。ス
テップ602ではナビゲーションの映像と撮像手段の映像
とを合成して表示する。自車の位置が目的地から一定距
離以内に近づいていない場合には、通常のナビゲーショ
ン表示のまま処理を終了する。
Normally, it is assumed that a navigation image is displayed. In FIG. 19, with the start of the flow,
First, in step 801, the position of the own vehicle is acquired from the own vehicle position calculating means 101. The destination set by the route search means 601 is compared with the position of the own vehicle. If the position of the own vehicle approaches within a certain distance from the destination, the process proceeds to step 602. In step 602, the image of the navigation and the image of the imaging means are combined and displayed. If the position of the own vehicle has not approached within a certain distance from the destination, the process ends with the normal navigation display.

【0070】以上のように、本発明の第8の実施の形態
によれば、目的地から一定距離以内は駐車場等である場
合が多いため、通常はナビゲーション映像を表示し、自
車の位置が目的地から一定距離以内に近づいた場合はナ
ビゲーションの映像と撮像手段の映像とを合成して表示
することにより、駐車場等での運転支援を行うことがで
きると共に、ナビゲーション機能と運転支援機能を自動
で切り替えることができる。
As described above, according to the eighth embodiment of the present invention, since a parking lot or the like is often within a certain distance from the destination, a navigation image is normally displayed and the position of the vehicle is displayed. When the vehicle approaches within a certain distance from the destination, the image of the navigation and the image of the imaging means are combined and displayed, so that driving assistance in a parking lot or the like can be performed, and the navigation function and the driving assistance function are provided. Can be switched automatically.

【0071】なお、物体が自車位置から一定以下の距離
に存在する場合のみ合成表示しても構わない。また物体
が自車位置から遠ざかる場合は合成を行わなくても構わ
ない。さらに自車の位置と登録済みの位置のみで合成表
示するか否か判定したが、位置登録手段に位置だけでな
く車の進行方向や地図情報のリンク情報を登録してお
き、自車の位置だけでなく自車の進行方向や自車の乗線
しているリンク情報が登録済みの位置や進行方向やリン
ク情報と一致しているか否か判断しても構わない。また
物体位置検出手段106の構成の変形例、および撮像手段
の設置位置の変形例については第1の実施の形態におけ
るそれぞれの変形例と同様である。
It should be noted that the composite display may be performed only when the object exists at a distance equal to or less than a certain distance from the position of the own vehicle. When the object moves away from the own vehicle position, the composition need not be performed. Further, it was determined whether or not to display only the position of the own vehicle and the registered position, but the position registering means registers not only the position but also the traveling direction of the vehicle and link information of map information, and the position of the own vehicle is registered. Alternatively, it may be determined whether or not the traveling direction of the own vehicle or the link information of the traveling line of the own vehicle matches the registered position, traveling direction, or link information. Further, a modified example of the configuration of the object position detecting means 106 and a modified example of the installation position of the imaging means are the same as the respective modified examples in the first embodiment.

【0072】(第9の実施の形態)本発明の第9の実施
の形態では、複数の撮像手段から取り込んだ映像を貼り
合わせることで自車の上方から見た映像を作成し、ナビ
ゲーションの映像と合成して表示するように構成した。
(Ninth Embodiment) In a ninth embodiment of the present invention, an image viewed from above the own vehicle is created by combining images captured from a plurality of image pickup means, and an image for navigation is created. It is configured to display by combining with

【0073】図20は、本発明の第9の実施の形態にお
ける車載用ナビゲーション装置の構成を示すブロック図
である。この図において図18と同じ符号が付されたブ
ロックは図18のブロックと同じ構成および機能を有す
る。
FIG. 20 is a block diagram showing a configuration of a vehicle-mounted navigation device according to the ninth embodiment of the present invention. In this figure, blocks denoted by the same reference numerals as those in FIG. 18 have the same configurations and functions as the blocks in FIG.

【0074】図18に示した車載用ナビゲーション装置
と比較した本実施の形態の特徴は、撮像手段104および1
05で取得された自車付近の映像を自車の上方から見た映
像に変換する映像変換手段701を付加すると共に、映像
変換手段701の出力を映像合成手段702に供給するように
構成したことである。
The feature of the present embodiment in comparison with the on-vehicle navigation device shown in FIG.
The image conversion means 701 for converting the image near the own vehicle acquired in 05 into an image viewed from above the own vehicle is added, and the output of the image conversion means 701 is supplied to the image synthesis means 702. It is.

【0075】映像変換手段701は自車付近の複数の映像
を取り込み、複数の映像を貼り合わせることで、自車の
上方から見た映像を作成する。図3の撮像手段の映像
(左前方)を反時計回りに90度回転させた映像と、図
3の撮像手段の映像(右前方)を時計回りに90度回転
させた映像とを貼り合わせることで、自車の上方から見
た映像を作成することができる。図21はナビゲーショ
ンの映像と自車の上方から見た映像とを映像合成手段70
2で合成し、表示手段110で表示した例である。
The image conversion means 701 takes in a plurality of images near the own vehicle and combines the plurality of images to create an image viewed from above the own vehicle. The image obtained by rotating the image of the image pickup means in FIG. 3 (front left) by 90 degrees counterclockwise and the image obtained by rotating the image of the image pickup means in FIG. 3 (front right) by 90 degrees clockwise are pasted together. Thus, an image viewed from above the own vehicle can be created. FIG. 21 shows a video synthesizing means 70 for combining the navigation video and the video viewed from above the own vehicle.
This is an example in which the images are combined in 2 and displayed on the display unit 110.

【0076】以上のように、本発明の第9の実施の形態
によれば、撮像手段106および107で取り込まれた映像を
貼り合わせることで自車の上方から見た映像を作成し、
ナビゲーションの映像と合成して表示することにより、
見通しの悪い交差点での運転支援を行うことができる。
As described above, according to the ninth embodiment of the present invention, an image viewed from above the own vehicle is created by combining the images captured by the imaging means 106 and 107,
By synthesizing and displaying the image of the navigation,
Driving assistance at intersections with poor visibility can be provided.

【0077】なお複数の撮像手段から取り込んだ映像を
映像変換手段により貼り合わせることで自車の上方から
見た映像を作成する代わりに、撮像手段として魚眼レン
ズを使用し、自車の上方から見た映像を作成しても構わ
ない。また物体位置算出手段108の構成の変形例、およ
び撮像手段の設置位置の変形例については第1の実施の
形態における変形例と同様である。
Instead of creating an image viewed from above the own vehicle by combining images captured from a plurality of image pickup means by the image conversion means, a fisheye lens is used as the image pickup means and viewed from above the own vehicle. You can create a video. Further, a modified example of the configuration of the object position calculating unit 108 and a modified example of the installation position of the imaging unit are the same as the modified example in the first embodiment.

【0078】(第10の実施の形態)本発明の第10の
実施の形態では、自車と物体との間が一定の距離以内に
近づいた場合に強調表示を行うように構成した。
(Tenth Embodiment) In the tenth embodiment of the present invention, when the distance between the vehicle and the object approaches within a certain distance, the highlighting is performed.

【0079】図22は、本発明の第10の実施の形態に
おける車載用ナビゲーション装置の構成を示すブロック
図である。この図において図20と同じ符号が付された
ブロックは図20のブロックと同じ構成を有する。
FIG. 22 is a block diagram showing a configuration of a vehicle-mounted navigation device according to the tenth embodiment of the present invention. In this figure, blocks denoted by the same reference numerals as in FIG. 20 have the same configuration as the blocks in FIG.

【0080】図20に示した車載用ナビゲーション装置
と比較した本実施の形態の特徴は、映像変換手段701に
代えて、映像変換手段802を設けると共に、制御手段801
により映像変換手段802を制御するように構成したこと
である。
This embodiment is different from the car navigation system shown in FIG. 20 in that a video converting means 802 is provided instead of the video converting means 701 and a control means 801 is provided.
To control the video conversion means 802.

【0081】映像変換手段802は自車付近の複数の映像
を取り込み、複数の映像を貼り合わせることで、自車の
上方から見た映像を作成する。また制御手段801の制御
により物体の位置が自車の位置に近い場合は画面を強調
表示させる。
The image conversion means 802 takes in a plurality of images near the own vehicle and combines the plurality of images to create an image viewed from above the own vehicle. When the position of the object is close to the position of the vehicle under the control of the control means 801, the screen is highlighted.

【0082】以上のように構成された車載用ナビゲーシ
ョン装置の動作について図23のフローチャートを用い
て説明する。図23のフローチャートにおいて図6と同
じ符号が付されたステップは図6のステップと同じ処理
を実行する。
The operation of the in-vehicle navigation device configured as described above will be described with reference to the flowchart of FIG. In the flowchart of FIG. 23, steps denoted by the same reference numerals as those in FIG. 6 execute the same processing as the steps in FIG.

【0083】通常はナビゲーションの映像を表示してい
るものとする。図23において、フローの開始に伴い、
まずステップ201において自車と物体との間の距離が一
定の距離以内に近づいたか否か判定する。そして一定の
距離以内に近づいた場合はステップ901に進む。ステッ
プ901では映像変換手段802で得られる画面を点滅や色を
変える等の強調表示を行って運転手に注意を促す。
Normally, it is assumed that a navigation image is displayed. In FIG. 23, with the start of the flow,
First, in step 201, it is determined whether or not the distance between the vehicle and the object has approached within a certain distance. Then, when approaching within a certain distance, the process proceeds to step 901. In step 901, the screen obtained by the video conversion means 802 is highlighted such as blinking or changing colors to call the driver's attention.

【0084】以上のように、本発明の第10の実施の形
態によれば、自車と物体との間の距離が一定値以内に近
づいた場合に強調表示を行うことにより、見通しの悪い
交差点での運転支援を行うことができる。
As described above, according to the tenth embodiment of the present invention, when the distance between the host vehicle and the object approaches within a certain value, the highlight is displayed, so that the intersection with poor visibility can be obtained. Can provide driving assistance.

【0085】なお 物体が自車位置から遠ざかる場合は
強調表示を行わなくても構わない。また撮像手段として
魚眼レンズを使用し、自車の上方から見た映像を作成し
ても構わない。さらに物体位置算出手段108の構成の変
形例、および撮像手段の設置位置の変形例については第
1の実施の形態における変形例と同様である。
When the object moves away from the own vehicle position, the highlighting may not be performed. Alternatively, a fisheye lens may be used as the imaging means, and an image viewed from above the vehicle may be created. Further, a modified example of the configuration of the object position calculating means 108 and a modified example of the installation position of the imaging means are the same as the modified example in the first embodiment.

【0086】(第11の実施の形態)本発明の第11の
実施の形態では、複数の撮像手段から取り込んだ映像を
3次元コンピュータグラフィックス処理することで自車
の上方から見た映像を作成し、ナビゲーションの映像と
合成して表示するように構成した。
(Eleventh Embodiment) In an eleventh embodiment of the present invention, an image viewed from above the own vehicle is created by performing three-dimensional computer graphics processing on images captured from a plurality of imaging means. Then, it is configured to be displayed in combination with the navigation image.

【0087】図24は 本発明の第11の実施の形態に
おける車載用ナビゲーション装置の構成を示すブロック
図である。この図において図22と同じ符号が付された
ブロックは図22のブロックと同じ構成を有する。
FIG. 24 is a block diagram showing a configuration of a vehicle-mounted navigation device according to an eleventh embodiment of the present invention. In this figure, blocks denoted by the same reference numerals as in FIG. 22 have the same configuration as the blocks in FIG.

【0088】図22に示した車載用ナビゲーション装置
と比較したときの本実施の形態の特徴は、映像作成手段
901を付加すると共に、その出力を映像合成手段902に与
えるようにしたことである。
The feature of the present embodiment when compared with the on-vehicle navigation device shown in FIG.
901 is added, and the output is given to the video synthesizing means 902.

【0089】映像作成手段901は撮像手段104および105
から得られる自車付近の複数の映像を取り込み、3次元
コンピュータグラフィックス処理により自車の上方から
見た3次元映像を作成する。映像合成手段902はナビゲ
ーションの映像、撮像手段104および105の映像、映像変
換手段802の映像、および映像作成手段901の映像を選択
的に合成して表示する。例えば、上記第9の実施の形態
で説明した自車の上方から見た映像から、まず物体と道
路とを検出する(物体の検出は動き検出で、また道路の
検出は白線検出で可能)。そして、検出した物体と道路
の代わりに、あらかじめ3次元コンピュータグラフィッ
クス処理で作成しておいた物体のモデルと道路のモデル
を描画することで、自車の上方から見た映像を作成する
ことができる。図25は ナビゲーションの映像と映像
作成手段901の映像とを合成して表示した例である。
The image creating means 901 is composed of the imaging means 104 and 105
A plurality of images near the own vehicle obtained from the vehicle are taken in, and a three-dimensional image viewed from above the own vehicle is created by three-dimensional computer graphics processing. The video synthesizing unit 902 selectively synthesizes and displays the navigation video, the video of the imaging units 104 and 105, the video of the video conversion unit 802, and the video of the video creation unit 901. For example, first, an object and a road are detected from the video viewed from above the own vehicle described in the ninth embodiment (the object can be detected by motion detection, and the road can be detected by white line detection). By drawing a model of the object and a model of the road that have been created in advance by three-dimensional computer graphics processing instead of the detected object and the road, it is possible to create an image viewed from above the own vehicle. it can. FIG. 25 shows an example in which the navigation image and the image of the image creating means 901 are combined and displayed.

【0090】以上のように、本発明の第10の実施の形
態によれば、撮像手段104および105で取り込まれた映像
をもとに3次元コンピュータグラフィックス処理を用い
て自車の上方から見た映像を作成し、ナビゲーションの
映像と合成して表示することにより、見通しの悪い交差
点での運転支援を行うことができる。
As described above, according to the tenth embodiment of the present invention, the three-dimensional computer graphics processing is used to view the image captured by the imaging means 104 and 105 from above the own vehicle. By creating the combined image and displaying the combined image with the navigation image, it is possible to support driving at an intersection with poor visibility.

【0091】(第12の実施の形態)本発明の第12の
実施の形態では、物体が検出された場合には物体の存在
する方向のすピーカーから音声を出力するように構成し
た。
(Twelfth Embodiment) In the twelfth embodiment of the present invention, when an object is detected, a sound is output from a speaker in the direction in which the object exists.

【0092】図26は 本発明の第12の実施の形態に
おける車載用ナビゲーション装置の構成を示すブロック
図である。この図において図24と同じ符号が付された
たブロックは図24のブロックと同じ構成を有する。
FIG. 26 is a block diagram showing a configuration of a vehicle-mounted navigation device according to a twelfth embodiment of the present invention. 24, blocks denoted by the same reference numerals as those in FIG. 24 have the same configuration as the blocks in FIG.

【0093】図24に示した車載用ナビゲーション装置
と比較したときの本実施の形態の特徴は、音声出力手段
202に代えてステレオ音声出力手段1001を設けると共
に、ステレオ音声出力手段1001に対して左右のスピーカ
ーからの音声の出力を制御する機能を有する制御手段10
02を設けたことである。
The feature of this embodiment when compared with the on-vehicle navigation device shown in FIG.
The control means 10 having a stereo sound output means 1001 in place of 202 and having a function of controlling the output of sound from the left and right speakers with respect to the stereo sound output means 1001
02.

【0094】以上のように構成された車載用ナビゲーシ
ョン装置の動作について図27のフローチャートを用い
て説明する。図27のフローチャートにおいて図4と同
じ符号が付されたステップは図4のステップと同じ処理
を実行する。
The operation of the in-vehicle navigation device configured as described above will be described with reference to the flowchart of FIG. In the flowchart of FIG. 27, steps denoted by the same reference numerals as in FIG. 4 execute the same processing as the steps in FIG.

【0095】図27において、フローの開始に伴い、ま
ずステップ101において物体位置算出手段106より物体の
位置を取得する。
In FIG. 27, at the start of the flow, first, in step 101, the position of the object is obtained from the object position calculating means 106.

【0096】ステップ101で物体の位置が算出された場
合、ステップ1001に進み、自車の左側のみに物体が存在
するか、自車の右側のみに物体が存在するか、それ以外
か判定する。そして自車の左側のみに物体が存在する場
合はステップ1002に進み、左側のみのスピーカーから音
声出力を行う。自車の右側のみに物体が存在する場合は
ステップ1003に進み、右側のみのスピーカーから音声出
力を行う。それ以外の場合はステップ1004に進み、左右
のスピーカーから音声出力を行う。ステップ101で物体
の位置が算出されない場合、処理を終了する。
If the position of the object is calculated in step 101, the process proceeds to step 1001, and it is determined whether the object exists only on the left side of the own vehicle, the object exists only on the right side of the own vehicle, or the other. If the object exists only on the left side of the own vehicle, the process proceeds to step 1002, and a sound is output from the speaker only on the left side. If there is an object only on the right side of the vehicle, the process proceeds to step 1003, and a sound is output from the speaker on the right side only. Otherwise, the process proceeds to step 1004, and audio is output from the left and right speakers. If the position of the object is not calculated in step 101, the process ends.

【0097】以上のように、本発明の第12の実施の形
態によれば、撮像手段104および105により、自車左前方
および右前方の映像を取得してそれらの映像をもとに物
体の位置と自車の位置との関係を求め、物体が存在する
場合には物体の存在する方向のスピーカーから音声を出
力することにより、見通しの悪い交差点での運転支援を
行うことができると共に、ナビゲーション機能と運転支
援機能を自動で切り替えることができる。
As described above, according to the twelfth embodiment of the present invention, the imaging means 104 and 105 acquire the images of the left front and the right front of the own vehicle, and based on these images, the object is obtained. By obtaining the relationship between the position and the position of the vehicle and outputting sound from the speaker in the direction where the object exists when there is an object, it is possible to provide driving assistance at intersections with poor visibility and navigation. The function and the driving support function can be switched automatically.

【0098】なお 物体が自車位置から一定以下の距離
に存在する場合のみ音声出力しても構わない。また物体
が自車位置から遠ざかる場合は音声出力を行わなくても
構わない。
It is to be noted that sound output may be performed only when the object exists at a distance equal to or less than a predetermined distance from the position of the own vehicle. When the object moves away from the own vehicle position, the sound output may not be performed.

【0099】[0099]

【発明の効果】以上のように本発明によれば、見通しの
悪い交差点等での運転支援を行うことができると共に、
ナビゲーション機能と運転支援機能とを自動的に切り替
えることができる。
As described above, according to the present invention, it is possible to provide driving assistance at intersections with poor visibility, etc.
The navigation function and the driving support function can be automatically switched.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態における車載用ナビ
ゲーション装置の構成を示すブロック図、
FIG. 1 is a block diagram showing a configuration of a vehicle-mounted navigation device according to a first embodiment of the present invention;

【図2】見通しの悪い交差点を説明するための図、FIG. 2 is a diagram for explaining an intersection with poor visibility;

【図3】本発明の第1の実施の形態における車載用ナビ
ゲーション装置の動作を説明するための図、
FIG. 3 is a diagram for explaining an operation of the vehicle-mounted navigation device according to the first embodiment of the present invention;

【図4】本発明の第1の実施の形態における車載用ナビ
ゲーション装置の動作を示すフローチャート、
FIG. 4 is a flowchart showing the operation of the vehicle-mounted navigation device according to the first embodiment of the present invention;

【図5】本発明の第2の実施の形態における車載用ナビ
ゲーション装置の動作を説明するための図、
FIG. 5 is a diagram for explaining the operation of the vehicle-mounted navigation device according to the second embodiment of the present invention;

【図6】本発明の第2の実施の形態における車載用ナビ
ゲーション装置の動作を示すフローチャート、
FIG. 6 is a flowchart showing an operation of the vehicle-mounted navigation device according to the second embodiment of the present invention;

【図7】本発明の第3の実施の形態における車載用ナビ
ゲーション装置の動作を示すフローチャート、
FIG. 7 is a flowchart showing the operation of the vehicle-mounted navigation device according to the third embodiment of the present invention;

【図8】本発明の第3の実施の形態における車載用ナビ
ゲーション装置の動作を説明するための図、
FIG. 8 is a diagram for explaining the operation of the vehicle-mounted navigation device according to the third embodiment of the present invention;

【図9】本発明の第4の実施の形態における車載用ナビ
ゲーション装置の構成を示すブロック図、
FIG. 9 is a block diagram illustrating a configuration of a vehicle-mounted navigation device according to a fourth embodiment of the present invention;

【図10】本発明の第4の実施の形態における車載用ナ
ビゲーション装置の動作を示すフローチャート、
FIG. 10 is a flowchart showing an operation of the vehicle-mounted navigation device according to the fourth embodiment of the present invention;

【図11】本発明の第5の実施の形態における車載用ナ
ビゲーション装置の構成を示すブロック図、
FIG. 11 is a block diagram showing a configuration of an on-vehicle navigation device according to a fifth embodiment of the present invention;

【図12】本発明の第5の実施の形態における車載用ナ
ビゲーション装置の動作を示すフローチャート、
FIG. 12 is a flowchart showing an operation of the vehicle-mounted navigation device according to the fifth embodiment of the present invention;

【図13】本発明の第5の実施の形態における車載用ナ
ビゲーション装置の動作を説明するための図、
FIG. 13 is a diagram for explaining an operation of a vehicle-mounted navigation device according to a fifth embodiment of the present invention;

【図14】本発明の第6の実施の形態における車載用ナ
ビゲーション装置の構成を示すブロック図、
FIG. 14 is a block diagram showing a configuration of a vehicle-mounted navigation device according to a sixth embodiment of the present invention;

【図15】本発明の第6の実施の形態における車載用ナ
ビゲーション装置の動作を示すフローチャート、
FIG. 15 is a flowchart showing the operation of the vehicle-mounted navigation device according to the sixth embodiment of the present invention;

【図16】本発明の第7の実施の形態における車載用ナ
ビゲーション装置の構成を示すブロック図、
FIG. 16 is a block diagram showing a configuration of a vehicle-mounted navigation device according to a seventh embodiment of the present invention;

【図17】本発明の第7の実施の形態における車載用ナ
ビゲーション装置の動作を示すフローチャート、
FIG. 17 is a flowchart showing the operation of the vehicle-mounted navigation device according to the seventh embodiment of the present invention;

【図18】本発明の第8の実施の形態における車載用ナ
ビゲーション装置の構成を示すブロック図、
FIG. 18 is a block diagram illustrating a configuration of a vehicle-mounted navigation device according to an eighth embodiment of the present invention;

【図19】本発明の第8の実施の形態における車載用ナ
ビゲーション装置の動作を示すフローチャート、
FIG. 19 is a flowchart showing the operation of the vehicle-mounted navigation device according to the eighth embodiment of the present invention;

【図20】本発明の第9の実施の形態における車載用ナ
ビゲーション装置の構成を示すブロック図、
FIG. 20 is a block diagram showing a configuration of a vehicle-mounted navigation device according to a ninth embodiment of the present invention;

【図21】本発明の第9の実施の形態における車載用ナ
ビゲーション装置の動作を説明するための図、
FIG. 21 is a diagram for explaining an operation of a vehicle-mounted navigation device according to a ninth embodiment of the present invention;

【図22】本発明の第10の実施の形態における車載用
ナビゲーション装置の構成を示すブロック図、
FIG. 22 is a block diagram showing a configuration of a vehicle-mounted navigation device according to a tenth embodiment of the present invention;

【図23】本発明の第10の実施の形態における車載用
ナビゲーション装置の動作を示すフローチャート、
FIG. 23 is a flowchart showing the operation of the vehicle-mounted navigation device according to the tenth embodiment of the present invention;

【図24】本発明の第11の実施の形態における車載用
ナビゲーション装置の構成を示すブロック図、
FIG. 24 is a block diagram showing a configuration of a vehicle-mounted navigation device according to an eleventh embodiment of the present invention;

【図25】本発明の第11の実施の形態における車載用
ナビゲーション装置の動作を説明するための図、
FIG. 25 is a diagram for explaining an operation of the vehicle-mounted navigation device according to the eleventh embodiment of the present invention;

【図26】本発明の第12の実施の形態における車載用
ナビゲーション装置の構成を示すブロック図、
FIG. 26 is a block diagram showing a configuration of a vehicle-mounted navigation device according to a twelfth embodiment of the present invention;

【図27】本発明の第12の実施の形態における車載用
ナビゲーション装置の動作を示すフローチャートであ
る。
FIG. 27 is a flowchart illustrating an operation of the vehicle-mounted navigation device according to the twelfth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

101 位置算出手段 102 地図情報格納手段 103 操作手段 104、105 撮像手段 106 物体位置算出手段 107、201、301、602、801、1002 制御手段 108、302、402 提示方法決定手段 109 映像合成手段 110 表示手段 202 音声出力手段 401 自車速度算出手段 501 位置登録手段 502 登録位置読み出し手段 601 経路探索手段 701、802 映像変換手段 702、902 映像合成手段 901 映像作成手段 1001 ステレオ音声出力手段 101 position calculation means 102 map information storage means 103 operation means 104, 105 imaging means 106 object position calculation means 107, 201, 301, 602, 801, 1002 control means 108, 302, 402 presentation method determination means 109 video synthesis means 110 display Means 202 Sound output means 401 Own vehicle speed calculation means 501 Position registration means 502 Registered position reading means 601 Route search means 701, 802 Video conversion means 702, 902 Video synthesis means 901 Video creation means 1001 Stereo voice output means

フロントページの続き Fターム(参考) 2F029 AA02 AB07 AC02 AC03 AC14 AC18 5B057 AA16 BA11 BA24 CB13 CE08 CH01 CH11 DA07 DA15 DA16 DB03 5H180 CC04 FF05 FF22 FF24 FF27 LL04 LL07 LL15 Continued on front page F term (reference) 2F029 AA02 AB07 AC02 AC03 AC14 AC18 5B057 AA16 BA11 BA24 CB13 CE08 CH01 CH11 DA07 DA15 DA16 DB03 5H180 CC04 FF05 FF22 FF24 FF27 LL04 LL07 LL15

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 自車の位置を算出する位置算出手段と、
地図情報を格納する地図情報格納手段と、物体位置を算
出する物体位置算出手段と、自車付近の映像を取り込む
撮像手段と、前記位置算出手段の出力および前記地図情
報格納手段の出力および前記物体位置算出手段の出力を
もとにナビゲーションの映像を生成して出力する制御手
段と、前記撮像手段が取り込んだ映像と前記ナビゲーシ
ョンの映像の提示方法を決定する提示方法決定手段と、
前記提示方法決定手段が決定した提示方法で複数の映像
を合成する映像合成手段と、前記映像合成手段で合成さ
れた映像を表示する表示手段とを有することを特徴とす
る車載用ナビゲーション装置。
1. A position calculating means for calculating a position of an own vehicle,
Map information storage means for storing map information, object position calculation means for calculating an object position, imaging means for capturing an image of the vicinity of the vehicle, output of the position calculation means, output of the map information storage means, and the object Control means for generating and outputting a navigation image based on the output of the position calculating means, and a presentation method determining means for determining a method of presenting the image captured by the imaging means and the navigation image,
An in-vehicle navigation device, comprising: a video synthesizing unit that synthesizes a plurality of videos using the presentation method determined by the presentation method determining unit; and a display unit that displays the video synthesized by the video synthesizing unit.
【請求項2】 撮像手段は複数台存在し、物体位置算出
手段は前記複数台の撮像手段で取り込まれた映像から物
体の位置を算出することを特徴とする請求項1記載の車
載用ナビゲーション装置。
2. An in-vehicle navigation device according to claim 1, wherein there are a plurality of image pickup means, and the object position calculation means calculates the position of the object from the images taken by the plurality of image pickup means. .
【請求項3】 物体の位置により画面を強調表示するこ
とを特徴とする請求項1または2記載の車載用ナビゲー
ション装置。
3. The in-vehicle navigation device according to claim 1, wherein the screen is highlighted according to the position of the object.
【請求項4】 物体の位置が自車の位置から所定の距離
内の場合に画面を強調表示することを特徴とする請求項
3記載の車載用ナビゲーション装置。
4. The in-vehicle navigation device according to claim 3, wherein the screen is highlighted when the position of the object is within a predetermined distance from the position of the own vehicle.
【請求項5】 物体位置算出手段で算出された物体の位
置に物体を表すマークをナビゲーションの映像上に重ね
て表示することを特徴とする請求項1乃至4のいずれか
に記載の車載用ナビゲーション装置。
5. The in-vehicle navigation according to claim 1, wherein a mark representing the object is displayed on the navigation image at the position of the object calculated by the object position calculation means. apparatus.
【請求項6】 音声出力手段を備え、物体の位置により
運転手に対して注意を促す音声を出力することを特徴と
する請求項1乃至5のいずれかに記載の車載用ナビゲー
ション装置。
6. The on-vehicle navigation device according to claim 1, further comprising a voice output unit, which outputs a voice for calling attention to a driver depending on a position of the object.
【請求項7】 物体の位置が自車の位置から所定の距離
内の場合に音声を出力することを特徴とする請求項6記
載の車載用ナビゲーション装置。
7. The on-vehicle navigation device according to claim 6, wherein a sound is output when the position of the object is within a predetermined distance from the position of the own vehicle.
【請求項8】 提示方法決定手段は物体の位置と自車の
位置との相対的な位置関係に応じて映像の提示方法を決
定することを特徴とする請求項1乃至7のいずれかに記
載の車載用ナビゲーション装置。
8. The method according to claim 1, wherein the presentation method determining means determines a method of presenting an image according to a relative positional relationship between the position of the object and the position of the own vehicle. In-vehicle navigation device.
【請求項9】 自車の速度を算出する自車速度算出手段
を有し、提示方法決定手段は自車速度に応じて映像の提
示方法を決定することを特徴とする請求項1乃至8のい
ずれかに記載の車載用ナビゲーション装置。
9. The vehicle according to claim 1, further comprising a host vehicle speed calculating means for calculating a host vehicle speed, wherein the presenting method determining means determines an image presenting method according to the own vehicle speed. The vehicle-mounted navigation device according to any one of the above.
【請求項10】 提示方法決定手段に対して提示方法を
設定する操作手段を有することを特徴とする請求項1乃
至9のいずれかに記載の車載用ナビゲーション装置。
10. The in-vehicle navigation device according to claim 1, further comprising an operation unit for setting a presentation method to the presentation method determination unit.
【請求項11】 提示方法決定手段に対して提示方法を
設定した位置を登録する位置登録手段を有することを特
徴とする請求項1乃至10のいずれかに記載の車載用ナ
ビゲーション装置。
11. The in-vehicle navigation device according to claim 1, further comprising a position registration unit that registers a position where the presentation method is set to the presentation method determination unit.
【請求項12】 位置登録手段に登録された位置を読み
出す登録位置読み出し手段を有し、提示方法決定手段は
登録されている位置と自車位置との関係に応じて提示方
法を決定することを特徴とする請求項11記載の車載用
ナビゲーション装置。
12. A registered position reading means for reading a position registered in the position registering means, wherein the presentation method determining means determines a presentation method according to a relationship between the registered position and the position of the own vehicle. The in-vehicle navigation device according to claim 11, wherein:
【請求項13】 目的地までの経路を探索する経路探索
手段を有し、提示方法決定手段は目的地と自車位置との
関係に応じて提示方法を決定することを特徴とする請求
項1乃至12のいずれかに記載の車載用ナビゲーション
装置。
13. A method according to claim 1, further comprising a route search unit for searching for a route to the destination, wherein the presentation method determination unit determines a presentation method according to a relationship between the destination and the position of the vehicle. 13. The in-vehicle navigation device according to any one of claims to 12.
【請求項14】 撮像手段から得られる自車付近の映像
を加工して上方から俯瞰して見た映像に変換する映像変
換手段を有することを特徴とする請求項1乃至13のい
ずれかに記載の車載用ナビゲーション装置。
14. The image processing apparatus according to claim 1, further comprising an image conversion unit configured to process an image near the own vehicle obtained from the imaging unit and convert the image into an image viewed from above from above. In-vehicle navigation device.
【請求項15】 映像変換手段は複数の撮像手段から得
られる自車付近の映像を自車の上方から見た映像に変換
することを特徴とする請求項14記載の車載用ナビゲー
ション装置。
15. The on-vehicle navigation device according to claim 14, wherein the image conversion means converts an image near the own vehicle obtained from the plurality of imaging means into an image viewed from above the own vehicle.
【請求項16】 映像変換手段は物体の位置により画面
を強調することを特徴とする請求項14または15記載
の車載用ナビゲーション装置。
16. The in-vehicle navigation device according to claim 14, wherein the image conversion means emphasizes a screen according to a position of the object.
【請求項17】 映像変換手段は物体の位置が自車の位
置から所定の距離内の場合に画面を強調することを特徴
とする請求項16記載の車載用ナビゲーション装置。
17. The in-vehicle navigation device according to claim 16, wherein the image conversion means emphasizes the screen when the position of the object is within a predetermined distance from the position of the own vehicle.
【請求項18】 撮像手段から得られる自車付近の映像
を3次元コンピュータグラフィックスで3次元的に表示
する映像作成手段を有することを特徴とする請求項1乃
至17のいずれかに記載の車載用ナビゲーション装置。
18. The on-vehicle vehicle according to claim 1, further comprising an image creating means for displaying an image of the vicinity of the vehicle obtained from the imaging means in three dimensions by three-dimensional computer graphics. Navigation device.
【請求項19】 音声をステレオで出力するステレオ音
声出力手段を有し、制御手段は物体の位置と自車の位置
との相対的な位置関係に応じて音声の出力を決定するこ
とを特徴とする請求項1乃至18のいずれかに記載の車
載用ナビゲーション装置。
19. A stereo sound output means for outputting sound in stereo, wherein the control means determines the sound output in accordance with a relative positional relationship between the position of the object and the position of the own vehicle. An in-vehicle navigation device according to any one of claims 1 to 18.
JP2000252848A 2000-08-23 2000-08-23 On vehicle navigation system Pending JP2002062148A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000252848A JP2002062148A (en) 2000-08-23 2000-08-23 On vehicle navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000252848A JP2002062148A (en) 2000-08-23 2000-08-23 On vehicle navigation system

Publications (1)

Publication Number Publication Date
JP2002062148A true JP2002062148A (en) 2002-02-28

Family

ID=18742029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000252848A Pending JP2002062148A (en) 2000-08-23 2000-08-23 On vehicle navigation system

Country Status (1)

Country Link
JP (1) JP2002062148A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006195959A (en) * 2004-11-12 2006-07-27 Takata Corp Vehicle safety control system by image processing
JP2008082780A (en) * 2006-09-26 2008-04-10 Clarion Co Ltd Navigation device, its control method, and control program
JP2008308011A (en) * 2007-06-14 2008-12-25 Fujitsu Ten Ltd Driving assistance system and image display device
JP2009067292A (en) * 2007-09-14 2009-04-02 Hitachi Ltd In-vehicle camera system
WO2014090957A1 (en) * 2012-12-12 2014-06-19 Connaught Electronics Ltd. Method for switching a camera system to a supporting mode, camera system and motor vehicle
JP2020182217A (en) * 2020-06-23 2020-11-05 株式会社Jvcケンウッド Bird's-eye video creation device, bird's-eye video creation method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006195959A (en) * 2004-11-12 2006-07-27 Takata Corp Vehicle safety control system by image processing
JP2008082780A (en) * 2006-09-26 2008-04-10 Clarion Co Ltd Navigation device, its control method, and control program
JP2008308011A (en) * 2007-06-14 2008-12-25 Fujitsu Ten Ltd Driving assistance system and image display device
JP2009067292A (en) * 2007-09-14 2009-04-02 Hitachi Ltd In-vehicle camera system
WO2014090957A1 (en) * 2012-12-12 2014-06-19 Connaught Electronics Ltd. Method for switching a camera system to a supporting mode, camera system and motor vehicle
JP2020182217A (en) * 2020-06-23 2020-11-05 株式会社Jvcケンウッド Bird's-eye video creation device, bird's-eye video creation method, and program

Similar Documents

Publication Publication Date Title
JP4400659B2 (en) In-vehicle display device
JP5798392B2 (en) Parking assistance device
KR101446898B1 (en) Vehicle periphery monitoring device
JP5070809B2 (en) Driving support device, driving support method, and program
WO2011039822A1 (en) Parking assistance device
JP4910425B2 (en) Parking assistance device and parking assistance method
JP4067424B2 (en) Vehicle peripheral image processing apparatus, program, and recording medium
JP4904997B2 (en) Parking support method and parking support device
WO2016185691A1 (en) Image processing apparatus, electronic mirror system, and image processing method
JP2007099261A (en) Parking assistance method and parking assistance device
JP4962788B2 (en) Vehicle periphery monitoring device
JPH11108684A (en) Car navigation system
JP2010116086A (en) On-vehicle display, display method, and display program
JP2008279875A (en) Parking support device
JP2021044751A (en) Periphery monitoring device
JP2019186853A (en) Vehicle display control device, vehicle display system, vehicle display control method, and program
JP2006054662A (en) Drive support device
JP2001116567A (en) On-vehicle driving supporting information displaying device
JP2018074286A (en) Driving support device
JP2002062148A (en) On vehicle navigation system
JP2003016595A (en) Traveling support device
JP2023165721A (en) display control device
JP2009067292A (en) In-vehicle camera system
JPH08184457A (en) Vehicle-mounted navigation device
JP2019087909A (en) Image display apparatus and image display system