JP2009186372A - Navigation device and navigation method - Google Patents

Navigation device and navigation method Download PDF

Info

Publication number
JP2009186372A
JP2009186372A JP2008027884A JP2008027884A JP2009186372A JP 2009186372 A JP2009186372 A JP 2009186372A JP 2008027884 A JP2008027884 A JP 2008027884A JP 2008027884 A JP2008027884 A JP 2008027884A JP 2009186372 A JP2009186372 A JP 2009186372A
Authority
JP
Japan
Prior art keywords
information
vehicle
facility
navigation device
landmark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008027884A
Other languages
Japanese (ja)
Inventor
Kengo Suzuki
堅悟 鈴木
Satoyuki Oku
智行 奥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2008027884A priority Critical patent/JP2009186372A/en
Publication of JP2009186372A publication Critical patent/JP2009186372A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation device and navigation method allowing a driver to accurately obtain the intersection at which he/she should turn. <P>SOLUTION: A point to be guided, for example, objects existing around a vehicle at an intersection, is photographed by an on-vehicle camera 11 and held by an image holding section 13, an image processing unit 14 extracts an object serving as a landmark (mark) from the photographed objects (stopping and parking vehicle or facilities on the road side), and an information creating-outputting section 30 creates and outputs presentation information corresponding to the feature of the object extracted as the mark. When the driver approaches the intersection or the like set as the point to be guided during route guide by a route guide arithmetic section 20, the information creating-outputting section 30 converts the presentation information into voice information and outputs from a speaker 32, and/or converts it into character-diagram information and outputs it to a display section 33. As the feature of the object extracted as the mark, at least one of the color, shape, size and advertising information of the object is extracted. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、ナビゲーション装置およびナビゲーション方法に関する。   The present invention relates to a navigation device and a navigation method.

車両のナビゲーションとしてルートをガイドする際の重要な役割の一つとして、交差点における車両の進行方向のガイドがある。   One of the important roles when guiding a route as navigation of a vehicle is to guide the traveling direction of the vehicle at an intersection.

特許文献1の特開2004−205405号公報「ナビゲーション装置」に記載された従来の技術においては、どこで曲がるのかというガイドを行う場合、曲がるべき交差点の名称が伝達されたとしても、ドライバには分かりにくいために、曲がるべき交差点の周辺に存在する施設情報をあらかじめ備えられている地図情報から取得して、交差点におけるガイド情報として用いることを提案している。
特開2004−205405号公報
In the conventional technique described in Japanese Patent Application Laid-Open No. 2004-205405 “Navigation device” in Patent Document 1, when performing guidance on where to turn, the driver knows even if the name of the intersection to be turned is transmitted. Since it is difficult, it has been proposed that facility information existing around an intersection to be turned is acquired from map information prepared in advance and used as guide information at the intersection.
JP 2004-205405 A

前記特許文献1に記載の従来技術は、曲がるべき交差点の周辺に存在する施設情報をあらかじめ備えられている地図データベースから取得して、交差点におけるガイド情報として用いている。よって、地図データベースが作成された時点以降における新たな施設やなくなった施設には対応することができず、古いガイド情報が提示されてしまう可能性がある。従って、実際に曲がるべき交差点に進入しようとしているドライバにとって、目印となる情報を正確に把握することができない可能性がある。   The prior art described in Patent Document 1 acquires facility information existing in the vicinity of an intersection to be turned from a map database provided in advance and uses the information as guide information at the intersection. Therefore, it is not possible to deal with new facilities or facilities that have disappeared since the time when the map database was created, and old guide information may be presented. Therefore, there is a possibility that information that serves as a mark cannot be accurately grasped for a driver who is about to enter an intersection to bend.

本発明は、かかる事情に鑑みてなされたものであり、曲がるべき交差点に車両が進入しようとする際に、曲がるべき交差点をドライバが正確に把握することが可能なナビゲーション装置およびナビゲーション方法を提供することを、その目的としている。   The present invention has been made in view of such circumstances, and provides a navigation device and a navigation method that allow a driver to accurately grasp an intersection to be bent when a vehicle is about to enter the intersection to be bent. That is the purpose.

本発明は、前述の課題を解決するために、ガイドすべき地点における車両周辺に存在する物体を検出し、検出した物体の中から目印となる物体を抽出し、目印として抽出した物体に対応したドライバへの提示情報を生成して出力することを特徴としている。   In order to solve the above-described problem, the present invention detects an object existing around a vehicle at a point to be guided, extracts an object as a mark from the detected objects, and corresponds to the object extracted as the mark. It is characterized by generating and outputting information presented to the driver.

本発明のナビゲーション装置およびナビゲーション方法によれば、目印となる物体が実際に存在していることが保証されているので、ドライバにとって、目印となる物体を正確に把握することができるという効果が得られる。   According to the navigation device and the navigation method of the present invention, since it is guaranteed that the mark object actually exists, there is an effect that the driver can accurately grasp the mark object. It is done.

以下に、本発明によるナビゲーション装置およびナビゲーション方法の最良の実施形態について、図面を参照しながら詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of a navigation device and a navigation method according to the invention will be described in detail with reference to the drawings.

(本発明の特徴)
本発明の実施形態の説明に先立って、本発明の特徴についてその概要をまず説明する。一般に、ガイドすべき地点で、ガイド情報として最も分かり易い情報は、必ずしも、常に固定されているものではなく、時の経過につれて変化していく。本発明は、車載カメラを用いてガイドすべき地点を実際に撮影し、自車の進行方向に存在する適当なランドマーク(目印つまり地理的目印)となる物体を検出して、その特徴を言語情報や文字・図形情報に置き換えて、ドライバに対して、音声情報として聴覚的に提示したり、および/または、文字情報や画像情報として視覚的に提示したりすることを特徴としている。
(Features of the present invention)
Prior to the description of the embodiments of the present invention, an outline of the features of the present invention will be described first. In general, information that is most easily understood as guide information at a point to be guided is not always fixed, and changes with time. The present invention actually captures a point to be guided using an in-vehicle camera, detects an object that is an appropriate landmark (marker or geographical marker) in the traveling direction of the host vehicle, Instead of information and character / graphic information, it is characterized by being presented auditorily as audio information to the driver and / or visually presented as character information and image information.

つまり、ガイドすべき地点例えば曲がるべき交差点に接近している場合など、ルートをガイドする情報をドライバに提供すべきガイドタイミングにおいて、ガイドすべき当該地点例えば交差点周辺に存在する他車両の特徴や路側に存在する施設の特徴を示す情報として、ドライバにとって視認し易い情報、例えば、車体や施設の色・形状・大きさ・車体や施設に記載された看板情報(看板に書かれた文字情報や看板に描かれたシンボルマーク)などを読み取って、言語情報および/または文字情報や図形情報を用いてドライバに提示することを特徴としている。   In other words, when approaching a point to be guided, such as an intersection where a turn is to be made, information on guiding the route should be provided to the driver at the guide timing to be guided, for example, characteristics of other vehicles existing around the intersection or the roadside As information indicating the characteristics of the facility existing in the vehicle, information that is easy for the driver to visually recognize, for example, the color / shape / size of the vehicle body or the facility / signboard information written on the vehicle body / facility (character information or signboard written on the signboard) The symbol mark drawn in (1) is read and presented to the driver using language information and / or character information and graphic information.

さらに説明すれば、本発明は、自車両の目的地への推奨ルート(推奨経路)を算出し、当該推奨ルートに沿ってルートガイドを行うナビゲーション装置において、自車両周辺に存在する物体(他車両や路側の施設など)を撮影して検出する車載カメラや検出した物体までの距離を測距する車載センサを物体検出手段として自車両に具備し、ガイドすべき地点例えば交差点などで右左折などのガイドを行う際に、該車載カメラによって撮影された交差点付近に存在する物体のうち、ドライバから見て目に付き易い物体をガイド用の目印(ランドマーク)として抽出することによって、ドライバに分かりやすいガイドを行うことを可能としている。   More specifically, the present invention calculates a recommended route (recommended route) to the destination of the own vehicle, and in a navigation device that performs route guidance along the recommended route, an object (another vehicle) existing around the own vehicle. The vehicle is equipped with an in-vehicle camera that measures and detects the distance to the detected object as an object detection means, such as a right- or left-turn at a point to be guided, such as an intersection. When performing the guide, among the objects existing near the intersection photographed by the in-vehicle camera, an object that is easy to see from the driver is extracted as a guide mark (landmark) so that the driver can easily understand. It is possible to perform a guide.

(第1の実施形態)
<装置構成>
まず、本発明によるナビゲーション装置およびナビゲーション方法の第1の実施形態について説明する。図1は、本発明によるナビゲーション装置の第1の実施形態のブロック構成を示すブロック構成図である。図1に示すナビゲーション装置は、ドライバにルートのガイド情報を提供する装置として車載されたものであり、対象物認識部10、ルートガイド演算部20、情報生成・出力部30を少なくとも備えて構成されている。
(First embodiment)
<Device configuration>
First, a first embodiment of a navigation device and a navigation method according to the present invention will be described. FIG. 1 is a block configuration diagram showing a block configuration of a first embodiment of a navigation apparatus according to the present invention. The navigation device shown in FIG. 1 is mounted on a vehicle as a device that provides route guide information to a driver, and includes at least an object recognition unit 10, a route guide calculation unit 20, and an information generation / output unit 30. ing.

対象物認識部10は、車両周辺の対象物つまり目印(ランドマーク)となる物体を認識する機能を有しており、車載された1ないし複数のカメラ11、車載されたセンサ12、画像保持部13、画像処理部14、対象物位置関係計算部15を少なくとも備え、ルートガイド演算部20は、ルートガイド情報を演算して求める機能を有しており、ルート情報比較演算部21、ルート演算部22、地図データベース23を少なくとも備え、情報生成・出力部30は、演算によって求められたルートガイド情報をドライバに提供する機能を有しており、情報生成部31、スピーカ32、表示部33を少なくとも備えている。   The object recognition unit 10 has a function of recognizing an object around a vehicle, that is, an object that is a landmark (landmark), and includes one or more cameras 11 mounted on the vehicle, sensors 12 mounted on the vehicle, and an image holding unit. 13, an image processing unit 14, and an object position relationship calculation unit 15. The route guide calculation unit 20 has a function of calculating and obtaining route guide information, and includes a route information comparison calculation unit 21, a route calculation unit. 22, the map database 23 is provided at least, and the information generation / output unit 30 has a function of providing the driver with route guide information obtained by calculation, and includes at least an information generation unit 31, a speaker 32, and a display unit 33. I have.

図1に示す構成例においては、車載されたカメラ11を例えば1ないし複数備え、1ないし複数のカメラ11によって構成されるステレオカメラを用い、さらに、距離を測定する車載用のセンサ12と併用することによって、自車両周辺に存在する物体(他車両や路側の施設など)のうち、ガイドの目印となるような自車両周辺のランドマーク(目印)の位置・特徴を検出し、言語情報および/または文字情報や図形情報に置き換えて、スピーカ32や表示部33から出力することによって、ドライバにガイド情報の提供を行う。   In the configuration example shown in FIG. 1, for example, one or a plurality of on-vehicle cameras 11 are provided, and a stereo camera constituted by one or a plurality of cameras 11 is used, and is further used in combination with a vehicle-mounted sensor 12 that measures a distance. By detecting the position / features of landmarks (markers) around the host vehicle that can be used as guide marks among objects (such as other vehicles and roadside facilities) existing around the host vehicle, language information and / or Alternatively, guide information is provided to the driver by outputting from the speaker 32 or the display unit 33 instead of the character information or graphic information.

つまり、図1に示すように、例えば曲がるべき交差点などのガイドすべき地点において車両周辺に存在する物体(他の車両や路側の施設など)をカメラ11、センサ12などからなる物体検出手段によって検出し、検出した物体の中から、目印抽出手段を提供する画像処理部14により対象物つまりランドマーク(目印)となる物体を抽出して、さらに、その特徴を抽出し、ルートガイド演算部20により算出された目的地までのルートガイド情報に追加する形で、抽出した対象物つまりランドマーク(目印)となる物体を特徴付ける特徴を、情報生成・出力手段を提供する情報生成・出力部30により音声情報および/または文字・図形情報に変換して、提示情報としてドライバに提示する。ここで、情報生成・出力部30は、ルートのガイド中に、車両がガイドすべき地点としてあらかじめ定めた地点例えば曲がるべき交差点などに接近した際に、提示情報を出力するように構成される。   That is, as shown in FIG. 1, for example, an object (such as another vehicle or a roadside facility) existing around the vehicle at a point to be guided, such as an intersection to be turned, is detected by an object detection unit including a camera 11, a sensor 12, and the like. Then, from the detected objects, the image processing unit 14 that provides a landmark extracting means extracts an object, that is, an object that becomes a landmark (a landmark), further extracts its features, and the route guide computing unit 20 In addition to the calculated route guide information to the destination, the features that characterize the extracted object, that is, the object that is the landmark (mark), are voiced by the information generation / output unit 30 that provides the information generation / output unit. It is converted into information and / or character / graphic information and presented to the driver as presentation information. Here, the information generation / output unit 30 is configured to output the presentation information when the vehicle approaches a predetermined point such as an intersection to be turned during the route guide.

次に、図1に示すナビゲーション装置の各構成要素について、それぞれの機能を説明する。対象物認識部10のカメラ11は、前述のように、車載されており、自車両周辺の外界情報(他車両や路側の施設に関する情報)を取得するためのものであり、センサ12は、車載されており、カメラ11によって取得された自車両周辺の外界情報の中から、認識されたランドマーク(目印)について、自車両から該ランドマーク(目印)までの距離を測距するためのセンサ情報を取得するものである。   Next, the function of each component of the navigation device shown in FIG. 1 will be described. As described above, the camera 11 of the object recognition unit 10 is mounted on the vehicle, and is used to acquire external information around the host vehicle (information on other vehicles and roadside facilities). The sensor 12 is mounted on the vehicle. Sensor information for measuring the distance from the vehicle to the landmark (mark) of the recognized landmark (mark) from the outside information around the vehicle acquired by the camera 11 Is something to get.

画像保持部13は、カメラ11によって取得された自車両周辺の画像情報をメモリ上に保持するものであり、画像処理部14は、目印抽出手段を提供するものであり、取得してメモリ上に保持された画像情報の中から対象物つまり目印(ランドマーク)となる物体を抽出し、該対象物つまり目印(ランドマーク)となる物体の特徴を抽出するものである。ここで、対象物つまり目印(ランドマーク)となる物体の特徴とは、対象物(他の車両や路側の施設など)の色、形状・大きさ、対象物に書き込まれた文字やシンボルマークなどの看板情報を少なくとも含む目に付き易い情報のことである。   The image holding unit 13 holds image information around the host vehicle acquired by the camera 11 on a memory, and the image processing unit 14 provides a mark extraction unit. An object to be a target, that is, a landmark (landmark) is extracted from the held image information, and a feature of the object to be the target, that is, a landmark (landmark) is extracted. Here, the characteristics of the target object, that is, the landmark (landmark), are the color, shape and size of the target object (such as other vehicles and roadside facilities), characters and symbol marks written on the target object, etc. It is information that is easily noticeable including at least the signboard information.

対象物位置関係計算部15は、センサ12にて取得したセンサ情報を用いて画像処理部14において抽出されたランドマーク(目印)と自車両との間の距離を算出するものである。   The object position relationship calculating unit 15 calculates the distance between the landmark (mark) extracted by the image processing unit 14 and the host vehicle using the sensor information acquired by the sensor 12.

ルートガイド演算部20のルート情報比較演算部21は、ナビゲーション用のルートガイダンス情報を参照して、ドライバに通知すべきガイド地点に差し掛かっている旨を示すガイドタイミングを検出するものである。   The route information comparison calculation unit 21 of the route guide calculation unit 20 refers to the route guidance information for navigation and detects a guide timing indicating that a guide point to be notified to the driver is approaching.

情報生成・出力部30の情報生成部31は、ルート情報比較演算部21において、ガイドすべきガイド地点に接近していると判定された際につまりガイド地点に差し掛かっている旨を示すガイドタイミングに達したことが検出された際に、ルートガイド演算部20において現在生成されているルートガイド情報(言語情報や図形・文字情報)に対して、対象物認識部10の演算結果を用いて、目印抽出手段である画像処理部14にて新たに抽出された別のランドマーク情報に関するルートガイド情報(言語情報や図形・文字情報)を生成して提示情報として付加して出力するものである。   The information generation unit 31 of the information generation / output unit 30 uses the guide timing indicating that the route information comparison calculation unit 21 is approaching the guide point to be guided, that is, the guide point indicating that the guide point is approaching. When it is detected that the route guide has been reached, the route guide calculation unit 20 uses the calculation result of the object recognition unit 10 for the route guide information (language information and graphic / character information) currently generated. Route guide information (language information and graphic / character information) relating to other landmark information newly extracted by the image processing unit 14 serving as extraction means is generated, added as presentation information, and output.

さらに、生成された別のランドマーク情報に関するルートガイド情報(言語情報や図形・文字情報)に対して、情報の冗長性チェックを行い、冗長な情報を、出力する提示情報から削除する処理を行う。また、提示情報を音声情報に変換して、車載のスピーカ32から出力するために、音声合成を用いて生成するとともに、提示情報を文字情報や図形情報に変換して、表示部33のモニタ画面に表示するために、表示情報を生成する。   Furthermore, information redundancy check is performed on the route guide information (language information and graphic / character information) related to the generated other landmark information, and the redundant information is deleted from the output presentation information. . In addition, in order to convert the presentation information into voice information and output it from the vehicle-mounted speaker 32, the voice information is generated using voice synthesis, and the presentation information is converted into character information or graphic information. Display information is generated for display.

情報生成・出力部30のスピーカ32は、車載されており、情報生成部31において生成されたルートガイド情報に関連する言語情報(音声情報)を出力するためのものであり、表示部33は、車載されており、情報生成部31において生成されたルートガイド情報に関連する表示情報(文字情報や図形情報)をモニタ画面に表示するためのものである。   The speaker 32 of the information generation / output unit 30 is mounted on the vehicle, and is used to output language information (voice information) related to the route guide information generated by the information generation unit 31. The display unit 33 The display information (character information and graphic information) related to the route guide information generated by the information generation unit 31 is displayed on the monitor screen.

ルートガイド演算部20のルート演算部22は、一般のナビゲーション機能を有しているものであり、目的地を設定したときに、現在地から目的地までの到達ルートを演算するものであり、地図データベース23は、ナビゲーション機能において用いられる地図情報を蓄積しているデータベースである。   The route calculation unit 22 of the route guide calculation unit 20 has a general navigation function, and calculates the arrival route from the current location to the destination when the destination is set. A database 23 stores map information used in the navigation function.

<動作例の説明>
次に、図1のナビゲーション装置の動作の一例について、図2に示すフローチャートを用いて説明する。図2は、図1に示すナビゲーション装置の動作の一例を示すフローチャートであり、本発明によるナビゲーション方法の一例を示している。
<Description of operation example>
Next, an example of the operation of the navigation device of FIG. 1 will be described using the flowchart shown in FIG. FIG. 2 is a flowchart showing an example of the operation of the navigation apparatus shown in FIG. 1, and shows an example of the navigation method according to the present invention.

まず、対象物つまり目印(ランドマーク)となる物体の特徴を抽出する処理の流れについて、対象物つまり目印(ランドマーク)となる物体が駐車車両の場合を例にとって説明する。なお、図2には、対象物つまり目印(ランドマーク)となる物体が駐車車両である場合について説明するが、ランドマーク(目印)となる物体は、駐車車両のみに限るものではなく、路側の施設などガイドすべき地点の特徴を示す目印となる対象物であれば、如何なるものであってもかまわない。   First, the flow of processing for extracting the characteristics of an object that becomes an object, that is, a landmark (landmark) will be described by taking as an example the case where the object, that is, the object that becomes the landmark (landmark), is a parked vehicle. Note that FIG. 2 illustrates the case where the object, that is, the object that is the landmark (landmark) is a parked vehicle, but the object that is the landmark (mark) is not limited to the parked vehicle, Any object may be used as long as it is a mark indicating the characteristics of a point to be guided such as a facility.

また、図2のフローチャートは、ルートのガイド中に、車両がガイドすべき地点としてあらかじめ定めた地点に接近した際に、つまり、ガイド情報を出力すべきガイドタイミングに達した際に、ドライバにとって視認し易いランドマーク(目印)となる物体に関するガイド情報を提示情報としてドライバに提示するために起動される。   Further, the flowchart of FIG. 2 shows that when the vehicle approaches a predetermined point as a point to be guided during the route guide, that is, when the guide timing at which the guide information is to be output is reached, the driver visually recognizes the route. It is activated in order to present guide information regarding an object that is an easy-to-use landmark (mark) to the driver as presentation information.

図2のフローチャートにおいて、まず、車載されたカメラ11を用いて、対象物つまり目印(ランドマーク)となる物体の候補となり得る車両が自車両の進行方向上に存在しているか否かを監視し続ける(ステップS1)。車載カメラ11により撮影されてメモリに保持された画像情報を画像処理部14にて参照して、対象物つまり目印(ランドマーク)となる物体の候補とすべき車両が検出されない場合は(ステップS1の「対象候補未検出」の場合)、対象物つまり目印(ランドマーク)となる物体の候補が検出されるまで、ステップS1の動作を継続し、車載カメラ11により自車両の前方の監視を継続することになる。   In the flowchart of FIG. 2, first, using the vehicle-mounted camera 11, it is monitored whether or not a vehicle that can be a candidate for an object, that is, a landmark (landmark) object, exists in the traveling direction of the host vehicle. Continue (step S1). When the image processing unit 14 refers to the image information captured by the in-vehicle camera 11 and stored in the memory, when a vehicle that should be a candidate for an object, that is, a landmark (landmark), is not detected (step S1) In the case of “target candidate not detected”, the operation of step S1 is continued until the candidate of the target object, that is, the landmark (landmark), is detected, and the vehicle camera 11 continues to monitor the front of the host vehicle. Will do.

一方、画像処理部14にて対象物つまり目印(ランドマーク)となる物体の候補となり得る車両が自車両の進行方向上に検出されると(ステップS1の「対象候補検出」の場合)、走行中ではなく駐車している車両であるか否かを判別するために、センサ12からのセンサ情報に基づいて、自車両との相対速度の検出を行う(ステップS2)。   On the other hand, when the image processing unit 14 detects a vehicle that can be a candidate for an object, that is, a landmark (landmark), in the traveling direction of the host vehicle (in the case of “target candidate detection” in step S1), the vehicle travels. In order to determine whether the vehicle is parked instead of being in the vehicle, the relative speed with respect to the host vehicle is detected based on the sensor information from the sensor 12 (step S2).

対象物位置関係計算部15にて、自車両の速度と検出された相対速度との和を計算し、和が“0”であるか否かによって、検出された対象車両が止まっているか、走行しているかの判別を行う(ステップS3)。計算された和が“0”ではない場合には(ステップS3の「0ではない」の場合)、対象物つまり目印(ランドマーク)となる物体の候補として検出した車両は停車していない(駐車車両ではない)ものと判断し、ステップS1に復帰して再び車両前方の監視を継続する。   The object position relation calculation unit 15 calculates the sum of the speed of the host vehicle and the detected relative speed, and whether the detected target vehicle is stopped or traveled depending on whether the sum is “0” or not. It is determined whether or not it is being performed (step S3). If the calculated sum is not “0” (in the case of “not 0” in step S3), the vehicle detected as a candidate for the target object, that is, a landmark (landmark) object, has not stopped (parking). It is determined that the vehicle is not a vehicle) and the process returns to step S1 to continue monitoring the front of the vehicle again.

一方、計算された和が“0”であった場合(ステップS3の「0である」場合)、対象物つまり目印(ランドマーク)となる物体の候補として検出した車両は、駐車車両であるものと判断し、対象とする当該駐車車両の輪郭の読み取りを行う(ステップS4)。   On the other hand, when the calculated sum is “0” (in the case of “0” in step S3), the vehicle detected as a candidate for the object, that is, the object that becomes a landmark, is a parked vehicle. And the outline of the target parked vehicle is read (step S4).

対象物つまり目印(ランドマーク)となる物体である当該駐車車両の輪郭を抽出して、当該駐車車両の領域を検出した後、次に、当該領域つまり当該駐車車両の色の判別を行うために、データベースとしてあらかじめ設定されている色名称テーブルCNT(Color Name Table)の読み込みを行う(ステップS5)。色名称テーブルCNTは、検出された色コード(例えばRGBの組み合わせ)と言語情報や図形・文字情報で出力する際に用いる色名称との対応関係を保持している互換表である。なお、色名称テーブルCNTを、走行シーン(例えば、昼間・夜間の切替え)やドライバの特性(色覚に関わる個人性)に合わせて差し替えることによって、例えば、同じ赤色であっても、「赤みがかった色」とか「深紅」とか「夕焼け色」とか「炎状の赤」とか「赤銅色」とか「レッド」とか、シーンやドライバの特性に応じて、ドライバにとってより理解し易い表現方法として、対象物つまり目印(ランドマーク)となる物体に関する情報(特徴)をドライバに提示するときに用いる言語情報や図形・文字情報への変換方法を制御することが可能になる。   To extract the contour of the parked vehicle, which is an object, that is, a mark (landmark) object, and detect the parked vehicle region, and then to determine the color of the parked vehicle, that is, the parked vehicle Then, a color name table CNT (Color Name Table) preset as a database is read (step S5). The color name table CNT is a compatibility table that holds a correspondence relationship between a detected color code (for example, a combination of RGB) and a color name used when outputting language information or graphic / character information. By replacing the color name table CNT according to the driving scene (for example, switching between daytime and nighttime) and the characteristics of the driver (personality related to color vision), for example, even if the color is the same red, “reddish color '', `` Crimson '', `` sunset color '', `` flame red '', `` bronze color '', `` red '', etc., depending on the scene and driver characteristics, the object, It becomes possible to control the conversion method into the language information and graphic / character information used when the information (features) related to the object to be the landmark (landmark) is presented to the driver.

次に、画像情報として読み込んだ対象駐車車両の領域の単位平面(単位セル)ごとに、色情報として色名称テーブルCNTに保持されている色名称の検出を行う(ステップS6)。しかる後、対象駐車車両の領域の単位平面(単位セル)ごとに検出された色名称について、ドライバにとって視認し易い情報として、色情報が対象物つまり目印(ランドマーク)となる物体を特徴付ける情報であるか否かの判別用としてあらかじめ定めた閾値以上の割合を占めているか否かを判別することによって、対象駐車車両の色が凡そどの色であるかを判別する(ステップS7)。   Next, the color name held in the color name table CNT as color information is detected for each unit plane (unit cell) of the area of the target parked vehicle read as image information (step S6). After that, the color name detected for each unit plane (unit cell) in the area of the target parked vehicle is information that characterizes the object whose color information is the object, that is, the landmark (landmark), as information that is easily visible to the driver. It is determined whether or not the color of the target parked vehicle is approximately by determining whether or not it occupies a ratio equal to or greater than a predetermined threshold for determining whether or not there is (step S7).

単位平面(単位セル)ごとに検出された色情報として、特定の色名称が、前記閾値以上例えば3割以上のセル数を占めている場合には(ステップS7のYesの場合)、対象駐車車両に関する情報をドライバに提供する際に、当該色名称を用いて提供することが可能であるものと判断して、3割以上を示す色名称を、ガイド内容として色情報を使うことが可能な情報として保持する(ステップS8)。このとき、複数の色(例えば赤色と青色)を示す色名称が、前記閾値以上例えば3割以上の割合で存在している場合には、例えば「赤と青」のように複数の色名称を併記する形式でそれぞれの色名称を保持する。   As a color information detected for each unit plane (unit cell), when a specific color name occupies more than the threshold value, for example, 30% or more cells (Yes in step S7), the target parked vehicle When providing information on the driver to the driver, it is determined that it can be provided using the color name, and color information indicating 30% or more can be used as color guide information. (Step S8). At this time, when color names indicating a plurality of colors (for example, red and blue) are present at a ratio of not less than the threshold value, for example, 30% or more, a plurality of color names such as “red and blue” are selected. Each color name is retained in the format shown.

一方、単位平面(単位セル)ごとに検出された色情報として、いずれの色名称についても、前記閾値以上例えば3割以上のセル数を占めていない場合には(ステップS7のNoの場合)、色情報は、対象駐車車両を特徴付ける情報ではなく、ドライバにとって視認し易い情報ではないものと判断して、ガイド内容として保持しないことにして、ステップS9へ移行する。なお、色情報が対象物つまり目印(ランドマーク)となる物体を特徴付ける情報であるか否かの判別用としてあらかじめ定めた閾値は、任意の割合に適宜変更して設定することが可能である。   On the other hand, as color information detected for each unit plane (unit cell), if any color name does not occupy more than the threshold, for example, 30% or more cells (No in step S7), The color information is not information that characterizes the target parked vehicle, but is not information that is easily visible to the driver, and is not held as guide content, and the process proceeds to step S9. Note that the threshold value determined in advance for determining whether or not the color information is information that characterizes an object that is an object, that is, a landmark (landmark), can be appropriately changed and set to an arbitrary ratio.

次に、対象駐車車両の形状・大きさを判別するための処理へ移る。最初に、対象駐車車両のナンバープレートの読み取りを行うための準備を行う。つまり、ナンバープレートを読み取ることができるか否かを確認する(ステップS9)。例えば、対象駐車車両が横向きに駐車していた場合には(ステップS9のNoの場合)、ナンバープレートを読み取ることができないので、ステップS13の処理に移行する。   Next, the process proceeds to processing for determining the shape and size of the target parked vehicle. First, preparations are made for reading the license plate of the subject parked vehicle. That is, it is confirmed whether or not the license plate can be read (step S9). For example, when the target parked vehicle is parked sideways (in the case of No in step S9), the license plate cannot be read, and the process proceeds to step S13.

一方、ナンバープレートが見える状態で駐車していて、ナンバープレートを読み取ることができる場合には(ステップS9のYesの場合)、ナンバープレートの位置を検出し、ナンバープレートの読み取りの準備を行う(ステップS10)。次いで、ナンバープレートに記載されている情報のうち、分類番号(例えば、「相模220−×××」の場合、「220」の部分)の情報を読み取る(ステップS11)。さらに、読み取った分類番号を用いて、データベースとしてあらかじめ設定されている車両形状テーブルつまり分類番号テーブルCLT(Classified Number Table)を参照して、対象駐車車両の分類(車種)が何であるかを判別し、分類番号に相当する車種の車両形状を抽出する(ステップS12)。   On the other hand, if the vehicle is parked in a state where the license plate is visible and the license plate can be read (Yes in step S9), the position of the license plate is detected and preparation for reading the license plate is performed (step S9). S10). Next, information of a classification number (for example, “220” in the case of “Sagami 220-xxx”) is read from information written on the license plate (step S11). Furthermore, using the read classification number, the vehicle shape table that is set in advance as a database, that is, the classification number table CLT (Classified Number Table), is used to determine what the classification (vehicle type) of the target parked vehicle is. Then, the vehicle shape of the vehicle type corresponding to the classification number is extracted (step S12).

次に、ステップS4において検出しておいた対象駐車車両の輪郭の大きさから、当該対象駐車車両の縦・横方向の長さを推定する(ステップS13)。次いで、対象駐車車両の縦・横方向の長さを用いて、データベースとしてあらかじめ設定登録されている車両サイズテーブルVST(Vehicle Size Table)を参照して、対象駐車車両の輪郭を示す縦・横方向の長さがあらかじめ登録されている領域のいずれかに収まっている場合、縦・横の長さと表現方法との対応表から、当該対象駐車車両の縦・横方向の長さを、対象物つまり目印(ランドマーク)となる物体に関する情報(特徴)をドライバに提示するときに用いる言語情報や図形・文字情報へ変換する(ステップS14)。例えば、対象駐車車両の幅(横)が2,300mm以上、高さ(縦)が2,800mm以上の車両であると推定した場合には、「大型車」という表現方法に変換する。   Next, the length of the target parked vehicle in the vertical and horizontal directions is estimated from the size of the contour of the target parked vehicle detected in step S4 (step S13). Next, using the lengths in the vertical and horizontal directions of the target parked vehicle, the vehicle size table VST (Vehicle Size Table) set and registered in advance as a database is used to indicate the outline of the target parked vehicle in the vertical and horizontal directions. If the length of the vehicle falls within one of the pre-registered areas, the vertical / horizontal length of the target parked vehicle is Information (features) related to an object that is a landmark is converted into language information, graphic / character information used when presenting to the driver (step S14). For example, when it is estimated that the target parked vehicle is a vehicle having a width (horizontal) of 2,300 mm or more and a height (vertical) of 2,800 mm or more, it is converted into an expression method of “large vehicle”.

一方、当該対象駐車車両の縦・横方向の長さが、あらかじめ登録されている領域のいずれにも収まっていない場合、つまり、あらかじめ設定登録されている車両サイズテーブルVSTのいずれの領域にも該当していない場合、縦・横方向の長さつまり大きさは、当該対象駐車車両を特徴付ける特徴ではないものと判定して、ガイド情報として保持しないことにする。   On the other hand, when the length of the target parked vehicle in the vertical and horizontal directions does not fit in any of the pre-registered areas, that is, it corresponds to any area of the vehicle size table VST set and registered in advance. If not, the length or size in the vertical / horizontal direction is determined not to be a characteristic characterizing the target parked vehicle, and is not held as guide information.

ここで、本実施形態においては、対象駐車車両の車両形状・大きさを特徴付けるための情報として、ステップS12において、対象駐車車両のナンバープレートから求めた分類番号に基づく車両形状に関する情報、または、ステップS14において、対象駐車車両の輪郭情報から得られた縦・横方向の長さに基づく車両の大きさに関する情報、のいずれかを用いる。このため、ステップS11において対象駐車車両のナンバープレートから分類番号が取得されていたか否かを判別する(ステップS15)。   Here, in the present embodiment, as information for characterizing the vehicle shape / size of the target parked vehicle, information on the vehicle shape based on the classification number obtained from the license plate of the target parked vehicle in step S12, or step In S14, any one of the information regarding the size of the vehicle based on the length in the vertical and horizontal directions obtained from the contour information of the target parked vehicle is used. For this reason, it is discriminate | determined whether the classification number was acquired from the number plate of the object parked vehicle in step S11 (step S15).

分類番号が取得できていた場合には(ステップS15のYes)、ステップS12において、分類番号に基づいて求めた対象駐車車両の車両形状に関する情報を、対象駐車車両を特徴付ける情報つまりドライバに提供することが可能なガイド情報として保持する(ステップS16)。一方、分類番号が取得できていなかった場合には(ステップS5のYes)、ステップS14において、対象駐車車両の輪郭情報から得られた縦・横方向の長さに基づいて求めた車両の大きさに関する情報を、対象駐車車両を特徴付ける情報つまりドライバに提供することが可能なガイド情報として保持する(ステップS17)。   If the classification number has been acquired (Yes in step S15), in step S12, information relating to the vehicle shape of the target parked vehicle obtained based on the classification number is provided to information that characterizes the target parked vehicle, that is, the driver. Is stored as possible guide information (step S16). On the other hand, if the classification number has not been acquired (Yes in step S5), the size of the vehicle obtained based on the length in the vertical and horizontal directions obtained from the contour information of the target parked vehicle in step S14. Is stored as information characterizing the target parked vehicle, that is, as guide information that can be provided to the driver (step S17).

次に、対象駐車車両の車体や屋根に文字・シンボルマーク情報などが記載された看板情報があるか否かを確認する(ステップS18)。対象駐車車両の車体や屋根の看板に何らかの文字情報が記載されている場合には(ステップS18の「文字情報がある」場合)、対象駐車車両の車体や屋根の看板に記載されている文字情報の読み取りを行う(ステップS19)。次に、読み取った文字情報からなる文章の表現内に固有表現が含まれているか否かを検索する(ステップS20)。   Next, it is confirmed whether or not there is signboard information in which characters / symbol mark information and the like are written on the body or roof of the target parked vehicle (step S18). When some character information is described on the signboard of the target parked vehicle or the roof (when “character information is present” in step S18), the character information described on the signboard of the target parked vehicle body or roof Is read (step S19). Next, it is searched whether or not the unique expression is included in the expression of the text composed of the read character information (step S20).

ここで、固有表現とは、固有名詞もしくはその組み合わせからなるものであり、固有名詞もしくはその組み合わせとして、複数の単語から構成される単語列のどこまでが個人名称あるいは会社名称であるかを判別する。なお、固有表現の検出に当って読み取った文字列の形態素解析を行うために、データベースとしてあらかじめ設定されている形態素解析用辞書MAD(Morphological Analysis Dictionary)を用いる。   Here, the proper expression is made up of proper nouns or combinations thereof, and it is determined how far a word string composed of a plurality of words is an individual name or a company name as proper nouns or combinations thereof. Note that a morphological analysis dictionary MAD (Morphological Analysis Dictionary) set in advance as a database is used in order to perform morphological analysis of the character string read in detecting the specific expression.

読み取った文字情報に固有表現が含まれている場合には(ステップS20の「固有表現がある」場合)、含まれている当該固有表現を、対象駐車車両を特徴付ける情報つまりドライバに提供することが可能なガイド情報を示す看板情報(文字情報)として保持する(ステップS21)。一方、読み取った文字情報に固有表現が含まれていない場合は(ステップS20の「固有表現がない」場合)、看板情報(文字情報)は、対象駐車車両を特徴付ける情報(特徴)ではないものと判定する。   When the read character information includes a specific expression (when “the specific expression exists” in step S20), the included specific expression may be provided to information that characterizes the target parked vehicle, that is, the driver. It is stored as signboard information (character information) indicating possible guide information (step S21). On the other hand, if the read character information does not include a unique expression (“no specific expression” in step S20), the signboard information (character information) is not information (characteristic) characterizing the target parked vehicle. judge.

また、ステップS18において、対象駐車車両の車体や屋根の看板に何らかのシンボルマークが記載されている場合には(ステップS18の「シンボルマーク情報がある」場合)、対象駐車車両の車体や屋根の看板に記載されているシンボルマークを読み取る(ステップS22)。次に、読み取ったシンボルマークがガイド情報として提供可能な既知のシンボルマークであるか否かを判別するために、データベースとしてあらかじめ設定されているシンボルマークデータベースSMD(Symbol Mark Database)を検索する(ステップS23)。   In addition, if any symbol mark is written on the signboard of the body or roof of the target parked vehicle in step S18 (when “symbol mark information is present” in step S18), the signboard of the body or roof of the target parked vehicle. Are read (step S22). Next, in order to determine whether or not the read symbol mark is a known symbol mark that can be provided as guide information, a symbol mark database SMD (Symbol Mark Database) set in advance as a database is searched (step S1). S23).

シンボルマークデータベースSMDに収録されているシンボルマークとの一致が得られた場合には(ステップS23の「シンボルマーク情報がある」場合)、一致したシンボルマーク情報に対応してシンボルマークデータベースSMDに収録されている音声情報、図形・文字情報を、対象駐車車両を特徴付ける情報つまりドライバに提供することが可能なガイド情報を示す看板情報(シンボルマーク情報)として保持する(ステップS24)。一方、読み取ったシンボルマークが、シンボルマークデータベースSMDのいずれのシンボルマークとも一致しなかった場合は(ステップS23の「シンボルマーク情報がない」場合)、看板情報(シンボルマーク情報)は、対象駐車車両を特徴付ける情報(特徴)ではないものと判定する。   When a match with the symbol mark recorded in the symbol mark database SMD is obtained (when “symbol mark information exists” in step S23), the symbol mark database SMD is recorded corresponding to the matched symbol mark information. The voice information and graphic / character information that is provided is held as signboard information (symbol mark information) indicating information characterizing the target parked vehicle, that is, guide information that can be provided to the driver (step S24). On the other hand, when the read symbol mark does not match any symbol mark in the symbol mark database SMD (in the case of “no symbol mark information” in step S23), the signboard information (symbol mark information) is the target parked vehicle. It is determined that it is not information (characteristic) that characterizes.

以上の処理を行うことによって、目印抽出手段である画像処理部14は、目印とする物体として他の駐車車両を抽出する際に、該駐車車両の色、形状、大きさ、あるいは、該駐車車両の車体に描かれたまたは屋根に敷設された看板情報のうち少なくとも一つを、該駐車車両を特徴付ける特徴として抽出するが、該駐車車両の色、形状・大きさ、看板情報の抽出が終わった後は、得られた駐車車両を特徴付ける各特徴すなわち各ガイド情報の統合を行い、統合した特徴すなわちガイド情報を、目印とする物体に関する提示情報として生成してドライバに提示する。特に、目印とする物体の駐車車両を特徴付ける特徴として、色、形状、大きさ、あるいは、該駐車車両の車体または該施設に描かれたまたは屋根に敷設された看板情報のうち、いずれか複数のガイド情報とすべき特徴が得られた場合、複数の特徴を統合したガイド情報を生成し、複数の特徴が統合されたガイド情報は、図3に例示するルートガイド生成ルールに従って、冗長部分の省略などを行い、ルートガイド情報としての最適化を実施する。図3は、本発明によるナビゲーション装置に適用するルートガイド生成ルールの一例を示すテーブルである。   By performing the above processing, when the image processing unit 14 serving as a mark extraction unit extracts another parked vehicle as the mark object, the color, shape, size, or parked vehicle of the parked vehicle is extracted. At least one of the signboard information drawn on the body of the car or laid on the roof is extracted as a characteristic characterizing the parked vehicle, but the extraction of the color, shape / size, and signboard information of the parked vehicle is over After that, each characteristic that characterizes the obtained parked vehicle, that is, each guide information is integrated, and the integrated characteristic, that is, the guide information is generated as presentation information regarding the object as a landmark and presented to the driver. In particular, as a feature characterizing the parked vehicle of the object as a landmark, any one of the color, shape, size, or signboard information drawn on the body of the parked vehicle or the facility or laid on the roof When a feature to be used as guide information is obtained, guide information in which a plurality of features are integrated is generated, and the guide information in which a plurality of features are integrated is omitted according to the route guide generation rule illustrated in FIG. Etc., and optimize as route guide information. FIG. 3 is a table showing an example of a route guide generation rule applied to the navigation device according to the present invention.

図3に示すように、対象駐車車両の特徴を示すガイド情報が得られた場合の統合ガイド情報として、
(1)車両の色情報の有無、
(2)車両の形状・大きさ情報の有無
(3)車両の看板情報の有無
のうち、いずれも「無」の場合を除く7通りの組合せがあり、いずれか1つの情報しか得られない場合の3種類のパターン1、色情報と形状・大きさ情報とが得られた場合の1種類のパターン2、看板情報を含めて他の情報も同時に得られた場合のそれぞれ1種類ずつのパターン3〜5に分類される。
As shown in FIG. 3, as the integrated guide information when the guide information indicating the characteristics of the target parked vehicle is obtained,
(1) Presence or absence of vehicle color information,
(2) Presence / absence of vehicle shape / size information (3) There are 7 combinations of presence / absence of vehicle signage information except for the case of “None”, and only one of them can be obtained 3 types of pattern 1, one type of pattern 2 when color information and shape / size information are obtained, and one type of pattern 3 when other information including signboard information is obtained at the same time It is classified into ~ 5.

図3の「ルートガイド」欄に示すように、例えば、パターン1の統合ガイド情報として、車両の色情報のみが得られた場合、「赤い車が止まっている交差点を…」というガイド情報が出力され、また、パターン1の統合ガイド情報として、車両の形状・大きさ情報のみが得られた場合、「バスが止まっている交差点を…」というガイド情報が出力され、また、パターン1の統合ガイド情報として、車両の看板情報のみが得られた場合、「小田急バスが止まっている交差点を…」というガイド情報が出力される。   As shown in the “Route Guide” column of FIG. 3, for example, when only the color information of the vehicle is obtained as the integrated guide information of the pattern 1, the guide information “the intersection where the red car stops” is output. If only the vehicle shape / size information is obtained as the integrated guide information of pattern 1, the guide information “the intersection where the bus stops” is output, and the integrated guide of pattern 1 is also output. When only the signboard information of the vehicle is obtained as information, the guide information “The intersection where the Odakyu bus stops” is output.

また、パターン2の統合ガイド情報として、色情報と形状・大きさ情報とが得られた場合、「赤いバスが止まっている交差点を…」というガイド情報が出力され、パターン3の統合ガイド情報として、色情報と看板情報とが得られた場合、「赤い小田急バスが止まっている交差点を…」というガイド情報が出力される。   When the color information and the shape / size information are obtained as the integrated guide information of the pattern 2, the guide information “the intersection where the red bus stops” is output, and the integrated guide information of the pattern 3 is output. When the color information and the signboard information are obtained, the guide information “The intersection where the red Odakyu bus stops” is output.

一方、パターン4の統合ガイド情報として、形状・大きさ情報と文字情報からなる看板情報とが得られた場合、「小田急バスのバスが止まっている交差点を…」というガイド情報が出力され、パターン5の統合ガイド情報として、色情報と形状・大きさ情報と文字情報からなる看板情報とが得られた場合、「赤い小田急バスのバスが止まっている交差点を…」というガイド情報が出力される状態になり、パターン4,5においては、このままでは、「バス」という同じ語句が重複して出力されてしまう。   On the other hand, when signboard information consisting of shape / size information and character information is obtained as the integrated guide information of pattern 4, guide information “the intersection where the Odakyu bus stops” is output, and the pattern information When the sign information including the color information, the shape / size information, and the character information is obtained as the integrated guide information 5, guide information “The intersection where the red Odakyu bus stops” is output. In the patterns 4 and 5, the same word “bus” is output redundantly in this state.

また、看板情報としてシンボルマークが取得された場合についても、文字情報の場合と同様であり、図示していないが、例えば、「赤色の小田急バスマークが付いている赤色のバスが止まっている交差点を…」と、同じ語句が重複して出力される可能性がある。   In addition, the case where the symbol mark is acquired as the signboard information is the same as the case of the character information, which is not shown in the figure. For example, “the intersection where the red bus with the red Odakyu bus mark stops "...", the same word may be output twice.

つまり、ガイド情報として冗長な表現が生じる可能性が生じる場合は、図3の破線で囲んだように、看板情報が他の情報と同時に取得ができた場合のみに限られており、図3の一点鎖線にて囲んだパターン3〜5の場合つまり看板情報が他の情報と同時に取得された場合にのみ、表現内容に冗長な表現があるか否かについてつまり生成されたルートガイド情報の冗長性をチェックする。   In other words, the possibility of redundant expression as guide information is limited to the case where signboard information can be acquired at the same time as other information as shown by the broken line in FIG. Only in the case of patterns 3 to 5 surrounded by a one-dot chain line, that is, when signboard information is acquired simultaneously with other information, whether or not there is a redundant expression in the expression contents, that is, the redundancy of the generated route guide information Check.

したがって、看板情報が他の情報と同時に取得ができた場合には、統合されたガイド情報に冗長な表現が含まれているか否かを確認して、冗長な表現を削除する処理を行い、ガイド情報として最適化する。しかる後、最適化されたガイド情報を、言語情報や図形・文字情報として出力することにより、ナビゲーションとしての動作を終了する。   Therefore, when the signboard information can be acquired simultaneously with other information, it is checked whether or not the redundant information is included in the integrated guide information, and the redundant expression is deleted. Optimize as information. Thereafter, the optimized guide information is output as linguistic information, graphic / character information, and the operation as navigation is terminated.

なお、図2のフローチャートにおいては、ルートガイド情報として追加されるガイド情報の対象物つまりランドマーク(目印)となる物体として、ガイド地点に駐車している駐車車両の場合を例にとって説明したが、ガイドすべき地点としてあらかじめ設定された地点の路側に設置されている建造物(建物や看板)つまり施設をランドマーク(目印)となる物体として用いる場合であっても、図2のフローチャートと全く同様に、ガイド情報として生成してドライバに提示することが可能である。   In the flowchart of FIG. 2, as an example of the case of a parked vehicle parked at a guide point as an object of guide information added as route guide information, that is, an object to be a landmark (mark), Even when a building (building or signboard) installed on the roadside of a point set in advance as a point to be guided, that is, a facility is used as an object to be a landmark (mark), it is exactly the same as the flowchart of FIG. In addition, it can be generated as guide information and presented to the driver.

例えば、目印として利用することができる施設としては、ネオンサインのように発光していたり、目立つ色が塗布されていたり、超高層ビルなどのように大きさが巨大であったり、塔のように目立つ形状であったり、記載されている看板の文字が大きかったり、目立つ形状のシンボルマークが表示されていたりするなど、ドライバにとって視認し易い特徴を有する施設であれば、如何なる施設であってもかまわない。   For example, as a facility that can be used as a landmark, it emits light like a neon sign, is painted with a conspicuous color, is huge in size such as a skyscraper, or like a tower Any facility can be used as long as it has a feature that is easy to see for the driver, such as a conspicuous shape, a large sign on the written signboard, or a symbol mark with a conspicuous shape. Absent.

ただし、特徴として施設の形状を抽出する場合には、次のような処理を行う。図2のフローチャートの説明において、駐車車両の形状を、該駐車車両を特徴付ける特徴として抽出する場合、ナンバープレートの読み取り結果によりあらかじめ設定されている車種の車両形状テーブルつまり分類番号テーブルCLTを参照した結果に基づいて、該当する車両の形状を抽出し、一方、該車両のナンバープレートを読み取ることができなかった場合には、形状が該駐車車両を特徴付ける特徴ではないものと判定していた。   However, when extracting the shape of the facility as a feature, the following processing is performed. In the description of the flowchart of FIG. 2, when extracting the shape of a parked vehicle as a characteristic characterizing the parked vehicle, a result of referring to a vehicle shape table of a vehicle type that is set in advance based on a result of reading a license plate, that is, a classification number table CLT On the other hand, if the shape of the corresponding vehicle is extracted and the license plate of the vehicle cannot be read, it is determined that the shape is not a characteristic characterizing the parked vehicle.

これに対して、施設の形状を、該施設を特徴付ける特徴として抽出する場合には、あらかじめ登録されている施設形状テーブルを備え、分類番号テーブルCLTを参照する代わりに、ランドマーク(目印)となる物体として検出した施設の形状と該施設形状テーブルとのパターンマッチング結果に基づいて、該当する施設の形状を抽出し、一方、前記施設形状テーブル中に該施設の形状と一致するパターンが存在していなかった場合は、形状が該施設を特徴付ける特徴ではないものと判定することにすれば良い。   On the other hand, when a facility shape is extracted as a feature characterizing the facility, a facility shape table registered in advance is provided, and instead of referring to the classification number table CLT, it becomes a landmark (a landmark). Based on the pattern matching result between the facility shape detected as an object and the facility shape table, the shape of the corresponding facility is extracted. On the other hand, there is a pattern that matches the shape of the facility in the facility shape table. If not, it may be determined that the shape is not a feature that characterizes the facility.

以上に詳細に説明したように、本実施形態のナビゲーション装置およびナビゲーション方法によれば、以下のような効果が得られる。   As described in detail above, according to the navigation device and the navigation method of the present embodiment, the following effects can be obtained.

ガイドすべき地点において、実際に、検出した物体(例えば車載カメラ11によって撮影した物体)の中から、目印(ランドマーク)となる物体を抽出して、ドライバにガイド情報として提示するので、目印(ランドマーク)となる物体つまり対象物が実際に存在していることが保証されており、かつ、ドライバから視認することが容易な物体(他の車両または路側の施設)をガイドするので、ドライバにとって、目印(ランドマーク)となる物体つまり対象物を、正確にかつ容易に把握することができるという効果が得られる。   At the point to be guided, an object to be a landmark (landmark) is actually extracted from detected objects (for example, an object photographed by the vehicle-mounted camera 11) and presented to the driver as guide information. It is guaranteed that the object (landmark), that is, the object actually exists, and the object (other vehicle or roadside facility) that is easy to see from the driver is guided to the driver. Thus, it is possible to accurately and easily grasp an object that becomes a landmark (landmark), that is, an object.

つまり、従来の技術とは異なり、作成時点以降に新たに追加された施設情報や削除された施設情報には対応することができない地図データベースによる古い情報ではなく、実際にドライバが視認することが可能な目印(ランドマーク)として現在存在している物体の撮影画像の特徴や場合によっては該物体までの距離を示す音声情報および/または文字・図形情報を、ガイド情報として提示することができる。   In other words, unlike the conventional technology, it is not old information from the map database that cannot cope with newly added facility information or deleted facility information after the creation time, but it can be actually seen by the driver It is possible to present, as guide information, audio information and / or character / graphic information indicating the characteristics of a captured image of an object that currently exists as a landmark (landmark) and, in some cases, the distance to the object.

したがって、従来技術における地図データベースに収録された情報を用いたガイド情報では、実際の交差点付近の工事に伴って現状との不一致な状況(地図データベースに収録されていた施設が無くなったり、別の施設に置き換わったり、あるいは、新たな施設がその近傍に建設されていたりしている、などの状況)の発生には対応することができなかった。しかし、本実施形態においては、車載カメラ11によって実際に読み取った情報に基づいたガイド情報であるので、ガイド情報として提示される対象物つまり目印(ランドマーク)となる物体がガイド地点において実際に存在していることが保証されている。   Therefore, in the guide information using the information recorded in the map database in the prior art, the situation that is inconsistent with the current situation due to the construction near the actual intersection (the facility recorded in the map database disappears or another facility It was not possible to cope with the occurrence of such a situation that it was replaced or that a new facility was built in the vicinity. However, in the present embodiment, since the guide information is based on information actually read by the in-vehicle camera 11, there is actually an object to be presented as guide information, that is, an object serving as a landmark (landmark) at the guide point. It is guaranteed that

また、地図データベースの場合、ガイドすべき地点例えば曲がるべき交差点の形状如何によっては、ドライバから視認することができない施設であっても、該交差点の近くに存在しているということだけで、対象物つまり目印(ランドマーク)となる物体としてガイド情報に用いられることがあるが、本実施形態の場合には、かかる事態は発生せず、ドライバから確実に視認可能な物体のみがガイド情報に用いられる。   In addition, in the case of a map database, depending on the shape of the intersection to be guided, for example, the shape of the intersection to bend, even if the facility is invisible near the driver, it is only present in the vicinity of the intersection. In other words, an object that becomes a landmark (landmark) may be used in the guide information. However, in the case of this embodiment, such a situation does not occur, and only an object that can be surely seen by the driver is used for the guide information. .

また、一般的な地図データベースにおける平面地図上では、交差点とランドマークとする施設とが近傍に表示されていたとしても、ドライバの方角からは、たとえ、ランドマークが見えるとしても、交差点とランドマークとが必ずしも分かり易い位置に見えるとは限らない。あるいは、ランドマークとなるべき施設がドライバ方向から必ず確認できるという保証もない。   In addition, even if the intersection and the landmark facility are displayed in the vicinity on a flat map in a general map database, even if the landmark is visible from the direction of the driver, the intersection and the landmark are displayed. It does not always appear in an easily understandable position. Alternatively, there is no guarantee that facilities that should be landmarks can be confirmed from the driver's direction.

また、地図データベース上に収録されている施設情報をガイド情報として用いる場合、該施設情報が記載されている看板情報などのガイドに利用し得る情報がドライバ側に向けて設置されていない場合、ガイド情報として提示されたとしても、ドライバは、該ガイド情報を確認することができない。一方、本実施形態の場合、車載カメラ11によって実際に読み取った対象物つまり目印(ランドマーク)となる物体に基づいたガイド情報であるので、ドライバから見えないものがガイド情報として用いられることはないし、ドライバにとって視認し易いものがガイド情報として提示される。   In addition, when facility information recorded on the map database is used as guide information, information that can be used as a guide such as signboard information in which the facility information is described is not installed toward the driver side, guide Even if presented as information, the driver cannot confirm the guide information. On the other hand, in the case of the present embodiment, since it is guide information based on an object actually read by the in-vehicle camera 11, that is, an object to be a landmark (landmark), information that cannot be seen by the driver is not used as guide information. What is easy for the driver to visually recognize is presented as guide information.

さらに、読み取ったランドマークとなり得る他車両や施設を特徴付ける特徴をドライバにとって理解し易い言語情報および/または文字・図形情報として、ドライバに提示することができるので、ガイド情報の分かり易さを向上させることができる。   Furthermore, the features that characterize other vehicles and facilities that can be read landmarks can be presented to the driver as language information and / or text / graphics information that is easy for the driver to understand, improving the ease of understanding guide information. be able to.

(第2の実施形態)
次に、本発明によるナビゲーション装置およびナビゲーション方法の第2の実施形態として、ガイド地点の交差点近辺に複数の対象駐車車両が存在していた場合の選別方法について、図4のフローチャートを用いて説明する。図4は、本発明によるナビゲーション装置の図2の動作とは異なる例を示すフローチャートであり、本発明によるナビゲーション方法の他の例を示している。なお、本実施形態におけるナビゲーション装置のブロック構成は、第1の実施形態として図1に示したナビゲーション装置と同一であってもかまわない。
(Second Embodiment)
Next, as a second embodiment of the navigation device and the navigation method according to the present invention, a selection method when a plurality of target parked vehicles exist near the intersection of the guide points will be described with reference to the flowchart of FIG. . FIG. 4 is a flowchart showing an example of the navigation apparatus according to the present invention which is different from the operation of FIG. 2, and shows another example of the navigation method according to the present invention. Note that the block configuration of the navigation device in the present embodiment may be the same as that of the navigation device shown in FIG. 1 as the first embodiment.

図4のフローチャートは、図2のフローチャートの場合と同様、ルートのガイド中に、車両がガイドすべき地点としてあらかじめ定めた地点に接近した際に、つまり、ガイド情報を出力すべきガイドタイミングに達した際に、ドライバにガイド情報を提示情報として提示するために起動される。   The flowchart of FIG. 4 is the same as the flowchart of FIG. 2, when the vehicle approaches a predetermined point as a point to be guided during route guidance, that is, reaches the guide timing at which guide information is to be output. When activated, it is activated to present guide information to the driver as presentation information.

図4のフローチャートにおいて、図2のステップS1と同様、まず、車載されたカメラ11を用いて、対象物つまり目印(ランドマーク)となる物体の候補となり得る車両が自車両の進行方向上のガイド地点の交差点近辺に存在しているか否かを監視し続ける(ステップS31)。車載カメラ11により撮影されてメモリに保持された画像情報を画像処理部14にて参照して、対象物つまり目印(ランドマーク)となる物体の候補にすべき車両が検出されない場合は(ステップS31の「ない」の場合)、対象物つまり目印(ランドマーク)となる物体の候補が検出されるまで、ステップS31の動作を継続し、車載カメラ11により自車両の前方の監視を継続することになる。   In the flowchart of FIG. 4, similarly to step S <b> 1 of FIG. 2, first, a vehicle that can be a candidate for an object, i.e., an object to be a landmark (landmark), is guided in the traveling direction of the host vehicle using the on-vehicle camera 11. It continues to monitor whether or not it exists in the vicinity of the intersection of the points (step S31). When the image processing unit 14 refers to the image information captured by the in-vehicle camera 11 and stored in the memory, when a vehicle that should be a candidate for an object, that is, a landmark (landmark), is not detected (step S31). In the case of “No”, the operation of step S31 is continued until the candidate of the object, that is, the landmark (landmark) object is detected, and the vehicle camera 11 continues to monitor the front of the host vehicle. Become.

一方、画像処理部14にて対象物つまり目印(ランドマーク)となる物体の候補となり得る車両が自車両の進行方向上に検出されると(ステップS31の「ある」の場合)、図2のフローチャートにて説明したように、駐車車両か否かを確認して、駐車車両であった場合には、ランドマーク候補として、車両の色情報、車両の形状・大きさ情報、看板情報など、当該対象駐車車両候補の特徴を抽出する(ステップS32)。しかる後、自車両の進行方向上にさらに他の車両が検出される限り(ステップS33の「ある」の場合)、ステップS32における対象駐車車両候補の特徴抽出処理を繰り返し、複数のランドマーク候補つまり複数の対象駐車車両候補それぞれの特徴を抽出する。   On the other hand, when the image processing unit 14 detects a vehicle that can be a candidate for an object, that is, a landmark (landmark) object, in the traveling direction of the host vehicle (in the case of “Yes” in step S31), FIG. As described in the flowchart, it is confirmed whether or not the vehicle is a parked vehicle, and if it is a parked vehicle, as the landmark candidate, the color information of the vehicle, the vehicle shape / size information, the signboard information, etc. The features of the target parked vehicle candidate are extracted (step S32). Thereafter, as long as another vehicle is detected in the traveling direction of the host vehicle (in the case of “Yes” in Step S33), the feature extraction process of the target parked vehicle candidate in Step S32 is repeated, and a plurality of landmark candidates, The characteristics of each of the plurality of target parked vehicle candidates are extracted.

自車両の進行方向上の交差点近辺に存在するすべてのランドマーク候補つまり対象駐車車両候補それぞれの特徴の抽出処理が終了した場合(ステップS33の「ない」の場合)、次に、複数の対象駐車車両候補それぞれが、ガイド地点の交差点近辺のどのゾーン(ZONE)に駐車しているかを識別する。   When the feature extraction processing for all landmark candidates existing in the vicinity of the intersection in the traveling direction of the host vehicle, that is, the target parking vehicle candidates has been completed (in the case of “No” in step S33), then a plurality of target parkings are performed. Each vehicle candidate identifies which zone (ZONE) in the vicinity of the intersection of the guide points is parked.

ここで、識別するゾーン(ZONE)としては、図5に示すように、該当する交差点周辺、交差点内の車両が駐停車する可能性があるゾーンについて、自車両から見て、
(1)自車両の走行中の道路上の交差点周辺のゾーン(ZONE1)
(2)目的地へのナビゲーション機能として得られるルートガイド情報にしたがって自車両がこれから右左折して進入しようとする道路上の交差点周辺のゾーン(ZONE2)
(3)自車両が右左折する際の交差点内の車両の停止ゾーン(ZONE3)
の3つに分類する。ここに、図5は、車両が駐停車する可能性がある交差点周辺および交差点内の領域をゾーン分けしている様子を示す模式図である。
Here, as a zone (ZONE) to be identified, as shown in FIG. 5, a zone where the vehicle around the relevant intersection and the vehicle in the intersection may park and stop is viewed from the own vehicle,
(1) Zone around the intersection on the road where the vehicle is traveling (ZONE1)
(2) Zone around the intersection on the road where the vehicle will turn left and right according to the route guide information obtained as a navigation function to the destination (ZONE2)
(3) Stop zone (ZONE3) of the vehicle in the intersection when the host vehicle turns right or left
It classifies into three. FIG. 5 is a schematic diagram showing a state in which the area around the intersection where the vehicle may park and stop and the area in the intersection are divided into zones.

さらに、自車両の走行中の道路上の交差点周辺のゾーン(ZONE1)については、図5に示すように、
(1−1)自車両の走行路線上の交差点の手前のゾーン(ZONE1−1)
(1−2)自車両の対向路線上の交差点の向こう側のゾーン(ZONE1−2)
(1−3)自車両の走行路線上の交差点の向こう側のゾーン(ZONE1−3)
(1−4)自車両の対向路線上の交差点の手前のゾーン(ZONE1−4)
の4つに細分類し、ZONE2,3と合わせて、都合、6つのゾーン(ZONE)に分類する。
Furthermore, about the zone (ZONE1) around the intersection on the road where the vehicle is traveling, as shown in FIG.
(1-1) Zone before the intersection on the traveling route of the host vehicle (ZONE1-1)
(1-2) Zone beyond the intersection on the opposite line of the vehicle (ZONE1-2)
(1-3) Zone on the other side of the intersection on the traveling route of the own vehicle (ZONE1-3)
(1-4) Zone before the intersection on the opposite line of the vehicle (ZONE1-4)
These are subdivided into four zones, and together with ZONE2 and 3, for convenience, it is classified into six zones (ZONE).

かくのごとく、ガイド地点の交差点近辺および交差点内を6つに分類した各ゾーンについて、ドライバから見て対象駐停車車両の認識が容易であると推定される順番に、図4に示すように、例えば、ZONE1−1から順番に、
ZONE1−1>ZONE1−2>ZONE3>ZONE2
>ZONE1−3>ZONE1−4
の順に優先度が付与されており、優先度テーブルに、その旨が登録されている。
As described above, as shown in FIG. 4, in the order in which it is estimated that the recognition of the target parked vehicle is easy when viewed from the driver, for each zone classified into the vicinity of the intersection of the guide point and the inside of the intersection into six, For example, in order from ZONE1-1,
ZONE1-1>ZONE1-2>ZONE3> ZONE2
>ZONE1-3> ZONE1-4
The priority is given in the order of, and that fact is registered in the priority table.

したがって、図4のフローチャートにおいて、まず、優先度テーブルを読み込んで(ステップS34)、複数の対象駐停車車両候補それぞれが、ガイド地点の交差点周辺のどのゾーン(ZONE)に駐停車しているかを識別し、駐停車している対象駐停車車両候補のうち、最も高い優先度のゾーン(ZONE)例えばZONE1−1に駐停車している対象駐停車車両候補を、ガイドすべき地点例えば曲がるべき交差点ガイドのランドマーク(目印)とする対象駐停車車両として選別する(ステップS35)。   Therefore, in the flowchart of FIG. 4, first, the priority table is read (step S34), and a plurality of target parked vehicle candidates are identified in which zone (ZONE) around the guide point intersection. The target parking vehicle candidate parked in the highest priority zone (ZONE), for example, ZONE 1-1 among the target parked vehicle candidates parked or parked, a point to be guided, for example, an intersection guide to bend The vehicle is selected as a target parking / stopping vehicle (step S35).

複数の対象駐停車車両候補の中からランドマークとして選別された対象駐停車車両に関して、先に抽出されていた、車両の色情報、車両の形状・大きさ情報、看板情報などの特徴について、第1の実施形態にて説明したように統合して最適化を図った情報を、ガイドすべき地点の交差点におけるガイド情報として、目的地へのナビゲーションとして得られているルートガイド情報に追加してドライバに提示する。   Regarding the target parked vehicles selected as landmarks from multiple target parked vehicle candidates, the features such as vehicle color information, vehicle shape / size information, signboard information, etc. previously extracted The information integrated and optimized as described in the first embodiment is added to the route guide information obtained as the navigation to the destination as the guide information at the intersection of the points to be guided, and the driver To present.

なお、優先度テーブルに登録する領域(ゾーン)ごとの優先度については、図4に示す優先度から変更することが可能であるが、自車両からの見易さに関する情報、および、自車両の進行方向に関わる情報を優先させることによって、ドライバにとって最も視認し易い対象物をランドマーク(目印)となる物体として選別することを可能とし、分かり易さの向上に繋がるように配慮することが重要である。   Note that the priority for each region (zone) registered in the priority table can be changed from the priority shown in FIG. 4, but information on visibility from the own vehicle, and It is important to give priority to the information related to the direction of travel so that the most easily visible object for the driver can be selected as an object that will be a landmark (marker), and it will be important to give consideration to improving the understanding. It is.

以上のように、本実施形態においては、複数の対象駐停車車両候補のうち、駐停車している領域(ゾーン)に関する優先度にしたがって、つまり、あらかじめ定めた地点の領域(ゾーン)ごとにあらかじめ定められている優先順位にしたがって、優先順位が最も高い領域に駐停車している対象駐停車車両候補を、ランドマーク(目印)となる物体つまり対象駐停車車両として選別し、選別した対象駐停車車両を、情報生成・出力手段の情報生成・出力部30により、ガイド情報として、音声情報および/または文字・図形情報を用いて、ドライバに提示するので、第1の実施形態における効果に加えて、ドライバにとって、より視認し易いガイド情報を提供することができる。   As described above, in the present embodiment, among a plurality of target parked vehicle candidates, according to the priority regarding the parked area (zone), that is, for each area (zone) of a predetermined point in advance. According to the specified priority order, the target parked vehicle candidate parked in the highest priority area is selected as an object to be a landmark, that is, the target parked vehicle, and the selected target parked vehicle In addition to the effects of the first embodiment, the vehicle is presented to the driver using the voice information and / or character / graphic information as guide information by the information generation / output unit 30 of the information generation / output means. It is possible to provide guide information that is easier for the driver to visually recognize.

なお、図4、図5においては、第1の実施形態の場合と同様、対象物つまりランドマーク(目印)となる物体が駐停車車両である場合について説明したが、ランドマーク(目印)となる物体は、駐停車車両のみに限るものではなく、ガイドすべき地点に設置されている建造物つまり路側の施設などガイドすべき地点の特徴を示す目印となる対象物であれば、如何なるものであってもかまわない。   4 and 5, as in the case of the first embodiment, the case where the object, that is, the object to be a landmark (mark), is a parked vehicle has been described. However, the landmark (mark) is used. An object is not limited to a parked vehicle, but any object that serves as a mark indicating the characteristics of a point to be guided, such as a building installed at a point to be guided, that is, a roadside facility. It doesn't matter.

本発明によるナビゲーション装置の第1の実施形態のブロック構成を示すブロック構成図である。It is a block block diagram which shows the block configuration of 1st Embodiment of the navigation apparatus by this invention. 図1に示すナビゲーション装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the navigation apparatus shown in FIG. 本発明によるナビゲーション装置に適用するルートガイド生成ルールの一例を示すテーブルである。It is a table which shows an example of the route guide production | generation rule applied to the navigation apparatus by this invention. 本発明によるナビゲーション装置の図2の動作とは異なる例を示すフローチャートである。3 is a flowchart showing an example different from the operation of FIG. 2 of the navigation device according to the present invention. 車両が駐停車する可能性がある交差点周辺および交差点内の領域をゾーン分けしている様子を示す模式図である。It is a schematic diagram which shows a mode that the area | region around the intersection in which a vehicle may park and stop, and the area | region in an intersection are divided into zones.

符号の説明Explanation of symbols

10…対象物認識部、11…カメラ(車載カメラ)、12…センサ(車載センサ)、13…画像保持部、14…画像処理部、15…対象物位置関係計算部、20…ルートガイド演算部、21…ルート情報比較演算部、22…ルート演算部、23…地図データベース、30…情報生成・出力部、31…情報生成部、32…スピーカ、33…表示部。 DESCRIPTION OF SYMBOLS 10 ... Object recognition part, 11 ... Camera (vehicle-mounted camera), 12 ... Sensor (vehicle-mounted sensor), 13 ... Image holding part, 14 ... Image processing part, 15 ... Object positional relationship calculation part, 20 ... Route guide calculating part , 21 ... route information comparison calculation unit, 22 ... route calculation unit, 23 ... map database, 30 ... information generation / output unit, 31 ... information generation unit, 32 ... speaker, 33 ... display unit.

Claims (19)

車載され、目的地までのルートを算出し、算出したルートに車両を誘導するナビゲーション装置であって、ガイドすべき地点における車両周辺に存在する物体を検出する物体検出手段と、前記物体検出手段により検出した物体の中から目印となる物体を抽出する目印抽出手段と、目印として抽出した物体に対応したドライバへの提示情報を生成して出力する情報生成・出力手段と、を少なくとも備えたことを特徴とするナビゲーション装置。   A navigation device that is mounted on a vehicle, calculates a route to a destination, and guides the vehicle to the calculated route, and includes an object detection unit that detects an object existing around the vehicle at a point to be guided, and the object detection unit It comprises at least mark extraction means for extracting an object as a mark from the detected objects, and information generation / output means for generating and outputting presentation information to the driver corresponding to the object extracted as the mark. A featured navigation device. 請求項1に記載のナビゲーション装置において、前記情報生成・出力手段は、ルートのガイド中に、車両がガイドすべき地点としてあらかじめ定めた地点に接近した際に、前記提示情報を出力することを特徴とするナビゲーション装置。   2. The navigation device according to claim 1, wherein the information generation / output means outputs the presentation information when a vehicle approaches a predetermined point as a point to be guided during route guidance. A navigation device. 請求項1または2に記載のナビゲーション装置において、前記情報生成・出力手段は、前記提示情報を、音声情報として出力する、および/または、文字・図形情報として出力することを特徴とするナビゲーション装置。   3. The navigation device according to claim 1, wherein the information generation / output unit outputs the presentation information as audio information and / or outputs as character / graphic information. 請求項1ないし3のいずれかに記載のナビゲーション装置において、前記物体検出手段が、車両周辺の物体を撮影するカメラと、車両と撮影された物体との間の距離を測定するセンサと、から構成されていることを特徴とするナビゲーション装置。   4. The navigation device according to claim 1, wherein the object detection unit includes a camera that captures an object around the vehicle and a sensor that measures a distance between the vehicle and the captured object. The navigation apparatus characterized by being made. 請求項1ないし4のいずれかに記載のナビゲーション装置において、前記目印抽出手段は、前記物体検出手段が検出した物体の中から、あらかじめ定めた地点周辺に駐停車している他の車両またはあらかじめ定めた地点周辺に存在する施設を、目印とする物体として抽出することを特徴とするナビゲーション装置。   5. The navigation device according to claim 1, wherein the landmark extraction unit is a vehicle that is parked or stopped around a predetermined point from the objects detected by the object detection unit, or a predetermined unit. A navigation apparatus characterized in that facilities existing around a certain point are extracted as objects as landmarks. 請求項1ないし5のいずれかに記載のナビゲーション装置において、前記目印抽出手段は、あらかじめ定めた地点周辺に目印とする物体の候補を複数個検出した場合、目印として検出した複数個の物体の候補のうち、あらかじめ定めた地点の領域ごとに定められている優先順位にしたがって、優先順位が高い領域に存在する物体の候補を目印とする物体として選別し、前記情報生成・出力手段により、目印として選別した物体に関する前記提示情報を生成して出力することを特徴とするナビゲーション装置。   6. The navigation device according to claim 1, wherein the landmark extracting unit detects a plurality of candidate objects detected as landmarks when a plurality of candidate objects are detected around a predetermined point. Are selected as objects that are candidates for objects existing in areas with higher priorities according to the priority order determined for each of the predetermined point areas, and the information generation / output means A navigation device characterized in that the presentation information relating to the selected object is generated and output. 請求項5または6に記載のナビゲーション装置において、前記目印抽出手段は、目印とする物体として他の車両または施設を抽出した際に、該車両または該施設の色、形状、大きさ、該車両の車体または該施設に描かれた看板情報、または、該車両または該施設の屋根に敷設された看板情報のうち、少なくとも一つを、該車両または該施設を特徴付ける特徴として抽出することを特徴とするナビゲーション装置。   The navigation device according to claim 5 or 6, wherein when the other vehicle or facility is extracted as an object used as the landmark, the landmark extracting unit extracts the color, shape, size, At least one of signboard information drawn on a vehicle body or the facility or signboard information laid on the roof of the vehicle or the facility is extracted as a feature characterizing the vehicle or the facility Navigation device. 請求項5または6に記載のナビゲーション装置において、前記目印抽出手段が、目印とする物体の車両または施設を特徴付ける特徴として、色、形状、大きさ、該車両の車体または該施設に描かれた看板情報、または、該車両または該施設の屋根に敷設された看板情報のうち、いずれか複数の特徴が抽出された場合、抽出された複数の特徴を統合し、前記情報生成・出力手段により、統合した特徴を、目印とする物体に関する前記提示情報として生成して出力することを特徴とするナビゲーション装置。   The navigation device according to claim 5 or 6, wherein the mark extracting means is characterized by a color, shape, size, vehicle body of the vehicle, or a sign drawn on the facility as a characteristic characterizing the vehicle or facility of the object to be the mark. If any of a plurality of features is extracted from the information or signboard information laid on the roof of the vehicle or the facility, the extracted features are integrated and integrated by the information generation / output means A navigation device characterized in that the generated feature is generated and output as the presentation information relating to an object as a landmark. 請求項7または8に記載のナビゲーション装置において、前記目印抽出手段は、他の車両または施設の色を該車両または該施設を特徴付ける特徴として抽出する際に、該車両または該施設の単位平面ごとの色が、あらかじめ定めた閾値以上の割合を占めている色の色コードを特徴として抽出し、一方、該閾値以上の割合を占めている色が存在していない場合には、色が該車両または該施設を特徴付ける特徴ではないものと判定することを特徴とするナビゲーション装置。   9. The navigation device according to claim 7 or 8, wherein the landmark extracting means extracts the color of another vehicle or facility as a characteristic characterizing the vehicle or the facility, for each unit plane of the vehicle or the facility. The color code of the color that occupies a ratio equal to or greater than a predetermined threshold is extracted as a feature. On the other hand, if there is no color that occupies a ratio equal to or greater than the threshold, the color is the vehicle or A navigation apparatus characterized by determining that the facility is not a characteristic characterizing the facility. 請求項9に記載のナビゲーション装置において、前記情報生成・出力手段は、前記目印抽出手段により他の車両または施設を特徴付ける特徴として抽出された色コードを、あらかじめ設定されている当該色コードを示す言語情報および/または文字・図形情報に変換して出力することを特徴とするナビゲーション装置。   10. The navigation device according to claim 9, wherein the information generating / outputting unit uses a color code extracted as a characteristic characterizing another vehicle or facility by the mark extracting unit, and indicates a preset color code. A navigation apparatus characterized by converting information and / or character / graphic information and outputting the information. 請求項7ないし10に記載のナビゲーション装置において、前記目印抽出手段は、他の車両または施設の形状を該車両または該施設を特徴付ける特徴として抽出する際に、該車両のナンバープレートの読み取り結果によりあらかじめ設定されている車種の車両形状テーブルを参照した結果に基づいて、または、該施設の形状とあらかじめ登録されている施設形状テーブルとのパターンマッチング結果に基づいて、該当する形状を特徴として抽出し、一方、該車両のナンバープレートを読み取ることができなかった場合、または、前記施設形状テーブル中に該施設の形状と一致するパターンが存在していなかった場合には、形状が該車両または該施設を特徴付ける特徴ではないものと判定することを特徴とするナビゲーション装置。   The navigation device according to any one of claims 7 to 10, wherein the mark extracting means extracts in advance the shape of another vehicle or facility as a characteristic characterizing the vehicle or the facility based on a result of reading a license plate of the vehicle. Based on the result of referring to the vehicle shape table of the set vehicle type, or based on the pattern matching result between the shape of the facility and the facility shape table registered in advance, the corresponding shape is extracted as a feature, On the other hand, if the license plate of the vehicle cannot be read, or if there is no pattern that matches the shape of the facility in the facility shape table, the shape of the vehicle or the facility is A navigation device characterized by determining that it is not a feature to be characterized. 請求項11に記載のナビゲーション装置において、前記情報生成・出力手段は、前記目印抽出手段により他の車両または施設を特徴付ける特徴として抽出された形状を、あらかじめ設定されている当該形状を示す言語情報および/または文字・図形情報に変換して出力することを特徴とするナビゲーション装置。   12. The navigation device according to claim 11, wherein the information generating / outputting unit includes a linguistic information indicating the preset shape, the shape extracted as a characteristic characterizing another vehicle or facility by the landmark extracting unit, and A navigation device characterized by converting to character / graphic information and outputting it. 請求項7ないし12のいずれかに記載のナビゲーション装置において、前記目印抽出手段は、他の車両または施設の大きさを該車両または該施設を特徴付ける特徴として抽出する際に、該車両または該施設の輪郭を示す縦・横方向の長さがあらかじめ登録されている領域のいずれかに収まっている場合、該車両または該施設の縦・横方向の長さを特徴として抽出し、一方、該車両または該施設の縦・横方向の長さがあらかじめ登録されている領域のいずれにも収まっていない場合には、縦・横方向の長さが該車両または該施設を特徴付ける特徴ではないものと判定することを特徴とするナビゲーション装置。   The navigation device according to any one of claims 7 to 12, wherein the landmark extracting means extracts the size of another vehicle or facility as a characteristic characterizing the vehicle or the facility. When the length in the vertical and horizontal directions indicating the contour is within one of the pre-registered areas, the length in the vertical and horizontal directions of the vehicle or the facility is extracted as a feature, while the vehicle or If the vertical / horizontal length of the facility does not fit in any of the pre-registered areas, it is determined that the vertical / horizontal length is not a characteristic characterizing the vehicle or the facility. A navigation device characterized by that. 請求項13に記載のナビゲーション装置において、前記情報生成・出力手段は、前記目印抽出手段により他の車両または施設を特徴付ける特徴として抽出された大きさを、あらかじめ設定されている当該大きさを示す言語情報および/または文字・図形情報に変換して出力することを特徴とするナビゲーション装置。   14. The navigation device according to claim 13, wherein the information generating / outputting unit is a language indicating the size set in advance as a size extracted as a characteristic characterizing another vehicle or facility by the landmark extracting unit. A navigation apparatus characterized by converting information and / or character / graphic information and outputting the information. 請求項7ないし14のいずれかに記載のナビゲーション装置において、前記目印抽出手段は、他の車両または施設の看板情報を該車両または該施設を特徴付ける特徴として抽出する際に、該車両または該施設の看板情報に文字情報が存在していた場合であって、かつ、該文字情報に固有名詞またはその組み合わせからなる文字列を含む場合には、該固有名詞またはその組み合わせを特徴として抽出し、一方、該文字情報に固有名詞またはその組み合わせからなる文字列が含まれていない場合には、看板情報の文字情報が該車両または該施設を特徴付ける特徴ではないものと判定することを特徴とするナビゲーション装置。   The navigation device according to any one of claims 7 to 14, wherein the landmark extracting means extracts signboard information of another vehicle or facility as a characteristic characterizing the vehicle or the facility. When character information is present in the signboard information and the character information includes a character string consisting of a proper noun or a combination thereof, the proper noun or a combination thereof is extracted as a feature, A navigation device characterized in that when the character information does not include a character string composed of proper nouns or a combination thereof, the character information of the signboard information is determined not to be a feature characterizing the vehicle or the facility. 請求項15に記載のナビゲーション装置において、前記情報生成・出力手段は、前記目印抽出手段により他の車両または施設を特徴付ける特徴として抽出された固有名詞またはその組み合わせを、あらかじめ設定されている当該固有名詞またはその組み合わせを示す言語情報および/または文字・図形情報に変換して出力することを特徴とするナビゲーション装置。   16. The navigation device according to claim 15, wherein the information generating / outputting unit includes a proper noun or a combination of the proper noun extracted as a characteristic characterizing another vehicle or facility by the landmark extracting unit. Alternatively, a navigation device characterized in that it is converted into linguistic information and / or character / graphic information indicating the combination. 請求項7ないし16のいずれかに記載のナビゲーション装置において、前記目印抽出手段は、他の車両または施設の看板情報を該車両または該施設を特徴付ける特徴として抽出する際に、該車両または該施設の看板情報にシンボルマークが存在していた場合であって、かつ、該シンボルマークがあらかじめ設定されているシンボルマークのいずれかと同一であった場合には、該シンボルマークを特徴として抽出し、一方、該シンボルマークがあらかじめ設定されているシンボルマークのいずれにも一致しなかった場合には、看板情報のシンボルマークが該車両または該施設を特徴付ける特徴ではないものと判定することを特徴とするナビゲーション装置。   The navigation device according to any one of claims 7 to 16, wherein the landmark extracting means extracts signboard information of another vehicle or facility as a characteristic characterizing the vehicle or the facility. If a symbol mark is present in the signboard information and the symbol mark is the same as one of the preset symbol marks, the symbol mark is extracted as a feature, When the symbol mark does not match any of the preset symbol marks, the navigation device is characterized in that the symbol mark of the signboard information is determined not to be a feature characterizing the vehicle or the facility. . 請求項17に記載のナビゲーション装置において、前記情報生成・出力手段は、前記目印抽出手段により他の車両または施設を特徴付ける特徴として抽出されたシンボルマークを、あらかじめ設定されている当該シンボルマークを示す言語情報および/または文字・図形情報に変換して出力することを特徴とするナビゲーション装置。   18. The navigation device according to claim 17, wherein the information generating / outputting unit includes a symbol mark extracted as a characteristic characterizing another vehicle or facility by the landmark extracting unit, and a language indicating the preset symbol mark. A navigation apparatus characterized by converting information and / or character / graphic information and outputting the information. 車載され、目的地までのルートを算出し、算出したルートに車両を誘導するナビゲーション方法であって、ガイドすべき地点における車両周辺に存在する物体を検出し、検出した物体の中から目印となる物体を抽出し、目印として抽出した物体に対応したドライバへの提示情報を生成して出力することを特徴とするナビゲーション方法。   A navigation method that is mounted on a vehicle, calculates a route to a destination, and guides the vehicle to the calculated route, detects an object existing around the vehicle at a point to be guided, and serves as a mark from the detected objects A navigation method, wherein an object is extracted, and presentation information to a driver corresponding to the extracted object is generated and output.
JP2008027884A 2008-02-07 2008-02-07 Navigation device and navigation method Pending JP2009186372A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008027884A JP2009186372A (en) 2008-02-07 2008-02-07 Navigation device and navigation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008027884A JP2009186372A (en) 2008-02-07 2008-02-07 Navigation device and navigation method

Publications (1)

Publication Number Publication Date
JP2009186372A true JP2009186372A (en) 2009-08-20

Family

ID=41069757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008027884A Pending JP2009186372A (en) 2008-02-07 2008-02-07 Navigation device and navigation method

Country Status (1)

Country Link
JP (1) JP2009186372A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2290325A1 (en) * 2009-08-28 2011-03-02 Navteq North America, LLC Method of operating a navigation system to provide route guidance
US8301641B2 (en) 2009-08-28 2012-10-30 Navteq B.V. Method of collecting information for a geographic database for use with a navigation system
US8364398B2 (en) 2009-08-28 2013-01-29 Navteq B.V. Method of operating a navigation system to provide route guidance
US8370060B2 (en) 2009-08-28 2013-02-05 Navteq B.V. Method of operating a navigation system to provide route guidance
US8374791B2 (en) 2010-01-27 2013-02-12 Navteq B.V. Method of operating a navigation system to provide route guidance
JP2014178285A (en) * 2013-03-15 2014-09-25 Toyota Mapmaster Inc Intersection land mark data creation device, method thereof, computer program for creating land mark data of intersection, and recording medium with computer program recorded thereon
US8886454B2 (en) 2011-12-07 2014-11-11 Hyundai Motor Company Road guidance display method and system using geotagging image
WO2015059812A1 (en) * 2013-10-25 2015-04-30 三菱電機株式会社 Movement support device and movement support method
DE102018102364A1 (en) 2017-02-09 2018-08-09 Aisin Aw Co., Ltd. IMAGE PROCESSING SYSTEM AND IMAGE PROCESSING METHOD
KR101974871B1 (en) * 2017-12-08 2019-05-03 엘지전자 주식회사 Vehicle control device mounted on vehicle and method for controlling the vehicle
US10796415B2 (en) 2017-12-28 2020-10-06 Panasonic Intellectual Property Management Co., Ltd. Image processing device, display device, navigation system, and image processing method

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2290325A1 (en) * 2009-08-28 2011-03-02 Navteq North America, LLC Method of operating a navigation system to provide route guidance
US8301641B2 (en) 2009-08-28 2012-10-30 Navteq B.V. Method of collecting information for a geographic database for use with a navigation system
US8364398B2 (en) 2009-08-28 2013-01-29 Navteq B.V. Method of operating a navigation system to provide route guidance
US8370060B2 (en) 2009-08-28 2013-02-05 Navteq B.V. Method of operating a navigation system to provide route guidance
US8442767B2 (en) 2009-08-28 2013-05-14 Navteq B.V. Method of operating a navigation system to provide route guidance
US8374791B2 (en) 2010-01-27 2013-02-12 Navteq B.V. Method of operating a navigation system to provide route guidance
US8886454B2 (en) 2011-12-07 2014-11-11 Hyundai Motor Company Road guidance display method and system using geotagging image
JP2014178285A (en) * 2013-03-15 2014-09-25 Toyota Mapmaster Inc Intersection land mark data creation device, method thereof, computer program for creating land mark data of intersection, and recording medium with computer program recorded thereon
WO2015059812A1 (en) * 2013-10-25 2015-04-30 三菱電機株式会社 Movement support device and movement support method
CN105659055A (en) * 2013-10-25 2016-06-08 三菱电机株式会社 Movement support device and movement support method
JPWO2015059812A1 (en) * 2013-10-25 2017-03-09 三菱電機株式会社 Movement support apparatus and movement support method
US10082401B2 (en) 2013-10-25 2018-09-25 Mitsubishi Electric Corporation Movement support apparatus and movement support method
DE102018102364A1 (en) 2017-02-09 2018-08-09 Aisin Aw Co., Ltd. IMAGE PROCESSING SYSTEM AND IMAGE PROCESSING METHOD
KR101974871B1 (en) * 2017-12-08 2019-05-03 엘지전자 주식회사 Vehicle control device mounted on vehicle and method for controlling the vehicle
US10809738B2 (en) 2017-12-08 2020-10-20 Lg Electronics Inc. Vehicle control device mounted on vehicle and method for controlling the vehicle
US10796415B2 (en) 2017-12-28 2020-10-06 Panasonic Intellectual Property Management Co., Ltd. Image processing device, display device, navigation system, and image processing method

Similar Documents

Publication Publication Date Title
JP2009186372A (en) Navigation device and navigation method
CN100587404C (en) Navigation equipment and method of guiding vehicle
US20190078905A1 (en) Systems and methods for using real-time imagery in navigation
US7844394B2 (en) Turn-by-turn navigation system and next direction guidance method using the same
CN105659055B (en) Auxiliary device for moving and mobile householder method
JP5729176B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5874225B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP2010282278A (en) Sign recognition device
JP2007240198A (en) Navigation apparatus
JP5078677B2 (en) Navigation system
US11912295B2 (en) Travel information processing apparatus and processing method
JP2006337334A (en) Navigation system
JP4952508B2 (en) Display route creation method, display route creation device, and display route creation program
JP4689458B2 (en) Navigation device and route guidance method
JP4482794B2 (en) Traffic sign identification device and traffic sign identification method
JP4798549B2 (en) Car navigation system
TWI451990B (en) System and method for lane localization and markings
JP2009156758A (en) Navigation system and computer program
JP2004340827A (en) Route chart display method and display control device
JP3609914B2 (en) Navigation device
US20220373349A1 (en) Navigation device
JP7321642B2 (en) navigation device
KR20070095258A (en) Method for guiding a separated path in navigation and system therefor
US20200191597A1 (en) Travel guide system and computer program
JP2796202B2 (en) In-vehicle navigator