JPWO2008041284A1 - Guiding device, guiding method, guiding program, and recording medium - Google Patents

Guiding device, guiding method, guiding program, and recording medium Download PDF

Info

Publication number
JPWO2008041284A1
JPWO2008041284A1 JP2008537342A JP2008537342A JPWO2008041284A1 JP WO2008041284 A1 JPWO2008041284 A1 JP WO2008041284A1 JP 2008537342 A JP2008537342 A JP 2008537342A JP 2008537342 A JP2008537342 A JP 2008537342A JP WO2008041284 A1 JPWO2008041284 A1 JP WO2008041284A1
Authority
JP
Japan
Prior art keywords
guidance
guidance information
image
information
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008537342A
Other languages
Japanese (ja)
Inventor
裕昭 柴▲崎▼
裕昭 柴▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of JPWO2008041284A1 publication Critical patent/JPWO2008041284A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

画像取得部(101)によって移動体の移動方向を撮像した画像を取得し、検出部(104)によって移動方向に存在する物体の位置をレーダによって検出する。解析部(105)によって物体の位置から移動状態を解析した解析結果に基づいて、決定部(106)によって誘導情報の目印となる物体を決定する。そして、画像判断部(107)によって取得した画像に目印となる物体が撮像されてると判断されるまで待って、物体が撮像されている場合、識別部(108)によって撮像されていると判断された物体の外観的特徴を識別する。つぎに、作成部(109)によって解析された物体の移動状態と、識別した外観的特徴とに基づいて、誘導情報を作成し、出力する。An image obtained by capturing the moving direction of the moving object is acquired by the image acquiring unit (101), and the position of the object existing in the moving direction is detected by the radar by the detecting unit (104). Based on the analysis result obtained by analyzing the movement state from the position of the object by the analysis unit (105), the determination unit (106) determines the object to be the guide information. And it waits until it is judged that the object used as a mark is imaged by the image acquired by the image judgment part (107), and when the object is imaged, it is judged that it is imaged by the identification part (108). Identify the appearance features of the object. Next, guidance information is created and output based on the moving state of the object analyzed by the creation unit (109) and the identified external features.

Description

この発明は、利用者の視野に入った物体の位置を目印とした誘導情報を作成する経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体に関する。ただし、この発明の利用は、上述した経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体には限られない。   The present invention relates to a route guidance device, a route guidance method, a route guidance program, and a recording medium that create guidance information with the position of an object in a user's field of view as a landmark. However, the use of the present invention is not limited to the above-described route guidance device, route guidance method, route guidance program, and recording medium.

従来、経路誘導における右左折などの誘導案内の対象となる案内ポイントにおいて、地図データに基づいて手前の目印から位置関係を表現することにより、案内ポイントを確実に利用者に把握させる経路誘導装置がある。この経路誘導装置においては、利用者は、右左折をおこなう交差点を確実に把握することができる。   Conventionally, at a guidance point that is a target of guidance guidance such as a left or right turn in route guidance, a route guidance device that makes a user surely grasp a guidance point by expressing a positional relationship from a landmark in front based on map data has been provided. is there. In this route guidance device, the user can surely grasp the intersection where the right / left turn is performed.

また、このような経路誘導装置の中には、自車両の現在位置を検出する現在位置検出手段と、自車両の現在位置から自車両が走行中の道路を選択する走行道路選択手段と、他車両の距離及び方向を検出する他車両検出手段と、他車両の位置を演算する他車両位置演算手段と、走行道路を平面図ないし鳥瞰図に展開し自車両と他車両の位置情報を重ねて表示する他車両位置表示手段を備え、追従車両の位置情報を地図情報から生成した道路形状に重ねて表示するものもある(たとえば、下記特許文献1参照。)。   Further, in such a route guidance device, a current position detecting means for detecting the current position of the own vehicle, a traveling road selecting means for selecting a road on which the own vehicle is traveling from the current position of the own vehicle, and others Other vehicle detection means for detecting the distance and direction of the vehicle, other vehicle position calculation means for calculating the position of the other vehicle, and the road on the traveling road are developed in a plan view or a bird's eye view to display the position information of the host vehicle and the other vehicle in an overlapping manner There is another vehicle position display means for displaying the position information of the following vehicle on the road shape generated from the map information (for example, see Patent Document 1 below).

特開平11−250396号公報JP-A-11-250396

しかしながら、上述した従来技術によれば、対象となる案内ポイントの周辺に目印がある場合は、案内ポイントを確実に利用者に把握させることができるが、たとえば、地図データに目印となる建造物がない場合は、案内ポイントを確実に利用者に把握させることができないという問題が一例として挙げられる。   However, according to the above-described prior art, when there is a mark around the target guide point, the user can be surely grasped the guide point. In the case where there is not, the problem that the user cannot be surely grasped the guidance point is given as an example.

また、たとえば、他車両の位置を目印とする場合、他車両の位置を演算し、平面図ないし鳥瞰図に展開し自車両と他車両の位置情報を重ねて表示することで、表示画面上においては他車両の位置を把握することができるが、実際に利用者の視野に他車両が入っているか否かはわからない。このため、利用者の視野に入っていない他車両の位置を目印とした誘導情報を出力することで、利用者に混乱を招くという問題が一例として挙げられる。   Also, for example, when the position of another vehicle is used as a mark, the position of the other vehicle is calculated, displayed in a plan view or a bird's eye view, and the position information of the host vehicle and the other vehicle is displayed in an overlapping manner on the display screen. Although the position of the other vehicle can be grasped, it is not known whether the other vehicle is actually in the user's field of view. For this reason, the problem of causing confusion to the user by outputting the guidance information with the position of another vehicle not in the user's field of view as an example is given.

上述した課題を解決し、目的を達成するため、請求項1の発明にかかる経路誘導装置は、移動体の移動方向を撮像した画像を取得する画像取得手段と、前記移動方向に存在する物体の位置をレーダによって検出する検出手段と、前記画像取得手段によって取得された画像と、前記検出手段によって検出された検出結果とに基づいて、前記物体の位置を目印として前記移動体を誘導する経路の誘導情報を作成する作成手段と、前記作成手段によって作成された前記物体の位置を含む誘導情報を出力する出力手段と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, a route guidance device according to a first aspect of the present invention includes an image acquisition unit that acquires an image obtained by capturing the moving direction of a moving body, and an object that exists in the moving direction. Based on detection means for detecting a position by a radar, an image acquired by the image acquisition means, and a detection result detected by the detection means, a path for guiding the moving body using the position of the object as a landmark A creation means for creating guidance information; and an output means for outputting guidance information including the position of the object created by the creation means.

また、請求項5の発明にかかる経路誘導方法は、移動体の移動方向を撮像した画像を取得する画像取得工程と、前記移動方向に存在する物体の位置をレーダによって検出する検出工程と、前記画像取得工程によって取得された画像と、前記検出工程によって検出された検出結果とに基づいて、前記物体の位置を目印として前記移動体を誘導する経路の誘導情報を作成する作成工程と、前記作成工程によって作成された前記物体の位置を含む誘導情報を出力する工程と、を含むことを特徴とする。   According to a fifth aspect of the present invention, there is provided a route guidance method for acquiring an image obtained by imaging a moving direction of a moving body, a detecting step for detecting a position of an object existing in the moving direction by a radar, A creation step of creating guidance information of a route for guiding the moving body using the position of the object as a mark based on the image obtained by the image acquisition step and the detection result detected by the detection step; and the creation Outputting guidance information including the position of the object created by the process.

また、請求項6の発明にかかる経路誘導プログラムは、請求項5に記載の経路誘導方法をコンピュータに実行させることを特徴とする。   According to a sixth aspect of the present invention, a route guidance program causes a computer to execute the route guidance method according to the fifth aspect.

また、請求項7の発明にかかる記録媒体は、請求項6に記載の経路誘導プログラムをコンピュータに読み取り可能な状態で記録したことを特徴とする。   A recording medium according to a seventh aspect of the invention is characterized in that the route guidance program according to the sixth aspect is recorded in a computer-readable state.

図1は、本実施の形態にかかる経路誘導装置の機能的構成を示すブロック図である。FIG. 1 is a block diagram showing a functional configuration of the route guidance apparatus according to the present embodiment. 図2は、経路誘導装置の経路誘導処理手順を示すフローチャートである。FIG. 2 is a flowchart showing a route guidance processing procedure of the route guidance device. 図3は、本実施例にかかるナビゲーション装置のハードウェア構成を示すブロック図である。FIG. 3 is a block diagram of a hardware configuration of the navigation device according to the present embodiment. 図4は、ナビゲーション装置の処理の内容を示すフローチャートである。FIG. 4 is a flowchart showing the contents of processing of the navigation device. 図5−1は、案内ポイントにおけるレーダによる検出範囲と、撮影によるブラインドエリアとの関係について示した説明図である。FIG. 5A is an explanatory diagram illustrating a relationship between a detection range by a radar at a guidance point and a blind area by photographing. 図5−2は、所定時間経過後の案内ポイントにおけるレーダによる検出範囲と、撮影によるブラインドエリアとの関係について示した説明図である。FIG. 5B is an explanatory diagram illustrating a relationship between a detection range by the radar at a guidance point after a predetermined time has elapsed and a blind area by photographing.

符号の説明Explanation of symbols

100 経路誘導装置
101 画像取得部
102 位置取得部
103 距離判断部
104 検出部
105 解析部
106 決定部
107 画像判断部
108 識別部
109 作成部
110 出力部
DESCRIPTION OF SYMBOLS 100 Route guidance device 101 Image acquisition part 102 Position acquisition part 103 Distance judgment part 104 Detection part 105 Analysis part 106 Determination part 107 Image judgment part 108 Identification part 109 Creation part 110 Output part

以下に添付図面を参照して、この発明にかかる経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体の好適な実施の形態を詳細に説明する。   Exemplary embodiments of a route guidance device, a route guidance method, a route guidance program, and a recording medium according to the present invention will be explained below in detail with reference to the accompanying drawings.

(実施の形態)
(経路誘導装置100の機能的構成)
はじめに、この発明の実施の形態にかかる経路誘導装置100の機能的構成について説明する。図1は、本実施の形態にかかる経路誘導装置の機能的構成を示すブロック図である。
(Embodiment)
(Functional configuration of the route guidance device 100)
First, a functional configuration of the route guidance device 100 according to the embodiment of the present invention will be described. FIG. 1 is a block diagram showing a functional configuration of the route guidance apparatus according to the present embodiment.

図1において、経路誘導装置100は、画像取得部101と、位置取得部102と、距離判断部103と、検出部104と、解析部105と、決定部106と、画像判断部107と、識別部108と、作成部109と、出力部110と、を備えている。   In FIG. 1, the route guidance device 100 includes an image acquisition unit 101, a position acquisition unit 102, a distance determination unit 103, a detection unit 104, an analysis unit 105, a determination unit 106, an image determination unit 107, and an identification. Unit 108, creation unit 109, and output unit 110.

画像取得部101は、移動体の移動方向を撮像した画像を取得する。具体的には、たとえば、移動体の運転席に備えられ、運転者の視野角に設定されたカメラなどから進行方向の景色を撮影した画像を取得する。また、移動体の移動方向を撮像した画像は、たとえば、運転者の視野に関する映像情報でもよい。運転者の視野に関する映像情報は、運転者が実際に見ている風景とほぼ同じ風景を捉えた画像の情報である。   The image acquisition unit 101 acquires an image obtained by capturing the moving direction of the moving body. Specifically, for example, an image obtained by capturing a scene in the traveling direction is acquired from a camera or the like that is provided in the driver's seat of the moving body and set to the viewing angle of the driver. The image obtained by capturing the moving direction of the moving body may be, for example, video information related to the driver's field of view. The video information related to the driver's field of view is image information that captures almost the same scenery as the scenery that the driver actually sees.

位置取得部102は、移動体の現在位置情報を取得する。移動体の現在位置情報は、たとえば、GPS衛星から受信したGPS信号に加えて、移動体の挙動を検出する加速度センサや車速センサからの出力値に応じて、移動体の現在位置情報を取得するようにしてもよい。   The position acquisition unit 102 acquires current position information of the moving object. For example, the current position information of the moving body is acquired in accordance with an output value from an acceleration sensor or a vehicle speed sensor that detects the behavior of the moving body in addition to a GPS signal received from a GPS satellite. You may do it.

距離判断部103は、位置取得部102によって取得された現在位置情報が、誘導情報の作成される誘導地点まで所定距離以内になったか否かを判断する。誘導情報は、移動体を目的地点までの経路へ誘導するための案内情報である。誘導地点(案内ポイント)は、右左折をおこなう交差点などの通常の経路誘導において誘導情報が出力される地点などである。また、所定距離は、一定でもよいし、移動体の速度によって可変でもよい。   The distance determination unit 103 determines whether or not the current position information acquired by the position acquisition unit 102 is within a predetermined distance to the guide point where the guide information is created. The guidance information is guidance information for guiding the mobile body to the route to the destination point. The guidance point (guidance point) is a point where guidance information is output in normal route guidance such as an intersection that makes a right or left turn. Further, the predetermined distance may be constant or variable depending on the speed of the moving body.

検出部104は、移動方向に存在する物体の位置をレーダによって検出する。移動方向に存在する物体は、具体的には、たとえば、他の移動体や人などである。検出部104は、具体的には、たとえば、電磁波を用いたレーザや超音波を用いたソナーなどによって物体の位置を検出する。レーダやソナーは、波動の回折により、波動の伝播が障害物で一部遮られたとき、障害物の影の部分にも波動が伝播してゆく。これによって、複数の物体が前後に重なっている場合も、それぞれの物体の位置を検出することができる。また、検出部104は、物体の種類(車両、人など)や大きさを判別できるようにしてもよい。   The detection unit 104 detects the position of an object existing in the moving direction by using a radar. Specifically, the object existing in the moving direction is, for example, another moving body or a person. Specifically, the detection unit 104 detects the position of the object using, for example, a laser using electromagnetic waves or a sonar using ultrasonic waves. In radar and sonar, when the propagation of a wave is partially blocked by an obstacle due to the diffraction of the wave, the wave propagates to the shadowed part of the obstacle. Thereby, even when a plurality of objects overlap each other, the position of each object can be detected. The detection unit 104 may be configured to determine the type (vehicle, person, etc.) and size of the object.

解析部105は、検出部104によって検出された物体の位置から移動状態を解析する。解析部105は、たとえば、検出部104による物体の位置の連続的な検出から、物体の右左折を予測させる状態を解析する。右左折を予測させる状態とは、具体的には、たとえば、物体の速度が遅くなった状態、物体が右左折車線に移動した状態などである。   The analysis unit 105 analyzes the movement state from the position of the object detected by the detection unit 104. The analysis unit 105 analyzes, for example, a state in which a right or left turn of an object is predicted from continuous detection of the position of the object by the detection unit 104. Specifically, the state in which the right / left turn is predicted is, for example, a state in which the speed of the object is slow, a state in which the object has moved to the right / left turn lane, or the like.

決定部106は、解析部105によって解析された解析結果に基づいて、誘導情報の目印となる物体を決定する。誘導情報の目印となる物体は、誘導情報を作成する際に、その位置が目印として用いられる物体である。具体的には、たとえば、誘導地点周辺において右左折を予測させる状態の物体である。   Based on the analysis result analyzed by the analysis unit 105, the determination unit 106 determines an object to be a guide information guide. The object that becomes the mark of the guide information is an object whose position is used as a mark when the guide information is created. Specifically, for example, the object is in a state of predicting a right or left turn around the guidance point.

画像判断部107は、画像取得部101によって取得された画像に決定部106によって決定した目印となる物体が撮像されているか否かを判断する。たとえば、画像解析などによって、画像取得部101によって取得された画像に目印となる物体が撮像されているか否かを判断する。具体的には、たとえば、決定部106によって決定された目印となる物体に対する解析部105から取得した解析結果(物体の左右を予測させる状態の結果)から画像上の位置を特定し、その画像上の位置に決定部106によって決定された目印となる物体に対する検出部104から取得した種類や大きさに該当する物体が撮像されているか否かを判断する。また、画像判断部107は、ブラインドエリアを判断するようにしてもよい。ブラインドエリアは、たとえば、利用者の視野のうちの物体によって視野が遮られる範囲である。具体的には、たとえば、走行中に連続して取得する画像のうち、同一方向の前方を走行する車両などによってほとんど景色に変化のない範囲をブラインドエリアとする。   The image determination unit 107 determines whether or not an image that is the mark determined by the determination unit 106 is captured in the image acquired by the image acquisition unit 101. For example, it is determined by image analysis or the like whether or not an object serving as a mark is captured in the image acquired by the image acquisition unit 101. Specifically, for example, the position on the image is specified from the analysis result (result of the state in which the left and right of the object are predicted) acquired from the analysis unit 105 with respect to the object serving as the mark determined by the determination unit 106, and on the image It is determined whether or not an object corresponding to the type and size acquired from the detection unit 104 for the object serving as the mark determined by the determination unit 106 is imaged at the position. Further, the image determination unit 107 may determine a blind area. The blind area is, for example, a range where the visual field is blocked by an object in the user's visual field. Specifically, for example, a range in which the scenery hardly changes due to a vehicle traveling in the front in the same direction among images continuously acquired during traveling is set as a blind area.

識別部108は、画像取得部101によって取得された画像に基づいて、物体の外観的特徴を識別する。物体の外観的特徴は、たとえば、色、大きさ、種類などのそれぞれの物体を識別できる特徴である。   The identification unit 108 identifies the external feature of the object based on the image acquired by the image acquisition unit 101. The appearance feature of an object is a feature that can identify each object such as color, size, and type.

作成部109は、画像取得部101によって取得された画像と、検出部104によって検出された検出結果とに基づいて、物体の位置を目印として移動体を誘導する経路の誘導情報を作成する。作成部109は、具体的には、たとえば、識別部108によって識別された物体の外観的特徴と、位置取得部102によって取得された物体の位置と、を目印として移動体を誘導する経路の誘導情報を作成する。また、作成部109は、画像判断部107によって目印となる物体が撮像されていると判断された場合、もしくは、距離判断部103によって所定距離以内になったと判断された場合に、誘導情報を作成してもよい。   Based on the image acquired by the image acquisition unit 101 and the detection result detected by the detection unit 104, the generation unit 109 generates route guidance information for guiding the moving body using the position of the object as a mark. Specifically, for example, the creation unit 109 guides a route that guides the moving object using the appearance characteristics of the object identified by the identification unit 108 and the position of the object acquired by the position acquisition unit 102 as landmarks. Create information. Further, the creation unit 109 creates guidance information when the image determination unit 107 determines that an object to be a mark is captured, or when the distance determination unit 103 determines that the distance is within a predetermined distance. May be.

作成部109による誘導情報の作成は、たとえば、つぎのようにして作成される。作成部109は、誘導情報を作成するための図示しない語彙テーブルを備えており、たとえば、色を示す語彙として「赤」、「白」、「青」などの文字データを持ち、また、物体の移動状態を示す語彙として「右」、「左」、「反対」、「方向」、「曲がる」などの文字データを持っている。   For example, the creation of the guidance information by the creation unit 109 is created as follows. The creation unit 109 includes a vocabulary table (not shown) for creating guidance information. For example, the creation unit 109 has character data such as “red”, “white”, and “blue” as vocabularies indicating colors, It has character data such as “right”, “left”, “opposite”, “direction”, “turn” as the vocabulary indicating the movement state.

さらに、物体の種類を示す語彙として「トラック」、「バス」、「オートバイ」、「人」などの文字データを持ち、また、視認方向を示す語彙として「右前方30度方向」、「右斜め前方」などの文字データを持ち、予測を示す語彙として「もうすぐ」、「まもなく」などの文字データを持っている。そして、画像取得部101によって取得された画像と、検出部104によって検出された検出結果とに基づいて、誘導案内に最適な文字データを抽出して音声データに変換し、誘導情報として出力部110に送る。   Furthermore, it has character data such as “truck”, “bus”, “motorcycle”, “person” as the vocabulary indicating the kind of object, and “right 30 ° forward” and “right diagonal” as the vocabulary indicating the viewing direction. It has character data such as “front”, and has character data such as “coming soon” and “coming soon” as a vocabulary indicating prediction. Then, based on the image acquired by the image acquisition unit 101 and the detection result detected by the detection unit 104, character data optimal for guidance is extracted and converted into voice data, and output as guidance information to the output unit 110. Send to.

出力部110は、作成部109によって作成された物体の位置を含む誘導情報を出力する。誘導情報は、決定部106によって決定された目印となる物体の位置を含む誘導情報でもよいし、物体の位置および外観的特徴を含む誘導情報でもよい。出力部110は、スピーカなどの音声出力装置が備えられており、作成部109によって作成された誘導情報を随時出力する。   The output unit 110 outputs guidance information including the position of the object created by the creation unit 109. The guidance information may be guidance information including the position of the object that is the mark determined by the determination unit 106, or may be guidance information including the position of the object and an appearance feature. The output unit 110 includes an audio output device such as a speaker, and outputs the guidance information created by the creation unit 109 as needed.

また、出力部110は、地図データを表示する表示画面を備えていてもよい。ここで、地図データは、図示しない記録部に記録されている。地図データは、ノードおよびリンクからなる道路ネットワークデータと、施設や道路その他地形(山、川、土地)に関するフィーチャを用いて描画される画像データとを含んでいる。地図データは、文字情報、施設の名称や住所などの情報、道路や施設の画像などを含んでいてもよい。また、表示画面には、作成部109によって作成された誘導情報を随時表示してもよい。   Moreover, the output part 110 may be provided with the display screen which displays map data. Here, the map data is recorded in a recording unit (not shown). The map data includes road network data composed of nodes and links, and image data drawn using features relating to facilities, roads, and other terrain (mountains, rivers, land). The map data may include text information, information such as facility names and addresses, road and facility images, and the like. In addition, the guidance information created by the creation unit 109 may be displayed on the display screen as needed.

(経路誘導装置の経路誘導処理手順)
つぎに、経路誘導装置100の経路誘導処理手順について説明する。図2は、経路誘導装置の経路誘導処理手順を示すフローチャートである。図2のフローチャートにおいて、まず、画像取得部101によって移動体の移動方向を撮像した画像を取得する(ステップS201)。ステップS201において移動方向を撮像した画像は、継続して取得する。
(Route guidance processing procedure of the route guidance device)
Next, a route guidance processing procedure of the route guidance device 100 will be described. FIG. 2 is a flowchart showing a route guidance processing procedure of the route guidance device. In the flowchart of FIG. 2, first, an image obtained by capturing the moving direction of the moving object is acquired by the image acquisition unit 101 (step S201). Images obtained by capturing the moving direction in step S201 are continuously acquired.

つぎに、検出部104によって移動方向に存在する物体の位置をレーダによって検出して(ステップS202)、解析部105によってステップS202において検出した物体の位置から物体の移動状態を解析する(ステップS203)。ステップS202において物体の位置は、継続して検出する。   Next, the position of the object existing in the moving direction is detected by the detection unit 104 by the radar (step S202), and the moving state of the object is analyzed from the position of the object detected in step S202 by the analysis unit 105 (step S203). . In step S202, the position of the object is continuously detected.

ステップS203において解析した解析結果に基づいて、決定部106によって誘導情報の目印となる物体を決定する(ステップS204)。そして、画像判断部107によって、ステップS201において取得した画像に、ステップS204において決定した物体が撮像されてると判断されるまで待って(ステップS205:Noのループ)、物体が撮像されている場合(ステップS205:Yes)、識別部108によってステップS205において撮像されていると判断された物体の外観的特徴を識別する(ステップS206)。   Based on the analysis result analyzed in step S203, the determination unit 106 determines an object to be a guide for guidance information (step S204). When the image determination unit 107 determines that the object determined in step S204 is captured in the image acquired in step S201 (step S205: No loop), the object is captured ( (Step S205: Yes), the appearance feature of the object determined to be imaged in Step S205 by the identification unit 108 is identified (Step S206).

つぎに、作成部109によって、ステップS203によって解析された物体の移動状態と、ステップS206において識別した外観的特徴とに基づいて、誘導情報を作成する(ステップS207)。そして、ステップS207において作成された物体の移動状態および外観的特徴を含む誘導情報を出力し(ステップS208)、一連の処理を終了する。   Next, guidance information is created by the creation unit 109 based on the movement state of the object analyzed in step S203 and the external features identified in step S206 (step S207). Then, guidance information including the moving state and appearance characteristics of the object created in step S207 is output (step S208), and the series of processing ends.

なお、図2のフローチャートにおいては、ステップS204において誘導情報の目印となる物体を決定するとしているが、たとえば、目印となる物体は単数でもよいし、複数でもよい。そして、複数の場合は、それぞれの物体の位置を継続して検出する。   In the flowchart of FIG. 2, the object to be the guide information guide is determined in step S204. However, for example, the object to be the mark may be singular or plural. In a plurality of cases, the position of each object is continuously detected.

また、図2のフローチャートにおいては、ステップS205:Noのループにおいて物体が撮像されるまで待つとしているが、これに限るものではない。具体的には、たとえば、物体が撮像されていない場合でも、ステップS207に進み、誘導情報を作成してもよい。また、ここで誘導情報は、「もうすぐ見える車が・・・。」などの予告誘導情報である。   In the flowchart of FIG. 2, the process waits until the object is imaged in the loop of Step S <b> 205: No, but is not limited thereto. Specifically, for example, even when an object is not imaged, the process may proceed to step S207 to create guidance information. In addition, the guidance information here is notice guidance information such as “a car that can be seen soon”.

また、図2のフローチャートにおいては、ステップS207において誘導情報を作成するとしているが、これに限るものではない。具体的には、たとえば、ステップS204において目印となる物体を決定して、すぐに誘導情報を作成してもよい。この場合、ステップS205:Yesにおいて物体が撮像されていると判断された場合、ただちにステップS208に進み誘導情報を出力する構成でもよい。   In the flowchart of FIG. 2, guidance information is created in step S207, but the present invention is not limited to this. Specifically, for example, an object to be a mark may be determined in step S204 and the guidance information may be created immediately. In this case, when it is determined in step S205: Yes that an object is being imaged, the process may immediately proceed to step S208 to output guidance information.

上述したように、実施の形態の経路誘導装置100によれば、画像取得部101によって取得された画像と、検出部104によって検出された検出結果に基づいて、作成部109によって物体の位置を目印として移動体を誘導する経路の誘導情報を作成し、出力部110によって出力することができる。   As described above, according to the route guidance device 100 of the embodiment, the position of the object is marked by the creation unit 109 based on the image acquired by the image acquisition unit 101 and the detection result detected by the detection unit 104. As described above, it is possible to create guidance information of a route for guiding the mobile body and output it by the output unit 110.

したがって、物体の位置を目印とした誘導情報を作成する場合、障害物などによって画像に撮像されない範囲の物体に関しても、レーダによって位置を検出することができる。これによって、利用者は、物体の位置を目印とした誘導案内をおこなう場合、利用者の視野に入らない物体に関しても位置を検出しておくことで、それらの物体が利用者の視野に入ったらすぐに誘導情報を出力させることができる。したがって、障害物の多い経路においても物体の位置を用いた誘導情報を出力させることができる。   Therefore, when creating guidance information using the position of an object as a landmark, the position of an object in a range that is not captured in an image by an obstacle or the like can be detected by the radar. As a result, when performing guidance with the position of an object as a landmark, the user detects the position of an object that does not fall within the user's field of view, and if those objects enter the user's field of view. The guidance information can be output immediately. Therefore, guidance information using the position of an object can be output even on a route with many obstacles.

また、実施の形態の経路誘導装置100によれば、作成部109は、画像取得部101によって取得された画像に決定部106によって決定した目印となる物体が撮像されていると判断された場合、誘導情報を作成する。そして、出力部110によって作成された目印となる物体の位置を含む誘導情報を出力することができる。   Further, according to the route guidance device 100 of the embodiment, when the creation unit 109 determines that the object that is the mark determined by the determination unit 106 is captured in the image acquired by the image acquisition unit 101, Create guidance information. And the guidance information containing the position of the object used as the mark produced by the output part 110 can be output.

したがって、物体の位置を目印とした誘導情報を作成する場合、利用者の視野に入っている物体の位置のみを用いた誘導情報を出力することができる。これによって、利用者は、視野に入っていない物体の位置を用いた誘導情報の出力によって混乱されることを防ぐことができる。   Therefore, when creating guidance information using the position of an object as a landmark, guidance information using only the position of the object in the user's field of view can be output. This prevents the user from being confused by the output of guidance information using the position of an object that is not in the field of view.

また、実施の形態の経路誘導装置100によれば、画像取得部101によって取得された画像に基づいて、識別部108によって物体の外観的特徴を識別することができる。そして、作成部109によって物体の位置と、物体の外観的特徴と、を目印として移動体を誘導する経路の誘導情報を作成し、出力部110は、作成部109によって作成された物体の位置および外観的特徴を含む誘導情報を出力することができる。   Moreover, according to the route guidance device 100 of the embodiment, the appearance feature of the object can be identified by the identification unit 108 based on the image acquired by the image acquisition unit 101. Then, the creation unit 109 creates guidance information of a route for guiding the moving body using the position of the object and the appearance characteristics of the object as marks, and the output unit 110 outputs the position of the object created by the creation unit 109 and Guidance information including appearance features can be output.

したがって、目印となる物体が複数決定された場合、それぞれの物体を区別することができる。これによって、利用者は、複数の物体が案内ポイント周辺に存在する場合も、誘導情報の目印となる物体を簡単に見つけることができる。   Therefore, when a plurality of objects serving as landmarks are determined, each object can be distinguished. Accordingly, the user can easily find an object serving as a guide information for guidance information even when a plurality of objects exist around the guidance point.

また、実施の形態の経路誘導装置100によれば、位置取得部102によって取得された移動体の現在位置情報が、距離判断部103によって誘導情報の作成される誘導地点まで所定距離以内になったと判断された場合に、作成部109によって誘導情報を作成することができる。   Further, according to the route guidance device 100 of the embodiment, the current position information of the moving body acquired by the position acquisition unit 102 is within a predetermined distance to the guidance point where the guidance information is created by the distance determination unit 103. When the determination is made, the creation information can be created by the creation unit 109.

したがって、案内ポイントから所定距離以内になるまでは、レーダを起動しないことができる。これによって、利用者は、案内ポイントから所定距離以内になるまでは、レーダの有する他の機能をさせておくことができる。   Therefore, the radar can not be activated until it is within a predetermined distance from the guide point. This allows the user to keep other functions of the radar until it is within a predetermined distance from the guide point.

以下に、本発明の実施例について説明する。本実施例では、たとえば、車両(四輪車、二輪車を含む)などの移動体に搭載されるナビゲーション装置によって、本発明の経路誘導装置を実施した場合の一例について説明する。   Examples of the present invention will be described below. In the present embodiment, an example in which the route guidance device of the present invention is implemented by a navigation device mounted on a moving body such as a vehicle (including a four-wheeled vehicle and a two-wheeled vehicle) will be described.

(ナビゲーション装置のハードウェア構成)
つぎに、本実施例にかかるナビゲーション装置300のハードウェア構成について説明する。図3は、本実施例にかかるナビゲーション装置のハードウェア構成を示すブロック図である。図3において、ナビゲーション装置300は、CPU301と、ROM302と、RAM303と、磁気ディスクドライブ304と、磁気ディスク305と、光ディスクドライブ306と、光ディスク307と、音声I/F(インターフェース)308と、マイク309と、スピーカ310と、入力デバイス311と、映像I/F312と、ディスプレイ313と、通信I/F314と、GPSユニット315と、各種センサ316と、カメラ317と、を備えている。各構成部301〜317は、バス320によってそれぞれ接続されている。
(Hardware configuration of navigation device)
Next, a hardware configuration of the navigation device 300 according to the present embodiment will be described. FIG. 3 is a block diagram of a hardware configuration of the navigation device according to the present embodiment. In FIG. 3, the navigation device 300 includes a CPU 301, a ROM 302, a RAM 303, a magnetic disk drive 304, a magnetic disk 305, an optical disk drive 306, an optical disk 307, an audio I / F (interface) 308, and a microphone 309. A speaker 310, an input device 311, a video I / F 312, a display 313, a communication I / F 314, a GPS unit 315, various sensors 316, and a camera 317. Each component 301 to 317 is connected by a bus 320.

まず、CPU301は、ナビゲーション装置300の全体の制御を司る。ROM302は、ブートプログラム、データ更新プログラムなどのプログラムを記録している。また、RAM303は、CPU301のワークエリアとして使用される。すなわち、CPU301は、RAM303をワークエリアとして使用しながら、ROM302に記録された各種プログラムを実行することによって、ナビゲーション装置300の全体の制御を司る。   First, the CPU 301 governs overall control of the navigation device 300. The ROM 302 records programs such as a boot program and a data update program. The RAM 303 is used as a work area for the CPU 301. That is, the CPU 301 controls the entire navigation device 300 by executing various programs recorded in the ROM 302 while using the RAM 303 as a work area.

挙動解析プログラムは、後述する各種センサ316が備えるレーダなどの出力から物体の移動状態を解析させる。ここで物体は、たとえば、対向車両、同一車線車両、人間、落下物など、誘導情報の目印となりうるものである。具体的には、たとえば、速度を落とした車両を検出したか否か、右左折車線へ移動した車両を検出したか否か、道路を横断中の通行人を検出したか否かなどの他の車両の右左折や通行人の横断を予測させる移動状態などを解析させる。また、挙動解析プログラムは、後述するカメラ317によって撮像される映像情報に存在する物体の外観的特徴を解析させる。外観的特徴は、たとえば、車体の色や形状、もしくは車名や車種など、または通行人の服装などである。   The behavior analysis program analyzes the moving state of an object from the output of a radar or the like included in various sensors 316 described later. Here, the object can be a marker of guidance information such as an oncoming vehicle, the same lane vehicle, a human being, and a falling object. Specifically, for example, whether or not a vehicle that has slowed down is detected, whether or not a vehicle that has moved to the right or left turn lane is detected, or whether or not a passerby crossing a road is detected. Analyze the state of movement that predicts turning of vehicles and crossing of passers-by. In addition, the behavior analysis program analyzes the appearance characteristics of an object existing in video information captured by a camera 317 described later. The appearance features include, for example, the color and shape of the vehicle body, the name of the vehicle, the vehicle type, and the clothes of passersby.

誘導情報作成プログラムは、経路誘導に関する誘導情報を作成させる。誘導情報は、案内ポイントにおける物体の移動状態を用いて利用者を促す音声情報である。誘導情報は、具体的には、たとえば、レーダなどの出力から移動状態が解析された対向車両、同一車線前方を走行中の同一車線車両、または道路を横断中の通行人などを用いた自車両を誘導案内する音声情報である。   The guidance information creation program creates guidance information related to route guidance. The guidance information is audio information that prompts the user using the moving state of the object at the guidance point. Specifically, the guidance information is, for example, an oncoming vehicle whose movement state is analyzed from the output of a radar or the like, the same lane vehicle traveling in front of the same lane, or a passerby traveling across the road. Is voice information for guiding the user.

また、誘導情報作成プログラムは、経路誘導に関する予告誘導情報を作成させる。予告誘導情報は、たとえば、利用者の視野に誘導案内に用いる物体が入る前に、案内ポイントにおけるこの物体の移動状態を用いて利用者を促す音声情報である。具体的には、たとえば、所定時間経過後に利用者の視野に入ると予測される物体のレーダによる解析結果を用いて自車両を誘導案内する案内情報である。   In addition, the guidance information creation program creates notice guidance information related to route guidance. The advance guidance information is, for example, audio information that prompts the user by using the moving state of the object at the guidance point before the object used for guidance guidance enters the user's field of view. Specifically, for example, guidance information for guiding and guiding the host vehicle using an analysis result of an object predicted to enter the user's field of view after a predetermined time has elapsed.

磁気ディスクドライブ304は、CPU301の制御にしたがって磁気ディスク305に対するデータの読み取り/書き込みを制御する。磁気ディスク305は、磁気ディスクドライブ304の制御で書き込まれたデータを記録する。磁気ディスク305としては、たとえば、HD(ハードディスク)やFD(フレキシブルディスク)を用いることができる。   The magnetic disk drive 304 controls the reading / writing of the data with respect to the magnetic disk 305 according to control of CPU301. The magnetic disk 305 records data written under the control of the magnetic disk drive 304. As the magnetic disk 305, for example, an HD (hard disk) or an FD (flexible disk) can be used.

また、光ディスクドライブ306は、CPU301の制御にしたがって光ディスク307に対するデータの読み取り/書き込みを制御する。光ディスク307は、光ディスクドライブ306の制御にしたがってデータが読み出される着脱自在な記録媒体である。光ディスク307は、書き込み可能な記録媒体を利用することもできる。着脱可能な記録媒体として、光ディスク307のほか、MO、メモリカードなどであってもよい。   The optical disk drive 306 controls reading / writing of data with respect to the optical disk 307 according to the control of the CPU 301. The optical disk 307 is a detachable recording medium from which data is read according to the control of the optical disk drive 306. As the optical disc 307, a writable recording medium can be used. As a removable recording medium, in addition to the optical disk 307, an MO, a memory card, or the like may be used.

磁気ディスク305および光ディスク307に記録される情報の一例としては、地図データや機能データが挙げられる。地図データは、建物、河川、地表面などの地物(フィーチャ)をあらわす背景データと、道路の形状をあらわす道路形状データとを含んでおり、地区ごとに分けられた複数のデータファイルによって構成されている。   Examples of information recorded on the magnetic disk 305 and the optical disk 307 include map data and function data. The map data includes background data that represents features (features) such as buildings, rivers, and the ground surface, and road shape data that represents the shape of the road, and is composed of multiple data files divided by district. ing.

道路形状データは、さらに交通条件データを有する。交通条件データには、たとえば、各ノードについて、信号や横断歩道などの有無、高速道路の出入り口やジャンクションの有無、各リンクについての長さ(距離)、道幅、進行方向、道路種別(高速道路、有料道路、一般道路など)などの情報が含まれている。   The road shape data further includes traffic condition data. The traffic condition data includes, for example, whether or not there is a signal or a pedestrian crossing, whether or not there is a highway doorway or junction, the length (distance) of each link, road width, direction of travel, road type (highway, Such as toll roads and general roads).

機能データは、地図上の施設の形状をあらわす3次元データ、当該施設の説明をあらわす文字データ、その他地図データ以外の各種のデータである。地図データや機能データは、地区ごとあるいは機能ごとにブロック分けされた状態で記録されている。具体的には、たとえば、地図データは、各々が、表示画面に表示された地図において所定の地区をあらわすように、地区ごとにブロック分けすることができる状態で記録されている。また、たとえば、機能データは、各々が、1つの機能を実現するように、機能ごとに複数にブロック分けすることができる状態で記録されている。   The function data is three-dimensional data representing the shape of the facility on the map, character data representing the description of the facility, and other various data other than the map data. Map data and function data are recorded in blocks divided by district or function. Specifically, for example, the map data is recorded in a state where each block can be divided into blocks so that each map represents a predetermined district on the map displayed on the display screen. Further, for example, the function data is recorded in a state where each function can be divided into a plurality of blocks so as to realize one function.

また、機能データは、上述した3次元データや文字データに加えて、経路探索、所要時間の算出、経路誘導などを実現するプログラムデータなどの機能を実現するためのデータである。地図データおよび機能データは、それぞれ、地区ごとあるいは機能ごとに分けられた複数のデータファイルによって構成されている。   The function data is data for realizing functions such as program data for realizing route search, calculation of required time, route guidance, etc. in addition to the above-described three-dimensional data and character data. Each of the map data and the function data is composed of a plurality of data files divided for each district or each function.

音声I/F308は、音声入力用のマイク309および音声出力用のスピーカ310に接続される。マイク309に受音された音声は、音声I/F308内でA/D変換される。マイク309は、たとえば、車両のサンバイザー付近に設置され、その数は単数でも複数でもよい。スピーカ310からは、所定の音声信号を音声I/F308内でD/A変換した音声が出力される。なお、マイク309から入力された音声は、音声データとして磁気ディスク305あるいは光ディスク307に記録可能である。   The audio I / F 308 is connected to a microphone 309 for audio input and a speaker 310 for audio output. The sound received by the microphone 309 is A / D converted in the sound I / F 308. For example, the microphone 309 may be installed near the sun visor of the vehicle, and the number thereof may be one or more. From the speaker 310, a sound obtained by D / A converting a predetermined sound signal in the sound I / F 308 is output. Note that the sound input from the microphone 309 can be recorded on the magnetic disk 305 or the optical disk 307 as sound data.

音声I/F308は、誘導情報作成プログラムによって作成される誘導情報および予告誘導情報を出力する。音声I/F308は、たとえば、後述する各種センサ316が備えるレーダなどによって検出された誘導情報に用いられる物体が後述するカメラ317によって撮影された場合に、誘導情報をスピーカから出力する。また、音声I/F308は、たとえば、後述する各種センサ316が備えるレーダなどによって検出された予告誘導情報に用いられる物体が後述するカメラ317によって撮影されていない場合にも、スピーカから出力してもよい。   The voice I / F 308 outputs guidance information and notice guidance information created by the guidance information creation program. The audio I / F 308 outputs guidance information from a speaker when an object used for guidance information detected by a radar or the like included in various sensors 316 described later is photographed by a camera 317 described later. The audio I / F 308 may be output from the speaker even when an object used for the advance guidance information detected by a radar or the like included in various sensors 316 described later is not captured by a camera 317 described later. Good.

入力デバイス311は、文字、数値、各種指示などの入力のための複数のキーを備えたリモコン、キーボード、タッチパネルなどが挙げられる。入力デバイス311は、リモコン、キーボード、タッチパネルのうちいずれか1つの形態によって実現されてもよいが、複数の形態によって実現することも可能である。   Examples of the input device 311 include a remote controller having a plurality of keys for inputting characters, numerical values, various instructions, and the like, a keyboard, and a touch panel. The input device 311 may be realized by any one form of a remote control, a keyboard, and a touch panel, but may be realized by a plurality of forms.

映像I/F312は、ディスプレイ313に接続される。映像I/F312は、具体的には、たとえば、ディスプレイ313全体を制御するグラフィックコントローラと、即時表示可能な画像情報を一時的に記録するVRAM(Video RAM)などのバッファメモリと、グラフィックコントローラから出力される画像データに基づいてディスプレイ313を制御する制御ICなどによって構成される。   The video I / F 312 is connected to the display 313. Specifically, the video I / F 312 is output from, for example, a graphic controller that controls the entire display 313, a buffer memory such as a VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and a graphic controller. And a control IC for controlling the display 313 based on the image data to be processed.

ディスプレイ313には、アイコン、カーソル、メニュー、ウインドウ、あるいは文字や画像などの各種データが表示される。ディスプレイ313には、上述した地図データが、2次元または3次元に描画される。ディスプレイ313に表示された地図データには、ナビゲーション装置300を搭載した車両の現在位置をあらわすマークなどを重ねて表示することができる。車両の現在位置は、CPU301によって算出される。   The display 313 displays icons, cursors, menus, windows, or various data such as characters and images. On the display 313, the map data described above is drawn two-dimensionally or three-dimensionally. The map data displayed on the display 313 can be displayed with a mark representing the current position of the vehicle on which the navigation device 300 is mounted. The current position of the vehicle is calculated by the CPU 301.

ディスプレイ313としては、たとえば、CRT、TFT液晶ディスプレイ、プラズマディスプレイなどを用いることができる。ディスプレイ313は、たとえば、車両のダッシュボード付近に設置される。ディスプレイ313は、車両のダッシュボード付近のほか、車両の後部座席周辺などに設置するなどして、車両において複数設置されていてもよい。   As the display 313, for example, a CRT, a TFT liquid crystal display, a plasma display, or the like can be used. The display 313 is installed near the dashboard of the vehicle, for example. A plurality of displays 313 may be installed in the vehicle, for example, in the vicinity of the dashboard of the vehicle or in the vicinity of the rear seat of the vehicle.

通信I/F314は、無線を介してネットワークに接続され、ナビゲーション装置300とCPU301とのインターフェースとして機能する。通信I/F314は、さらに、無線を介してインターネットなどの通信網に接続され、この通信網とCPU301とのインターフェースとしても機能する。   The communication I / F 314 is connected to a network via wireless and functions as an interface between the navigation device 300 and the CPU 301. The communication I / F 314 is further connected to a communication network such as the Internet via wireless, and also functions as an interface between the communication network and the CPU 301.

通信網には、LAN、WAN、公衆回線網や携帯電話網などがある。具体的には、通信I/F314は、たとえば、FMチューナー、VICS(Vehicle Information and Communication System)/ビーコンレシーバ、無線ナビゲーション装置、およびその他のナビゲーション装置によって構成され、VICSセンターから配信される渋滞や交通規制などの道路交通情報を取得する。なお、VICSは登録商標である。また、通信I/F314は、他のナビゲーション装置や通信端末装置から、それぞれの現在位置情報を取得してもよい。   Communication networks include LANs, WANs, public line networks and mobile phone networks. Specifically, the communication I / F 314 includes, for example, an FM tuner, a VICS (Vehicle Information and Communication System) / beacon receiver, a radio navigation device, and other navigation devices. Obtain road traffic information such as regulations. VICS is a registered trademark. Further, the communication I / F 314 may acquire current position information from other navigation devices or communication terminal devices.

GPSユニット315は、GPS衛星からの電波を受信し、車両の現在位置を示す情報を出力する。GPSユニット315の出力情報は、後述する各種センサ316の出力値とともに、CPU301による車両の現在位置の算出に際して利用される。現在位置を示す情報は、たとえば緯度・経度、高度などの、地図データ上の1点を特定する情報である。   The GPS unit 315 receives radio waves from GPS satellites and outputs information indicating the current position of the vehicle. The output information of the GPS unit 315 is used when the CPU 301 calculates the current position of the vehicle together with output values of various sensors 316 described later. The information indicating the current position is information for specifying one point on the map data, such as latitude / longitude and altitude.

各種センサ316は、車速センサ、加速度センサ、角速度センサなどの、車両の位置や挙動を判断するための情報を出力する。各種センサ316の出力値は、CPU301による車両の現在位置の算出や、速度や方位の変化量の算出に用いられる。   The various sensors 316 output information for determining the position and behavior of the vehicle, such as a vehicle speed sensor, an acceleration sensor, and an angular velocity sensor. The output values of the various sensors 316 are used for the calculation of the current position of the vehicle by the CPU 301 and the amount of change in speed and direction.

また、各種センサ316は、自車両周辺の物体の移動状態を継続的に検出する。具体的には、たとえば、電磁波などによるレーダや超音波などによるソナーによって車両の前方、側方、後方などの、物体の位置情報を検出する。レーダやソナーは、波動の回折により、波動の伝播が障害物で一部遮られたとき、障害物の影の部分にも波動が伝播してゆく。これによって、複数の車両が前後に重なっている場合も、それぞれの車両の移動状態を検出することができる。   The various sensors 316 continuously detect the moving state of objects around the host vehicle. Specifically, for example, position information of an object such as the front, side, or rear of the vehicle is detected by radar using electromagnetic waves or sonar using ultrasonic waves. In radar and sonar, when the propagation of a wave is partially blocked by an obstacle due to the diffraction of the wave, the wave propagates to the shadowed part of the obstacle. Thereby, even when a plurality of vehicles overlap each other, the movement state of each vehicle can be detected.

カメラ317は、車両内部あるいは外部の映像を撮影する。映像は静止画あるいは動画のどちらでもよく、たとえば、カメラ317によって車両内部の搭乗者の挙動を撮影し、撮影した映像を映像I/F312を介して磁気ディスク305や光ディスク307などの記録媒体に出力する。また、カメラ317によって車両外部の状況を撮影し、撮影した映像を映像I/F312を介して磁気ディスク305や光ディスク307などの記録媒体に出力する。   The camera 317 captures images inside or outside the vehicle. The image may be either a still image or a moving image. For example, the behavior of the passenger inside the vehicle is photographed by the camera 317, and the photographed image is output to a recording medium such as the magnetic disk 305 or the optical disk 307 via the video I / F 312. To do. The camera 317 captures a situation outside the vehicle, and outputs the captured video to a recording medium such as the magnetic disk 305 or the optical disk 307 via the video I / F 312.

また、カメラ317は、赤外線カメラ機能を有しており、赤外線カメラ機能を用いて撮影された映像情報に基づいて車両内部に存在する物体の表面温度の分布を相対的に比較することができる。また、記録媒体に出力された映像は、上書き記録や保存がおこなわれる。   Further, the camera 317 has an infrared camera function, and the surface temperature distributions of objects existing inside the vehicle can be relatively compared based on video information captured using the infrared camera function. The video output to the recording medium is overwritten and stored.

また、カメラ317は、利用者の視野に関する映像を撮影する。利用者の視野に関する映像は、利用者の視野とほぼ同じ範囲の映像である。カメラ317は、利用者の視野角に合わせて設置する。たとえば、利用者の座席シートの枕部分の端などに設置する。さらに、カメラ317は、利用者の視線を感知する他のカメラなどによって利用者の視野を確定し、これに応じてカメラ317の位置や角度を変更するようにしてもよい。   The camera 317 captures an image related to the user's visual field. The image relating to the user's field of view is an image in a range almost the same as the user's field of view. The camera 317 is installed according to the viewing angle of the user. For example, it is installed at the end of the pillow portion of the user seat. Further, the camera 317 may determine the user's field of view with another camera that senses the user's line of sight, and change the position and angle of the camera 317 accordingly.

図1に示した経路誘導装置100が備える画像取得部101、位置取得部102、距離判断部103、検出部104、解析部105、決定部106、画像判断部107、識別部108、作成部109、出力部110は、図3に示したナビゲーション装置300におけるROM302、RAM303、磁気ディスク305、光ディスク307などに記録されたプログラムやデータを用いて、CPU301が所定のプログラムを実行し、ナビゲーション装置300における各部を制御することによってその機能を実現する。   The image acquisition unit 101, the position acquisition unit 102, the distance determination unit 103, the detection unit 104, the analysis unit 105, the determination unit 106, the image determination unit 107, the identification unit 108, and the creation unit 109 included in the route guidance device 100 illustrated in FIG. 1. The output unit 110 uses the programs and data recorded in the ROM 302, RAM 303, magnetic disk 305, optical disk 307, etc. in the navigation device 300 shown in FIG. The function is realized by controlling each part.

すなわち、実施例のナビゲーション装置300は、ナビゲーション装置300における記録媒体としてのROM302に記録されている経路誘導プログラムを実行することにより、図1に示した経路誘導装置が備える機能を、図2に示した経路誘導処理手順で実行することができる。   That is, the navigation apparatus 300 according to the embodiment has the functions provided in the route guidance device shown in FIG. 1 by executing the route guidance program recorded in the ROM 302 as a recording medium in the navigation device 300, as shown in FIG. Can be executed by the route guidance processing procedure.

(ナビゲーション装置の処理の内容)
つぎに、ナビゲーション装置300の処理の内容について説明する。図4は、ナビゲーション装置の処理の内容を示すフローチャートである。図4のフローチャートにおいて、まず、利用者による入力デバイス311の操作によって目的地点が設定されるまで待って(ステップS401:Noのループ)、目的地点が設定された場合(ステップS401:Yes)、誘導経路を決定する(ステップS402)。
(Contents of navigation device processing)
Next, the processing contents of the navigation device 300 will be described. FIG. 4 is a flowchart showing the contents of processing of the navigation device. In the flowchart of FIG. 4, first, the user waits until the destination point is set by operating the input device 311 (step S401: No loop), and when the destination point is set (step S401: Yes), guidance is performed. A route is determined (step S402).

また、ステップS402において誘導経路が決定された際、同時に誘導経路上において音声もしくは画像によって案内をおこなう案内ポイントが設定されてもよい。   Further, when the guidance route is determined in step S402, a guidance point for performing guidance by voice or image on the guidance route may be set at the same time.

つぎに、走行を開始するまで待って(ステップS403:Noのループ)、走行を開始した場合(ステップS403:Yes)、カメラ317によって運転席から見た車両の進行方向の景色の撮影を開始する(ステップS404)。また、各種センサ316に備えられたレーダによる物体の検出を開始する(ステップS405)。   Next, waiting for the start of travel (step S403: No loop), and when the travel is started (step S403: Yes), the camera 317 starts photographing the scenery in the traveling direction of the vehicle as viewed from the driver's seat. (Step S404). In addition, the detection of an object by the radar provided in the various sensors 316 is started (step S405).

レーダによる物体検出範囲は、具体的には、たとえば、自車両が右左折する交差点などの案内ポイントを中心とし、案内ポイントからの距離Mに所定の余裕値αを加算した距離R=M+αを半径とした円の範囲である。また、レーダによる物体検出範囲は、案内ポイントに接する経路に限ってもよい。   Specifically, the object detection range by the radar is, for example, centered on a guide point such as an intersection where the host vehicle turns right and left, and a radius R = M + α obtained by adding a predetermined margin value α to the distance M from the guide point. The range of circles. Further, the object detection range by the radar may be limited to a route in contact with the guide point.

余裕値αは、たとえば、自車両の現在速度Pを取得し、距離Mの案内ポイントまで到達する予測時間T=M/Pを算出する。さらに、走行中の経路において一般の車両等で想定される最大速度Pmで走行した際に案内ポイントまで予測時間Tに到着する場合の案内ポイントまでの距離Mm=Pm(M/P)を算出する。このMmからMを引いた距離を余裕値αとする。したがって、余裕値α=Pm(M/P)−Mとなる。ここで、最大速度Pmは、一定でもよいし、その経路における制限速度(法定速度)、道路幅、道路の曲率などから算出してもよい。   As the margin value α, for example, the current speed P of the host vehicle is acquired, and the predicted time T = M / P to reach the guide point of the distance M is calculated. Further, the distance Mm = Pm (M / P) to the guidance point in the case of arriving at the predicted time T to the guidance point when traveling at the maximum speed Pm assumed for a general vehicle or the like on the traveling route is calculated. . A distance obtained by subtracting M from Mm is defined as a margin value α. Therefore, the margin value α = Pm (M / P) −M. Here, the maximum speed Pm may be constant, or may be calculated from a speed limit (legal speed) in the route, a road width, a road curvature, and the like.

また、レーダによる物体検出範囲は、たとえば、自車両の現在速度Pを取得し、現在速度Pによって時間Tの間に走行する距離M=PTに余裕値αを加算した距離R=PT+αを半径とした案内ポイントを中心とする円の範囲としてもよい。またこのとき、自車両の速度は、案内ポイントに近づくにつれて現在速度Pから減速していくことを加味して計算してもよい。   The object detection range by the radar is, for example, the distance R = PT + α obtained by adding the margin value α to the distance M = PT that travels during the time T by acquiring the current speed P of the host vehicle. It is good also as the range of the circle centering on the guide point which was made. At this time, the speed of the host vehicle may be calculated by taking into account that the vehicle speed decelerates from the current speed P as it approaches the guidance point.

したがって、自車両の現在速度Pの代わりに現在速度Pと距離による減速モデル関数f(P,M)の積分∫f(P,M)に時間Tを乗算した距離R=T∫f(P,M)を半径とした案内ポイントを中心とする円の範囲としてもよい。減速モデル関数f(P,M)は、所定の関数でもよいし、利用者や走行経路によって可変でもよい。   Therefore, instead of the current speed P of the host vehicle, the distance R = T∫f (P, P) obtained by multiplying the integral ∫f (P, M) of the deceleration model function f (P, M) by the current speed P and the distance by the time T. It is good also as the range of the circle centering on the guidance point which made M) a radius. The deceleration model function f (P, M) may be a predetermined function, or may be variable depending on the user and the travel route.

そして、案内ポイントまで所定距離以内になるまで待って(ステップS406:Noのループ)、案内ポイントまで所定距離以内になった場合(ステップS406:Yes)、物体の移動状態を解析する(ステップS407)。ここで、所定距離は、あらかじめ定められた一定の距離でもよいし、自車両の速度によって可変でもよい。   Then, the process waits until the guide point is within a predetermined distance (step S406: No loop). When the guide point is within the predetermined distance (step S406: Yes), the moving state of the object is analyzed (step S407). . Here, the predetermined distance may be a predetermined distance or may be variable depending on the speed of the host vehicle.

つぎに、ステップS407において解析された物体の移動状態から、誘導情報に用いる物体はあるか否かを判断する(ステップS408)。ここで、誘導情報に用いる物体か否かの判断は、たとえば、速度を落とした車両を検出したか否か、右左折車線へ移動した車両を検出したか否か、道路を横断中の通行人を検出したか否かなどの他の車両の右左折や通行人の横断を予測させる移動状態などの判断である。また、誘導情報に用いる物体の検出は単数でもよいし、複数でもよい。   Next, it is determined from the moving state of the object analyzed in step S407 whether or not there is an object used for the guidance information (step S408). Here, the determination as to whether or not the object is used for the guidance information is, for example, whether or not a vehicle that has slowed down is detected, whether or not a vehicle that has moved to the right or left turn lane is detected, or a passerby crossing the road Such as whether or not the vehicle has been detected, such as a moving state that predicts the turn of another vehicle or the crossing of a passerby. Moreover, the detection of the object used for guidance information may be singular or plural.

ステップS408において誘導情報に用いる物体があると判断された場合(ステップS408:Yes)、撮影されている映像にステップS408において誘導情報に用いる物体であると判断された物体が映るまで待つ(ステップS409:Noのループ)。そして、ステップS409において物体が映った場合(ステップS409:Yes)、映った物体の色を識別する(ステップS410)。   If it is determined in step S408 that there is an object to be used for guidance information (step S408: Yes), the process waits until the object that is determined to be the object to be used for guidance information in step S408 appears in the captured video (step S409). : No loop). When an object is reflected in step S409 (step S409: Yes), the color of the reflected object is identified (step S410).

そして、ステップS410において色を識別した物体を用いた誘導情報を出力する(ステップS411)。物体を用いた誘導情報は、具体的には、たとえば、「いま車が曲がったところを左折です」などといった物体の移動状態に基づいた誘導情報や、「いま赤い車が曲がったところを左折です」などといった物体の移動状態と、物体の色に基づいた誘導情報である。   And the guidance information using the object which identified the color in step S410 is output (step S411). Specifically, the guidance information using the object is, for example, guidance information based on the moving state of the object such as “Turn left where the car turns” or “Turn left where the red car turns” The guidance information is based on the moving state of the object such as “” and the color of the object.

一方、ステップS408において誘導情報に用いる物体がない場合(ステップS408:No)、通常の誘導情報を出力する(ステップS412)。ここで通常の誘導情報は、具体的には、たとえば、「300m先の交差点を左折です」などといった交差点名や道路名などを用いた誘導情報や、「300m先のコンビニの手前を左折です」などといったランドマークを用いた誘導情報である。   On the other hand, when there is no object used for guidance information in Step S408 (Step S408: No), normal guidance information is output (Step S412). Here, for example, the normal guidance information is, for example, guidance information using an intersection name or road name such as “turn left at the intersection 300m ahead” or “turn left before the convenience store 300m ahead” It is guidance information using landmarks such as.

つぎに、目的地点に到着したか否かを判断して(ステップS413)、目的地点に到着した場合(ステップS413:Yes)、一連の処理を終了する。   Next, it is determined whether or not the destination point has been reached (step S413). When the destination point has been reached (step S413: Yes), a series of processing is terminated.

一方、ステップS413において目的地点に到着しない場合(ステップS413:No)、ステップS406に戻り、以降の処理を繰り返す。   On the other hand, when it does not arrive at the destination point in step S413 (step S413: No), the process returns to step S406 and the subsequent processing is repeated.

なお、図4のフローチャートにおいては、ステップS406において案内ポイントまで所定距離以内か否かを判断しているが、これに限るものではない。たとえば、案内ポイントに到着する予測時間の所定時間前か否かを判断してもよい。   In the flowchart of FIG. 4, it is determined in step S406 whether the distance to the guidance point is within a predetermined distance, but the present invention is not limited to this. For example, it may be determined whether or not a predetermined time before the predicted time of arrival at the guidance point.

また、図4のフローチャートにおいては、ステップS409:Noのループにおいて物体が映るまで待つとしているが、これに限るものではない。たとえば、物体が映らなくても、ステップS410、ステップS411に進み、予測誘導として誘導情報を出力してもよい。予測誘導は、具体的には、たとえば、「もうすぐ見える赤い車が曲がるところを右折です」などといった、まだ利用者の視野に入っていない物体を用いた誘導情報である。   In the flowchart of FIG. 4, the process waits until an object appears in the loop of step S409: No, but is not limited thereto. For example, even if an object is not shown, the process proceeds to step S410 and step S411, and guidance information may be output as a predicted guidance. Predictive guidance is, specifically, guidance information using an object that is not yet in the user's field of view, such as, for example, “A right turn is about to turn when a red car is about to be seen”.

また、図4のフローチャートにおいては、ステップS410において物体の色を識別するとしているが、これに限るものではない。たとえば、物体の大きさや、車種などを識別してもよいし、また、ステップS410を省略して、物体の色を識別しなくても、ステップS411に進み、誘導情報を出力する構成でもよい。   In the flowchart of FIG. 4, the color of the object is identified in step S410, but the present invention is not limited to this. For example, the size of the object, the vehicle type, etc. may be identified, or the step S410 may be omitted and the color of the object may not be identified, and the process may proceed to step S411 and output guidance information.

また、ステップS411において物体を用いた誘導情報を出力するとしているが、たとえば、ステップS408において誘導情報に用いる物体が複数ある場合、これらの物体が撮影されている映像に映るたびに出力してもよい。具体的には、たとえば、「つぎに左折する交差点は、いま車が左折しています」、「また車が左折しています」、「今度は車が右折しています」というように連続して誘導情報を出力してもよい。   In addition, the guidance information using the object is output in step S411. For example, if there are a plurality of objects used for the guidance information in step S408, the guidance information may be output each time the object is reflected in the captured video. Good. Specifically, for example, “The next intersection where you turn left is now the car is turning left”, “The car is turning left again”, “This time the car is turning right”, etc. Guidance information may be output.

(レーダによる検出範囲と、撮影によるブラインドエリアとの関係)
つぎに、図5−1、および図5−2を用いて、レーダによる検出範囲と、撮影によるブラインドエリアとの関係について説明する。図5−1は、案内ポイントにおけるレーダによる検出範囲と、撮影によるブラインドエリアとの関係について示した説明図である。図5−2は、所定時間経過後の案内ポイントにおけるレーダによる検出範囲と、撮影によるブラインドエリアとの関係について示した説明図である。
(Relationship between detection range by radar and blind area by shooting)
Next, the relationship between the detection range by the radar and the blind area by photographing will be described with reference to FIGS. 5A and 5B. FIG. 5A is an explanatory diagram illustrating a relationship between a detection range by a radar at a guidance point and a blind area by photographing. FIG. 5B is an explanatory diagram illustrating a relationship between a detection range by the radar at a guidance point after a predetermined time has elapsed and a blind area by photographing.

図5−1および図5−2においては、自車両500と、同一車線の前方を走行する車両501と、対向車両A502と、対向車両B503と、レーダによる検出範囲510と、撮影によるブラインドエリア511と、が図示されている。レーダによる検出範囲510は、各種センサ316の備えるレーダやソナーが物体を検出可能な範囲である。レーダによる検出範囲510は、一定でもよいし、自車両や自車両の周辺に位置する他の車両の速度や案内ポイントまでの距離によって可変であってもよい。   5A and 5B, the host vehicle 500, the vehicle 501 traveling in front of the same lane, the oncoming vehicle A502, the oncoming vehicle B503, the detection range 510 by the radar, and the blind area 511 by photographing. Are shown. The radar detection range 510 is a range in which an object can be detected by the radar and sonar included in the various sensors 316. The detection range 510 by the radar may be constant, or may be variable depending on the speed of the host vehicle or other vehicles located around the host vehicle and the distance to the guide point.

ブラインドエリア511は、自車両500に搭乗している利用者の視野角に設定されたカメラ317によって撮影される画像において、障害物の裏などの撮影された画像に映らないエリアである。具体的には、たとえば、自車両500に搭乗している利用者の視野の中で、同一車線の前方を走行する車両501によって視野が遮られているエリアである。   The blind area 511 is an area that is not shown in a photographed image such as the back of an obstacle in an image photographed by the camera 317 set at the viewing angle of the user who is aboard the host vehicle 500. Specifically, for example, the area is blocked by the vehicle 501 traveling in front of the same lane in the field of view of the user boarding the host vehicle 500.

また、ブラインドエリア511か否かの判断は、たとえば、カメラ317による画像のうち自車両の走行に伴う時間経過によって画像が変化しない範囲をブラインドエリア511と判断してもよい。車両の走行に伴う時間経過によって画像が変化しない範囲は、具体的には、たとえば、前方を車両が同方向に走行しているために時間が経過しても同じ画像が映っていると判断される。   In addition, the determination as to whether or not the area is the blind area 511 may be, for example, a range in which the image does not change with the lapse of time associated with the traveling of the host vehicle in the image by the camera 317 may be determined as the blind area 511. Specifically, the range in which the image does not change with the lapse of time associated with the traveling of the vehicle is specifically determined that, for example, the same image is reflected even if the time elapses because the vehicle is traveling in the same direction ahead. The

したがって、たとえば、上述のブラインドエリア511か否かの判断をおこなうことで、各種センサ316の備えるレーダなどの代わりに、通信I/Fより取得される他車両に搭載されたナビゲーション装置や通行人の保持する端末装置の現在位置情報を用いて本実施例の機能を実現することもできる。   Therefore, for example, by determining whether or not it is the above-described blind area 511, instead of the radar provided in the various sensors 316, navigation devices or passersby installed in other vehicles acquired from the communication I / F. The function of this embodiment can also be realized by using the current position information of the terminal device to be held.

図5−1においては、同一車線の前方を走行する車両501によってできたブラインドエリア511内に、対向車両A502および対向車両B503が入っている。しかし、レーダによる検出範囲510内であるので、利用者には見えないが、レーダによって対向車両A502が右折しようとしていることは解析され、対向車両A502は誘導情報に用いる車両であると判断される。   In FIG. 5A, an oncoming vehicle A502 and an oncoming vehicle B503 are in a blind area 511 formed by a vehicle 501 traveling in front of the same lane. However, since it is within the detection range 510 by the radar, it is not visible to the user, but it is analyzed by the radar that the oncoming vehicle A502 is about to turn right, and the oncoming vehicle A502 is determined to be a vehicle used for guidance information. .

図5−2においては、図5−1から所定時間経過し、各車両が移動したために、対向車両A502は、ブラインドエリア511から出ている。つまり、カメラ317による画像に対向車両A502が映る。したがって、利用者の視野に対向車両502が入ったと判断され、この時点で誘導情報が出力される。具体的には、たとえば、「いま車が曲がろうとしている交差点を左折です」といった音声案内が出力される。   In FIG. 5B, the oncoming vehicle A502 is out of the blind area 511 because each vehicle has moved for a predetermined time from FIG. That is, the oncoming vehicle A502 appears in the image by the camera 317. Therefore, it is determined that the oncoming vehicle 502 has entered the user's field of view, and guidance information is output at this point. Specifically, for example, a voice guidance such as “Turn left at the intersection where the car is about to turn” is output.

上述したように、実施例のナビゲーション装置300によれば、画像取得部101によって取得された画像と、検出部104によって検出された検出結果に基づいて、作成部109によって物体の位置を目印として移動体を誘導する経路の誘導情報を作成し、出力部110によって出力することができる。   As described above, according to the navigation apparatus 300 of the embodiment, the creation unit 109 moves the position of the object as a mark based on the image acquired by the image acquisition unit 101 and the detection result detected by the detection unit 104. Guidance information on a route for guiding the body can be created and output by the output unit 110.

したがって、物体の位置を目印とした誘導情報を作成する場合、障害物などによって画像に撮像されない範囲の物体に関しても、レーダによって位置を検出することができる。これによって、利用者は、物体の位置を目印とした誘導案内をおこなう場合、利用者の視野に入らない物体に関しても位置を検出しておくことで、それらの物体が利用者の視野に入ったらすぐに誘導情報を出力させることができる。したがって、障害物の多い経路においても物体の位置を用いた誘導情報を出力させることができる。   Therefore, when creating guidance information using the position of an object as a landmark, the position of an object in a range that is not captured in an image by an obstacle or the like can be detected by the radar. As a result, when performing guidance with the position of an object as a landmark, the user detects the position of an object that does not fall within the user's field of view, and if those objects enter the user's field of view. The guidance information can be output immediately. Therefore, guidance information using the position of an object can be output even on a route with many obstacles.

また、実施例のナビゲーション装置300によれば、作成部109は、画像取得部101によって取得された画像に決定部106によって決定した目印となる物体が撮像されていると判断された場合、誘導情報を作成する。そして、出力部110によって作成された目印となる物体の位置を含む誘導情報を出力することができる。   Further, according to the navigation device 300 of the embodiment, the creation unit 109 determines that the object that is the landmark determined by the determination unit 106 is captured in the image acquired by the image acquisition unit 101 when the guidance information is captured. Create And the guidance information containing the position of the object used as the mark produced by the output part 110 can be output.

したがって、物体の位置を目印とした誘導情報を作成する場合、利用者の視野に入っている物体の位置のみを用いた誘導情報を出力することができる。これによって、利用者は、視野に入っていない物体の位置を用いた誘導情報の出力によって混乱されることを防ぐことができる。   Therefore, when creating guidance information using the position of an object as a landmark, guidance information using only the position of the object in the user's field of view can be output. This prevents the user from being confused by the output of guidance information using the position of an object that is not in the field of view.

また、実施例のナビゲーション装置300によれば、画像取得部101によって取得された画像に基づいて、識別部108によって物体の外観的特徴を識別することができる。そして、作成部109によって物体の位置と、物体の外観的特徴と、を目印として移動体を誘導する経路の誘導情報を作成し、出力部110は、作成部109によって作成された物体の位置および外観的特徴を含む誘導情報を出力することができる。   Further, according to the navigation device 300 of the embodiment, the appearance feature of the object can be identified by the identification unit 108 based on the image acquired by the image acquisition unit 101. Then, the creation unit 109 creates guidance information of a route for guiding the moving body using the position of the object and the appearance characteristics of the object as marks, and the output unit 110 outputs the position of the object created by the creation unit 109 and Guidance information including appearance features can be output.

したがって、目印となる物体が複数決定された場合、それぞれの物体を区別することができる。これによって、利用者は、複数の物体が案内ポイント周辺に存在する場合も、誘導情報の目印となる物体を簡単に見つけることができる。   Therefore, when a plurality of objects serving as landmarks are determined, each object can be distinguished. Thereby, the user can easily find an object serving as a guide information for guidance information even when a plurality of objects exist around the guidance point.

また、実施例のナビゲーション装置300によれば、位置取得部102によって取得された移動体の現在位置情報が、距離判断部103によって誘導情報の作成される誘導地点まで所定距離以内になったと判断された場合に、作成部109によって誘導情報を作成することができる。   Further, according to the navigation apparatus 300 of the embodiment, it is determined that the current position information of the moving body acquired by the position acquisition unit 102 is within a predetermined distance to the guide point where the guide information is created by the distance determination unit 103. In this case, the guidance information can be created by the creation unit 109.

したがって、案内ポイントから所定距離以内になるまでは、レーダを起動しないことができる。これによって、利用者は、案内ポイントから所定距離以内になるまでは、レーダの有する他の機能をさせておくことができる。   Therefore, the radar can not be activated until it is within a predetermined distance from the guide point. This allows the user to keep other functions of the radar until it is within a predetermined distance from the guide point.

以上説明したように、本発明の経路誘導装置、経路誘導方法、経路誘導プログラム、および記録媒体によれば、ナビゲーション装置300は、ブラインドエリアに存在する物体に対してもレーダによって移動状態を解析し、誘導情報の目印となる物体を判断することができる。そして、目印となる物体がブラインドエリアから出た場合に、すぐに誘導情報を出力することができる。これによって、利用者は、自身の視野の範囲に物体が入ったら、すぐに物体の位置を目印とした誘導情報を出力させることができる。   As described above, according to the route guidance device, the route guidance method, the route guidance program, and the recording medium of the present invention, the navigation device 300 analyzes the movement state by the radar even for the object existing in the blind area. Thus, it is possible to determine an object that serves as a guide information. And when the object used as a mark comes out of a blind area, guidance information can be output immediately. As a result, the user can output guidance information using the position of the object as a mark as soon as the object enters the range of his field of view.

なお、本実施の形態で説明した経路誘導方法は、あらかじめ用意されたプログラムをパーソナル・コンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。   The route guidance method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer. The program may be a transmission medium that can be distributed via a network such as the Internet.

この発明は、利用者の視野に入った物体の位置を目印とした誘導情報を作成する誘導装置、誘導方法、誘導プログラム、および記録媒体に関する。ただし、この発明の利用は、上述した誘導装置、誘導方法、誘導プログラム、および記録媒体には限られない。   The present invention relates to a guidance device, a guidance method, a guidance program, and a recording medium that create guidance information with the position of an object in a user's field of view as a landmark. However, use of the present invention is not limited to the above-described guidance device, guidance method, guidance program, and recording medium.

従来、経路誘導における右左折などの誘導案内の対象となる案内ポイントにおいて、地図データに基づいて手前の目印から位置関係を表現することにより、案内ポイントを確実に利用者に把握させる経路誘導装置がある。この経路誘導装置においては、利用者は、右左折をおこなう交差点を確実に把握することができる。   Conventionally, at a guidance point that is a target of guidance guidance such as a left or right turn in route guidance, a route guidance device that allows a user to grasp a guidance point reliably by expressing a positional relationship from a landmark in front based on map data is there. In this route guidance device, the user can surely grasp the intersection where the right / left turn is performed.

また、このような経路誘導装置の中には、自車両の現在位置を検出する現在位置検出手段と、自車両の現在位置から自車両が走行中の道路を選択する走行道路選択手段と、他車両の距離及び方向を検出する他車両検出手段と、他車両の位置を演算する他車両位置演算手段と、走行道路を平面図ないし鳥瞰図に展開し自車両と他車両の位置情報を重ねて表示する他車両位置表示手段を備え、追従車両の位置情報を地図情報から生成した道路形状に重ねて表示するものもある(たとえば、下記特許文献1参照。)。   Further, in such a route guidance device, a current position detecting means for detecting the current position of the own vehicle, a traveling road selecting means for selecting a road on which the own vehicle is traveling from the current position of the own vehicle, and others Other vehicle detection means for detecting the distance and direction of the vehicle, other vehicle position calculation means for calculating the position of the other vehicle, and the road on the traveling road are developed in a plan view or a bird's eye view to display the position information of the host vehicle and the other vehicle in an overlapping manner There is another vehicle position display means for displaying the position information of the following vehicle on the road shape generated from the map information (for example, see Patent Document 1 below).

特開平11−250396号公報JP-A-11-250396

しかしながら、上述した従来技術によれば、対象となる案内ポイントの周辺に目印がある場合は、案内ポイントを確実に利用者に把握させることができるが、たとえば、地図データに目印となる建造物がない場合は、案内ポイントを確実に利用者に把握させることができないという問題が一例として挙げられる。   However, according to the above-described prior art, when there is a mark around the target guide point, the user can be surely grasped the guide point. In the case where there is not, the problem that the user cannot be surely grasped the guidance point is given as an example.

また、たとえば、他車両の位置を目印とする場合、他車両の位置を演算し、平面図ないし鳥瞰図に展開し自車両と他車両の位置情報を重ねて表示することで、表示画面上においては他車両の位置を把握することができるが、実際に利用者の視野に他車両が入っているか否かはわからない。このため、利用者の視野に入っていない他車両の位置を目印とした誘導情報を出力することで、利用者に混乱を招くという問題が一例として挙げられる。   Also, for example, when the position of the other vehicle is used as a mark, the position of the other vehicle is calculated, developed in a plan view or a bird's eye view, and the position information of the host vehicle and the other vehicle is displayed in an overlapping manner on the display screen. Although the position of the other vehicle can be grasped, it is not known whether the other vehicle is actually in the user's field of view. For this reason, the problem of causing confusion to the user by outputting the guidance information with the position of another vehicle not in the user's field of view as an example is given.

上述した課題を解決し、目的を達成するため、請求項1の発明にかかる誘導装置は、移動体の移動方向を撮像した画像を取得する画像取得手段と、前記移動方向に存在する物体の位置をレーダによって検出する検出手段と、前記検出された物体の位置から当該物体の移動状態を解析する解析手段と、前記解析結果に基づいて、前記移動体を誘導する経路の誘導情報を作成する際の目印となる物体を決定する決定手段と、前記画像取得手段によって取得された画像に前記決定された物体が撮像されているか否かを判断する画像判断手段と、前記決定された物体が撮像されていると判断された場合に、前記誘導情報を作成する作成手段と、前記作成された誘導情報を出力する出力手段と、を備え、前記作成手段は、前記決定された物体の形態並びに当該物体の移動状態を示す内容を含んだ誘導情報を作成し、前記出力手段は、前記物体の形態並びに当該物体の移動状態を示す内容を含んだ誘導情報を音声にて出力することを特徴とする。   In order to solve the above-described problems and achieve the object, a guidance device according to a first aspect of the present invention includes an image acquisition unit that acquires an image obtained by imaging a moving direction of a moving body, and a position of an object that exists in the moving direction. Detecting means by radar, analyzing means for analyzing the movement state of the detected object from the position of the detected object, and creating guidance information of a route for guiding the moving object based on the analysis result Determining means for determining an object to be a mark, image determining means for determining whether or not the determined object is imaged in the image acquired by the image acquiring means, and the determined object is imaged A creation unit that creates the guidance information when it is determined that the guidance information is output; and an output unit that outputs the created guidance information. Creating guidance information including contents indicating the movement state of the object, and the output means outputs the guidance information including the form of the object and contents indicating the movement state of the object by voice. To do.

また、請求項4の発明にかかる誘導方法は、移動体の移動方向を撮像した画像を取得する画像取得工程と、前記移動方向に存在する物体の位置をレーダによって検出する検出工程と、前記検出された物体の位置から当該物体の移動状態を解析する解析工程と、前記解析結果に基づいて、前記移動体を誘導する経路の誘導情報を作成する際の目印となる物体を決定する決定工程と、前記画像取得工程にて取得された画像に前記決定された物体が撮像されているか否かを判断する画像判断工程と、前記決定された物体が撮像されていると判断された場合に、前記誘導情報を作成する作成工程と、前記作成された誘導情報を出力する出力工程と、を含み、前記作成工程では、前記決定された物体の形態並びに当該物体の移動状態を示す内容を含んだ誘導情報を作成し、前記出力工程では、前記物体の形態並びに当該物体の移動状態を示す内容を含んだ誘導情報を音声にて出力することを特徴とする。   According to a fourth aspect of the present invention, there is provided a guidance method for obtaining an image obtained by imaging a moving direction of a moving body, a detecting step for detecting a position of an object existing in the moving direction by a radar, and the detection. An analysis step of analyzing the movement state of the object from the position of the object determined, and a determination step of determining an object as a mark when creating guidance information of a route for guiding the moving body based on the analysis result; An image determination step for determining whether or not the determined object is captured in the image acquired in the image acquisition step; and when it is determined that the determined object is captured, A creation step for creating guidance information; and an output step for outputting the created guidance information. The creation step includes content indicating the determined form of the object and the moving state of the object. Create a guide information, in the output step, and outputting by voice guidance information including the forms and content indicating the moving state of the object of the object.

また、請求項5の発明にかかる誘導プログラムは、請求項4に記載の誘導方法をコンピュータに実行させることを特徴とする。   According to a fifth aspect of the present invention, a guidance program causes a computer to execute the guidance method according to the fourth aspect.

また、請求項6の発明にかかる記録媒体は、請求項5に記載の誘導プログラムをコンピュータに読み取り可能な状態で記録したことを特徴とする。   A recording medium according to a sixth aspect of the present invention is characterized in that the guidance program according to the fifth aspect is recorded in a computer-readable state.

本実施の形態にかかる経路誘導装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the route guidance apparatus concerning this Embodiment. 経路誘導装置の経路誘導処理手順を示すフローチャートである。It is a flowchart which shows the route guidance process sequence of a route guidance apparatus. 本実施例にかかるナビゲーション装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the navigation apparatus concerning a present Example. ナビゲーション装置の処理の内容を示すフローチャートである。It is a flowchart which shows the content of the process of a navigation apparatus. 案内ポイントにおけるレーダによる検出範囲と、撮影によるブラインドエリアとの関係について示した説明図である。It is explanatory drawing shown about the relationship between the detection range by the radar in a guidance point, and the blind area by imaging | photography. 所定時間経過後の案内ポイントにおけるレーダによる検出範囲と、撮影によるブラインドエリアとの関係について示した説明図である。It is explanatory drawing shown about the relationship between the detection range by the radar in the guidance point after predetermined time progress, and the blind area by imaging | photography.

以下に添付図面を参照して、この発明にかかる誘導装置、誘導方法、誘導プログラム、および記録媒体の好適な実施の形態を詳細に説明する。   Exemplary embodiments of a guidance device, a guidance method, a guidance program, and a recording medium according to the present invention will be explained below in detail with reference to the accompanying drawings.

(実施の形態)
(経路誘導装置100の機能的構成)
はじめに、この発明の実施の形態にかかる経路誘導装置100の機能的構成について説明する。図1は、本実施の形態にかかる経路誘導装置の機能的構成を示すブロック図である。
(Embodiment)
(Functional configuration of the route guidance device 100)
First, a functional configuration of the route guidance device 100 according to the embodiment of the present invention will be described. FIG. 1 is a block diagram showing a functional configuration of the route guidance apparatus according to the present embodiment.

図1において、経路誘導装置100は、画像取得部101と、位置取得部102と、距離判断部103と、検出部104と、解析部105と、決定部106と、画像判断部107と、識別部108と、作成部109と、出力部110と、を備えている。   In FIG. 1, the route guidance device 100 includes an image acquisition unit 101, a position acquisition unit 102, a distance determination unit 103, a detection unit 104, an analysis unit 105, a determination unit 106, an image determination unit 107, and an identification. Unit 108, creation unit 109, and output unit 110.

画像取得部101は、移動体の移動方向を撮像した画像を取得する。具体的には、たとえば、移動体の運転席に備えられ、運転者の視野角に設定されたカメラなどから進行方向の景色を撮影した画像を取得する。また、移動体の移動方向を撮像した画像は、たとえば、運転者の視野に関する映像情報でもよい。運転者の視野に関する映像情報は、運転者が実際に見ている風景とほぼ同じ風景を捉えた画像の情報である。   The image acquisition unit 101 acquires an image obtained by capturing the moving direction of the moving body. Specifically, for example, an image obtained by capturing a scene in the traveling direction is acquired from a camera or the like that is provided in the driver's seat of the moving body and set to the viewing angle of the driver. The image obtained by capturing the moving direction of the moving body may be, for example, video information related to the driver's field of view. The video information related to the driver's field of view is image information that captures almost the same scenery as the scenery that the driver actually sees.

位置取得部102は、移動体の現在位置情報を取得する。移動体の現在位置情報は、たとえば、GPS衛星から受信したGPS信号に加えて、移動体の挙動を検出する加速度センサや車速センサからの出力値に応じて、移動体の現在位置情報を取得するようにしてもよい。   The position acquisition unit 102 acquires current position information of the moving object. For example, the current position information of the moving body is acquired in accordance with an output value from an acceleration sensor or a vehicle speed sensor that detects the behavior of the moving body in addition to a GPS signal received from a GPS satellite. You may do it.

距離判断部103は、位置取得部102によって取得された現在位置情報が、誘導情報の作成される誘導地点まで所定距離以内になったか否かを判断する。誘導情報は、移動体を目的地点までの経路へ誘導するための案内情報である。誘導地点(案内ポイント)は、右左折をおこなう交差点などの通常の経路誘導において誘導情報が出力される地点などである。また、所定距離は、一定でもよいし、移動体の速度によって可変でもよい。   The distance determination unit 103 determines whether or not the current position information acquired by the position acquisition unit 102 is within a predetermined distance to the guide point where the guide information is created. The guidance information is guidance information for guiding the mobile body to the route to the destination point. The guidance point (guidance point) is a point where guidance information is output in normal route guidance such as an intersection that makes a right or left turn. Further, the predetermined distance may be constant or variable depending on the speed of the moving body.

検出部104は、移動方向に存在する物体の位置をレーダによって検出する。移動方向に存在する物体は、具体的には、たとえば、他の移動体や人などである。検出部104は、具体的には、たとえば、電磁波を用いたレーザや超音波を用いたソナーなどによって物体の位置を検出する。レーダやソナーは、波動の回折により、波動の伝播が障害物で一部遮られたとき、障害物の影の部分にも波動が伝播してゆく。これによって、複数の物体が前後に重なっている場合も、それぞれの物体の位置を検出することができる。また、検出部104は、物体の種類(車両、人など)や大きさを判別できるようにしてもよい。   The detection unit 104 detects the position of an object existing in the moving direction by using a radar. Specifically, the object existing in the moving direction is, for example, another moving body or a person. Specifically, the detection unit 104 detects the position of an object using, for example, a laser using electromagnetic waves or a sonar using ultrasonic waves. In radar and sonar, when the propagation of a wave is partially blocked by an obstacle due to the diffraction of the wave, the wave propagates to the shadowed part of the obstacle. Thereby, even when a plurality of objects overlap each other, the position of each object can be detected. The detection unit 104 may be configured to determine the type (vehicle, person, etc.) and size of the object.

解析部105は、検出部104によって検出された物体の位置から移動状態を解析する。解析部105は、たとえば、検出部104による物体の位置の連続的な検出から、物体の右左折を予測させる状態を解析する。右左折を予測させる状態とは、具体的には、たとえば、物体の速度が遅くなった状態、物体が右左折車線に移動した状態などである。   The analysis unit 105 analyzes the movement state from the position of the object detected by the detection unit 104. The analysis unit 105 analyzes, for example, a state in which a right or left turn of an object is predicted from continuous detection of the position of the object by the detection unit 104. Specifically, the state in which the right / left turn is predicted is, for example, a state in which the speed of the object is slow, a state in which the object has moved to the right / left turn lane, or the like.

決定部106は、解析部105によって解析された解析結果に基づいて、誘導情報の目印となる物体を決定する。誘導情報の目印となる物体は、誘導情報を作成する際に、その位置が目印として用いられる物体である。具体的には、たとえば、誘導地点周辺において右左折を予測させる状態の物体である。   Based on the analysis result analyzed by the analysis unit 105, the determination unit 106 determines an object to be a guide information guide. The object that becomes the mark of the guide information is an object whose position is used as a mark when the guide information is created. Specifically, for example, the object is in a state of predicting a right or left turn around the guidance point.

画像判断部107は、画像取得部101によって取得された画像に決定部106によって決定した目印となる物体が撮像されているか否かを判断する。たとえば、画像解析などによって、画像取得部101によって取得された画像に目印となる物体が撮像されているか否かを判断する。具体的には、たとえば、決定部106によって決定された目印となる物体に対する解析部105から取得した解析結果(物体の左右を予測させる状態の結果)から画像上の位置を特定し、その画像上の位置に決定部106によって決定された目印となる物体に対する検出部104から取得した種類や大きさに該当する物体が撮像されているか否かを判断する。また、画像判断部107は、ブラインドエリアを判断するようにしてもよい。ブラインドエリアは、たとえば、利用者の視野のうちの物体によって視野が遮られる範囲である。具体的には、たとえば、走行中に連続して取得する画像のうち、同一方向の前方を走行する車両などによってほとんど景色に変化のない範囲をブラインドエリアとする。   The image determination unit 107 determines whether or not an image that is the mark determined by the determination unit 106 is captured in the image acquired by the image acquisition unit 101. For example, it is determined by image analysis or the like whether or not an object serving as a mark is captured in the image acquired by the image acquisition unit 101. Specifically, for example, the position on the image is specified from the analysis result (result of the state in which the left and right of the object are predicted) acquired from the analysis unit 105 with respect to the object serving as the mark determined by the determination unit 106, and on the image It is determined whether or not an object corresponding to the type and size acquired from the detection unit 104 for the object serving as the mark determined by the determination unit 106 is imaged at the position. Further, the image determination unit 107 may determine a blind area. The blind area is, for example, a range where the visual field is blocked by an object in the user's visual field. Specifically, for example, a range in which the scenery hardly changes due to a vehicle traveling in the front in the same direction among images continuously acquired during traveling is set as a blind area.

識別部108は、画像取得部101によって取得された画像に基づいて、物体の外観的特徴を識別する。物体の外観的特徴は、たとえば、色、大きさ、種類などのそれぞれの物体を識別できる特徴である。   The identification unit 108 identifies the external feature of the object based on the image acquired by the image acquisition unit 101. The appearance feature of an object is a feature that can identify each object such as color, size, and type.

作成部109は、画像取得部101によって取得された画像と、検出部104によって検出された検出結果とに基づいて、物体の位置を目印として移動体を誘導する経路の誘導情報を作成する。作成部109は、具体的には、たとえば、識別部108によって識別された物体の外観的特徴と、位置取得部102によって取得された物体の位置と、を目印として移動体を誘導する経路の誘導情報を作成する。また、作成部109は、画像判断部107によって目印となる物体が撮像されていると判断された場合、もしくは、距離判断部103によって所定距離以内になったと判断された場合に、誘導情報を作成してもよい。   Based on the image acquired by the image acquisition unit 101 and the detection result detected by the detection unit 104, the generation unit 109 generates route guidance information for guiding the moving body using the position of the object as a mark. Specifically, for example, the creation unit 109 guides a route that guides the moving object using the appearance characteristics of the object identified by the identification unit 108 and the position of the object acquired by the position acquisition unit 102 as landmarks. Create information. Further, the creation unit 109 creates guidance information when the image determination unit 107 determines that an object to be a mark is captured, or when the distance determination unit 103 determines that the distance is within a predetermined distance. May be.

作成部109による誘導情報の作成は、たとえば、つぎのようにして作成される。作成部109は、誘導情報を作成するための図示しない語彙テーブルを備えており、たとえば、色を示す語彙として「赤」、「白」、「青」などの文字データを持ち、また、物体の移動状態を示す語彙として「右」、「左」、「反対」、「方向」、「曲がる」などの文字データを持っている。   For example, the creation of the guidance information by the creation unit 109 is created as follows. The creation unit 109 includes a vocabulary table (not shown) for creating guidance information. For example, the creation unit 109 has character data such as “red”, “white”, and “blue” as vocabularies indicating colors, It has character data such as “right”, “left”, “opposite”, “direction”, “turn” as the vocabulary indicating the movement state.

さらに、物体の種類を示す語彙として「トラック」、「バス」、「オートバイ」、「人」などの文字データを持ち、また、視認方向を示す語彙として「右前方30度方向」、「右斜め前方」などの文字データを持ち、予測を示す語彙として「もうすぐ」、「まもなく」などの文字データを持っている。そして、画像取得部101によって取得された画像と、検出部104によって検出された検出結果とに基づいて、誘導案内に最適な文字データを抽出して音声データに変換し、誘導情報として出力部110に送る。   Furthermore, it has character data such as “truck”, “bus”, “motorcycle”, “person” as the vocabulary indicating the kind of object, and “right 30 ° forward” and “right diagonal” as the vocabulary indicating the viewing direction. It has character data such as “front”, and has character data such as “coming soon” and “coming soon” as a vocabulary indicating prediction. Then, based on the image acquired by the image acquisition unit 101 and the detection result detected by the detection unit 104, character data optimal for guidance is extracted and converted into voice data, and output as guidance information to the output unit 110. Send to.

出力部110は、作成部109によって作成された物体の位置を含む誘導情報を出力する。誘導情報は、決定部106によって決定された目印となる物体の位置を含む誘導情報でもよいし、物体の位置および外観的特徴を含む誘導情報でもよい。出力部110は、スピーカなどの音声出力装置が備えられており、作成部109によって作成された誘導情報を随時出力する。   The output unit 110 outputs guidance information including the position of the object created by the creation unit 109. The guidance information may be guidance information including the position of the object that is the mark determined by the determination unit 106, or may be guidance information including the position of the object and an appearance feature. The output unit 110 includes an audio output device such as a speaker, and outputs the guidance information created by the creation unit 109 as needed.

また、出力部110は、地図データを表示する表示画面を備えていてもよい。ここで、地図データは、図示しない記録部に記録されている。地図データは、ノードおよびリンクからなる道路ネットワークデータと、施設や道路その他地形(山、川、土地)に関するフィーチャを用いて描画される画像データとを含んでいる。地図データは、文字情報、施設の名称や住所などの情報、道路や施設の画像などを含んでいてもよい。また、表示画面には、作成部109によって作成された誘導情報を随時表示してもよい。   Moreover, the output part 110 may be provided with the display screen which displays map data. Here, the map data is recorded in a recording unit (not shown). The map data includes road network data composed of nodes and links, and image data drawn using features relating to facilities, roads, and other terrain (mountains, rivers, land). The map data may include text information, information such as facility names and addresses, road and facility images, and the like. In addition, the guidance information created by the creation unit 109 may be displayed on the display screen as needed.

(経路誘導装置の経路誘導処理手順)
つぎに、経路誘導装置100の経路誘導処理手順について説明する。図2は、経路誘導装置の経路誘導処理手順を示すフローチャートである。図2のフローチャートにおいて、まず、画像取得部101によって移動体の移動方向を撮像した画像を取得する(ステップS201)。ステップS201において移動方向を撮像した画像は、継続して取得する。
(Route guidance processing procedure of the route guidance device)
Next, a route guidance processing procedure of the route guidance device 100 will be described. FIG. 2 is a flowchart showing a route guidance processing procedure of the route guidance device. In the flowchart of FIG. 2, first, an image obtained by capturing the moving direction of the moving object is acquired by the image acquisition unit 101 (step S201). Images obtained by capturing the moving direction in step S201 are continuously acquired.

つぎに、検出部104によって移動方向に存在する物体の位置をレーダによって検出して(ステップS202)、解析部105によってステップS202において検出した物体の位置から物体の移動状態を解析する(ステップS203)。ステップS202において物体の位置は、継続して検出する。   Next, the position of the object existing in the moving direction is detected by the detection unit 104 by the radar (step S202), and the moving state of the object is analyzed from the position of the object detected in step S202 by the analysis unit 105 (step S203). . In step S202, the position of the object is continuously detected.

ステップS203において解析した解析結果に基づいて、決定部106によって誘導情報の目印となる物体を決定する(ステップS204)。そして、画像判断部107によって、ステップS201において取得した画像に、ステップS204において決定した物体が撮像されてると判断されるまで待って(ステップS205:Noのループ)、物体が撮像されている場合(ステップS205:Yes)、識別部108によってステップS205において撮像されていると判断された物体の外観的特徴を識別する(ステップS206)。   Based on the analysis result analyzed in step S203, the determination unit 106 determines an object to be a guide for guidance information (step S204). When the image determination unit 107 determines that the object determined in step S204 is captured in the image acquired in step S201 (step S205: No loop), the object is captured ( (Step S205: Yes), the appearance feature of the object determined to be imaged in Step S205 by the identification unit 108 is identified (Step S206).

つぎに、作成部109によって、ステップS203によって解析された物体の移動状態と、ステップS206において識別した外観的特徴とに基づいて、誘導情報を作成する(ステップS207)。そして、ステップS207において作成された物体の移動状態および外観的特徴を含む誘導情報を出力し(ステップS208)、一連の処理を終了する。   Next, guidance information is created by the creation unit 109 based on the movement state of the object analyzed in step S203 and the external features identified in step S206 (step S207). Then, guidance information including the moving state and appearance characteristics of the object created in step S207 is output (step S208), and the series of processing ends.

なお、図2のフローチャートにおいては、ステップS204において誘導情報の目印となる物体を決定するとしているが、たとえば、目印となる物体は単数でもよいし、複数でもよい。そして、複数の場合は、それぞれの物体の位置を継続して検出する。   In the flowchart of FIG. 2, the object to be the guide information guide is determined in step S204. However, for example, the object to be the mark may be singular or plural. In a plurality of cases, the position of each object is continuously detected.

また、図2のフローチャートにおいては、ステップS205:Noのループにおいて物体が撮像されるまで待つとしているが、これに限るものではない。具体的には、たとえば、物体が撮像されていない場合でも、ステップS207に進み、誘導情報を作成してもよい。また、ここで誘導情報は、「もうすぐ見える車が・・・。」などの予告誘導情報である。   In the flowchart of FIG. 2, the process waits until the object is imaged in the loop of Step S <b> 205: No, but is not limited thereto. Specifically, for example, even when an object is not imaged, the process may proceed to step S207 to create guidance information. In addition, the guidance information here is notice guidance information such as “a car that can be seen soon”.

また、図2のフローチャートにおいては、ステップS207において誘導情報を作成するとしているが、これに限るものではない。具体的には、たとえば、ステップS204において目印となる物体を決定して、すぐに誘導情報を作成してもよい。この場合、ステップS205:Yesにおいて物体が撮像されていると判断された場合、ただちにステップS208に進み誘導情報を出力する構成でもよい。   In the flowchart of FIG. 2, guidance information is created in step S207, but the present invention is not limited to this. Specifically, for example, an object to be a mark may be determined in step S204 and the guidance information may be created immediately. In this case, when it is determined in step S205: Yes that an object is being imaged, the process may immediately proceed to step S208 to output guidance information.

上述したように、実施の形態の経路誘導装置100によれば、画像取得部101によって取得された画像と、検出部104によって検出された検出結果に基づいて、作成部109によって物体の位置を目印として移動体を誘導する経路の誘導情報を作成し、出力部110によって出力することができる。   As described above, according to the route guidance device 100 of the embodiment, the position of the object is marked by the creation unit 109 based on the image acquired by the image acquisition unit 101 and the detection result detected by the detection unit 104. As described above, it is possible to create guidance information of a route for guiding the mobile body and output it by the output unit 110.

したがって、物体の位置を目印とした誘導情報を作成する場合、障害物などによって画像に撮像されない範囲の物体に関しても、レーダによって位置を検出することができる。これによって、利用者は、物体の位置を目印とした誘導案内をおこなう場合、利用者の視野に入らない物体に関しても位置を検出しておくことで、それらの物体が利用者の視野に入ったらすぐに誘導情報を出力させることができる。したがって、障害物の多い経路においても物体の位置を用いた誘導情報を出力させることができる。   Therefore, when creating guidance information using the position of an object as a landmark, the position of an object in a range that is not captured in an image by an obstacle or the like can be detected by the radar. As a result, when performing guidance with the position of an object as a landmark, the user detects the position of an object that does not fall within the user's field of view, and if those objects enter the user's field of view. The guidance information can be output immediately. Therefore, guidance information using the position of an object can be output even on a route with many obstacles.

また、実施の形態の経路誘導装置100によれば、作成部109は、画像取得部101によって取得された画像に決定部106によって決定した目印となる物体が撮像されていると判断された場合、誘導情報を作成する。そして、出力部110によって作成された目印となる物体の位置を含む誘導情報を出力することができる。   Further, according to the route guidance device 100 of the embodiment, when the creation unit 109 determines that the object that is the mark determined by the determination unit 106 is captured in the image acquired by the image acquisition unit 101, Create guidance information. And the guidance information containing the position of the object used as the mark produced by the output part 110 can be output.

したがって、物体の位置を目印とした誘導情報を作成する場合、利用者の視野に入っている物体の位置のみを用いた誘導情報を出力することができる。これによって、利用者は、視野に入っていない物体の位置を用いた誘導情報の出力によって混乱されることを防ぐことができる。   Therefore, when creating guidance information using the position of an object as a landmark, guidance information using only the position of the object in the user's field of view can be output. This prevents the user from being confused by the output of guidance information using the position of an object that is not in the field of view.

また、実施の形態の経路誘導装置100によれば、画像取得部101によって取得された画像に基づいて、識別部108によって物体の外観的特徴を識別することができる。そして、作成部109によって物体の位置と、物体の外観的特徴と、を目印として移動体を誘導する経路の誘導情報を作成し、出力部110は、作成部109によって作成された物体の位置および外観的特徴を含む誘導情報を出力することができる。   Moreover, according to the route guidance device 100 of the embodiment, the appearance feature of the object can be identified by the identification unit 108 based on the image acquired by the image acquisition unit 101. Then, the creation unit 109 creates guidance information of a route for guiding the moving body using the position of the object and the appearance characteristics of the object as marks, and the output unit 110 outputs the position of the object created by the creation unit 109 and Guidance information including appearance features can be output.

したがって、目印となる物体が複数決定された場合、それぞれの物体を区別することができる。これによって、利用者は、複数の物体が案内ポイント周辺に存在する場合も、誘導情報の目印となる物体を簡単に見つけることができる。   Therefore, when a plurality of objects serving as landmarks are determined, each object can be distinguished. Thereby, the user can easily find an object serving as a guide information for guidance information even when a plurality of objects exist around the guidance point.

また、実施の形態の経路誘導装置100によれば、位置取得部102によって取得された移動体の現在位置情報が、距離判断部103によって誘導情報の作成される誘導地点まで所定距離以内になったと判断された場合に、作成部109によって誘導情報を作成することができる。   Further, according to the route guidance device 100 of the embodiment, the current position information of the moving body acquired by the position acquisition unit 102 is within a predetermined distance to the guidance point where the guidance information is created by the distance determination unit 103. When the determination is made, the creation information can be created by the creation unit 109.

したがって、案内ポイントから所定距離以内になるまでは、レーダを起動しないことができる。これによって、利用者は、案内ポイントから所定距離以内になるまでは、レーダの有する他の機能をさせておくことができる。   Therefore, the radar can not be activated until it is within a predetermined distance from the guide point. This allows the user to keep other functions of the radar until it is within a predetermined distance from the guide point.

以下に、本発明の実施例について説明する。本実施例では、たとえば、車両(四輪車、二輪車を含む)などの移動体に搭載されるナビゲーション装置によって、本発明の経路誘導装置を実施した場合の一例について説明する。   Examples of the present invention will be described below. In the present embodiment, an example in which the route guidance device of the present invention is implemented by a navigation device mounted on a moving body such as a vehicle (including a four-wheeled vehicle and a two-wheeled vehicle) will be described.

(ナビゲーション装置のハードウェア構成)
つぎに、本実施例にかかるナビゲーション装置300のハードウェア構成について説明する。図3は、本実施例にかかるナビゲーション装置のハードウェア構成を示すブロック図である。図3において、ナビゲーション装置300は、CPU301と、ROM302と、RAM303と、磁気ディスクドライブ304と、磁気ディスク305と、光ディスクドライブ306と、光ディスク307と、音声I/F(インターフェース)308と、マイク309と、スピーカ310と、入力デバイス311と、映像I/F312と、ディスプレイ313と、通信I/F314と、GPSユニット315と、各種センサ316と、カメラ317と、を備えている。各構成部301〜317は、バス320によってそれぞれ接続されている。
(Hardware configuration of navigation device)
Next, a hardware configuration of the navigation device 300 according to the present embodiment will be described. FIG. 3 is a block diagram of a hardware configuration of the navigation device according to the present embodiment. In FIG. 3, the navigation device 300 includes a CPU 301, a ROM 302, a RAM 303, a magnetic disk drive 304, a magnetic disk 305, an optical disk drive 306, an optical disk 307, an audio I / F (interface) 308, and a microphone 309. A speaker 310, an input device 311, a video I / F 312, a display 313, a communication I / F 314, a GPS unit 315, various sensors 316, and a camera 317. Each component 301 to 317 is connected by a bus 320.

まず、CPU301は、ナビゲーション装置300の全体の制御を司る。ROM302は、ブートプログラム、データ更新プログラムなどのプログラムを記録している。また、RAM303は、CPU301のワークエリアとして使用される。すなわち、CPU301は、RAM303をワークエリアとして使用しながら、ROM302に記録された各種プログラムを実行することによって、ナビゲーション装置300の全体の制御を司る。   First, the CPU 301 governs overall control of the navigation device 300. The ROM 302 records programs such as a boot program and a data update program. The RAM 303 is used as a work area for the CPU 301. That is, the CPU 301 controls the entire navigation device 300 by executing various programs recorded in the ROM 302 while using the RAM 303 as a work area.

挙動解析プログラムは、後述する各種センサ316が備えるレーダなどの出力から物体の移動状態を解析させる。ここで物体は、たとえば、対向車両、同一車線車両、人間、落下物など、誘導情報の目印となりうるものである。具体的には、たとえば、速度を落とした車両を検出したか否か、右左折車線へ移動した車両を検出したか否か、道路を横断中の通行人を検出したか否かなどの他の車両の右左折や通行人の横断を予測させる移動状態などを解析させる。また、挙動解析プログラムは、後述するカメラ317によって撮像される映像情報に存在する物体の外観的特徴を解析させる。外観的特徴は、たとえば、車体の色や形状、もしくは車名や車種など、または通行人の服装などである。   The behavior analysis program analyzes the moving state of an object from the output of a radar or the like included in various sensors 316 described later. Here, the object can be a marker of guidance information such as an oncoming vehicle, the same lane vehicle, a human being, and a falling object. Specifically, for example, whether or not a vehicle that has slowed down is detected, whether or not a vehicle that has moved to the right or left turn lane is detected, or whether or not a passerby crossing a road is detected. Analyze the state of movement that predicts turning of vehicles and crossing of passers-by. In addition, the behavior analysis program analyzes the appearance characteristics of an object existing in video information captured by a camera 317 described later. The appearance features include, for example, the color and shape of the vehicle body, the name of the vehicle, the vehicle type, and the clothes of passersby.

誘導情報作成プログラムは、経路誘導に関する誘導情報を作成させる。誘導情報は、案内ポイントにおける物体の移動状態を用いて利用者を促す音声情報である。誘導情報は、具体的には、たとえば、レーダなどの出力から移動状態が解析された対向車両、同一車線前方を走行中の同一車線車両、または道路を横断中の通行人などを用いた自車両を誘導案内する音声情報である。   The guidance information creation program creates guidance information related to route guidance. The guidance information is audio information that prompts the user using the moving state of the object at the guidance point. Specifically, the guidance information is, for example, an oncoming vehicle whose movement state is analyzed from the output of a radar or the like, the same lane vehicle traveling in front of the same lane, or a passerby traveling across the road. Is voice information for guiding the user.

また、誘導情報作成プログラムは、経路誘導に関する予告誘導情報を作成させる。予告誘導情報は、たとえば、利用者の視野に誘導案内に用いる物体が入る前に、案内ポイントにおけるこの物体の移動状態を用いて利用者を促す音声情報である。具体的には、たとえば、所定時間経過後に利用者の視野に入ると予測される物体のレーダによる解析結果を用いて自車両を誘導案内する案内情報である。   In addition, the guidance information creation program creates notice guidance information related to route guidance. The advance guidance information is, for example, audio information that prompts the user by using the moving state of the object at the guidance point before the object used for guidance guidance enters the user's field of view. Specifically, for example, guidance information for guiding and guiding the host vehicle using an analysis result of an object predicted to enter the user's field of view after a predetermined time has elapsed.

磁気ディスクドライブ304は、CPU301の制御にしたがって磁気ディスク305に対するデータの読み取り/書き込みを制御する。磁気ディスク305は、磁気ディスクドライブ304の制御で書き込まれたデータを記録する。磁気ディスク305としては、たとえば、HD(ハードディスク)やFD(フレキシブルディスク)を用いることができる。   The magnetic disk drive 304 controls the reading / writing of the data with respect to the magnetic disk 305 according to control of CPU301. The magnetic disk 305 records data written under the control of the magnetic disk drive 304. As the magnetic disk 305, for example, an HD (hard disk) or an FD (flexible disk) can be used.

また、光ディスクドライブ306は、CPU301の制御にしたがって光ディスク307に対するデータの読み取り/書き込みを制御する。光ディスク307は、光ディスクドライブ306の制御にしたがってデータが読み出される着脱自在な記録媒体である。光ディスク307は、書き込み可能な記録媒体を利用することもできる。着脱可能な記録媒体として、光ディスク307のほか、MO、メモリカードなどであってもよい。   The optical disk drive 306 controls reading / writing of data with respect to the optical disk 307 according to the control of the CPU 301. The optical disk 307 is a detachable recording medium from which data is read according to the control of the optical disk drive 306. As the optical disc 307, a writable recording medium can be used. As a removable recording medium, in addition to the optical disk 307, an MO, a memory card, or the like may be used.

磁気ディスク305および光ディスク307に記録される情報の一例としては、地図データや機能データが挙げられる。地図データは、建物、河川、地表面などの地物(フィーチャ)をあらわす背景データと、道路の形状をあらわす道路形状データとを含んでおり、地区ごとに分けられた複数のデータファイルによって構成されている。   Examples of information recorded on the magnetic disk 305 and the optical disk 307 include map data and function data. The map data includes background data that represents features (features) such as buildings, rivers, and the ground surface, and road shape data that represents the shape of the road, and is composed of multiple data files divided by district. ing.

道路形状データは、さらに交通条件データを有する。交通条件データには、たとえば、各ノードについて、信号や横断歩道などの有無、高速道路の出入り口やジャンクションの有無、各リンクについての長さ(距離)、道幅、進行方向、道路種別(高速道路、有料道路、一般道路など)などの情報が含まれている。   The road shape data further includes traffic condition data. The traffic condition data includes, for example, whether or not there is a signal or a pedestrian crossing, whether or not there is a highway doorway or junction, the length (distance) of each link, road width, direction of travel, road type (highway, Such as toll roads and general roads).

機能データは、地図上の施設の形状をあらわす3次元データ、当該施設の説明をあらわす文字データ、その他地図データ以外の各種のデータである。地図データや機能データは、地区ごとあるいは機能ごとにブロック分けされた状態で記録されている。具体的には、たとえば、地図データは、各々が、表示画面に表示された地図において所定の地区をあらわすように、地区ごとにブロック分けすることができる状態で記録されている。また、たとえば、機能データは、各々が、1つの機能を実現するように、機能ごとに複数にブロック分けすることができる状態で記録されている。   The function data is three-dimensional data representing the shape of the facility on the map, character data representing the description of the facility, and other various data other than the map data. Map data and function data are recorded in blocks divided by district or function. Specifically, for example, the map data is recorded in a state where each block can be divided into blocks such that each represents a predetermined district on the map displayed on the display screen. Further, for example, the function data is recorded in a state where each function can be divided into a plurality of blocks so as to realize one function.

また、機能データは、上述した3次元データや文字データに加えて、経路探索、所要時間の算出、経路誘導などを実現するプログラムデータなどの機能を実現するためのデータである。地図データおよび機能データは、それぞれ、地区ごとあるいは機能ごとに分けられた複数のデータファイルによって構成されている。   The function data is data for realizing functions such as program data for realizing route search, calculation of required time, route guidance, etc. in addition to the above-described three-dimensional data and character data. Each of the map data and the function data is composed of a plurality of data files divided for each district or each function.

音声I/F308は、音声入力用のマイク309および音声出力用のスピーカ310に接続される。マイク309に受音された音声は、音声I/F308内でA/D変換される。マイク309は、たとえば、車両のサンバイザー付近に設置され、その数は単数でも複数でもよい。スピーカ310からは、所定の音声信号を音声I/F308内でD/A変換した音声が出力される。なお、マイク309から入力された音声は、音声データとして磁気ディスク305あるいは光ディスク307に記録可能である。   The audio I / F 308 is connected to a microphone 309 for audio input and a speaker 310 for audio output. The sound received by the microphone 309 is A / D converted in the sound I / F 308. For example, the microphone 309 may be installed near the sun visor of the vehicle, and the number thereof may be one or more. From the speaker 310, a sound obtained by D / A converting a predetermined sound signal in the sound I / F 308 is output. Note that the sound input from the microphone 309 can be recorded on the magnetic disk 305 or the optical disk 307 as sound data.

音声I/F308は、誘導情報作成プログラムによって作成される誘導情報および予告誘導情報を出力する。音声I/F308は、たとえば、後述する各種センサ316が備えるレーダなどによって検出された誘導情報に用いられる物体が後述するカメラ317によって撮影された場合に、誘導情報をスピーカから出力する。また、音声I/F308は、たとえば、後述する各種センサ316が備えるレーダなどによって検出された予告誘導情報に用いられる物体が後述するカメラ317によって撮影されていない場合にも、スピーカから出力してもよい。   The voice I / F 308 outputs guidance information and notice guidance information created by the guidance information creation program. The audio I / F 308 outputs guidance information from a speaker when an object used for guidance information detected by a radar or the like included in various sensors 316 described later is photographed by a camera 317 described later. The audio I / F 308 may be output from the speaker even when an object used for the advance guidance information detected by a radar or the like included in various sensors 316 described later is not captured by a camera 317 described later. Good.

入力デバイス311は、文字、数値、各種指示などの入力のための複数のキーを備えたリモコン、キーボード、タッチパネルなどが挙げられる。入力デバイス311は、リモコン、キーボード、タッチパネルのうちいずれか1つの形態によって実現されてもよいが、複数の形態によって実現することも可能である。   Examples of the input device 311 include a remote controller having a plurality of keys for inputting characters, numerical values, various instructions, and the like, a keyboard, and a touch panel. The input device 311 may be realized by any one form of a remote control, a keyboard, and a touch panel, but can also be realized by a plurality of forms.

映像I/F312は、ディスプレイ313に接続される。映像I/F312は、具体的には、たとえば、ディスプレイ313全体を制御するグラフィックコントローラと、即時表示可能な画像情報を一時的に記録するVRAM(Video RAM)などのバッファメモリと、グラフィックコントローラから出力される画像データに基づいてディスプレイ313を制御する制御ICなどによって構成される。   The video I / F 312 is connected to the display 313. Specifically, the video I / F 312 is output from, for example, a graphic controller that controls the entire display 313, a buffer memory such as a VRAM (Video RAM) that temporarily records image information that can be displayed immediately, and a graphic controller. And a control IC for controlling the display 313 based on the image data to be processed.

ディスプレイ313には、アイコン、カーソル、メニュー、ウインドウ、あるいは文字や画像などの各種データが表示される。ディスプレイ313には、上述した地図データが、2次元または3次元に描画される。ディスプレイ313に表示された地図データには、ナビゲーション装置300を搭載した車両の現在位置をあらわすマークなどを重ねて表示することができる。車両の現在位置は、CPU301によって算出される。   The display 313 displays icons, cursors, menus, windows, or various data such as characters and images. On the display 313, the map data described above is drawn two-dimensionally or three-dimensionally. The map data displayed on the display 313 can be displayed with a mark representing the current position of the vehicle on which the navigation device 300 is mounted. The current position of the vehicle is calculated by the CPU 301.

ディスプレイ313としては、たとえば、CRT、TFT液晶ディスプレイ、プラズマディスプレイなどを用いることができる。ディスプレイ313は、たとえば、車両のダッシュボード付近に設置される。ディスプレイ313は、車両のダッシュボード付近のほか、車両の後部座席周辺などに設置するなどして、車両において複数設置されていてもよい。   As the display 313, for example, a CRT, a TFT liquid crystal display, a plasma display, or the like can be used. The display 313 is installed near the dashboard of the vehicle, for example. A plurality of displays 313 may be installed in the vehicle, for example, in the vicinity of the dashboard of the vehicle or in the vicinity of the rear seat of the vehicle.

通信I/F314は、無線を介してネットワークに接続され、ナビゲーション装置300とCPU301とのインターフェースとして機能する。通信I/F314は、さらに、無線を介してインターネットなどの通信網に接続され、この通信網とCPU301とのインターフェースとしても機能する。   The communication I / F 314 is connected to a network via wireless and functions as an interface between the navigation device 300 and the CPU 301. The communication I / F 314 is further connected to a communication network such as the Internet via wireless, and also functions as an interface between the communication network and the CPU 301.

通信網には、LAN、WAN、公衆回線網や携帯電話網などがある。具体的には、通信I/F314は、たとえば、FMチューナー、VICS(Vehicle Information and Communication System)/ビーコンレシーバ、無線ナビゲーション装置、およびその他のナビゲーション装置によって構成され、VICSセンターから配信される渋滞や交通規制などの道路交通情報を取得する。なお、VICSは登録商標である。また、通信I/F314は、他のナビゲーション装置や通信端末装置から、それぞれの現在位置情報を取得してもよい。   Communication networks include LANs, WANs, public line networks, mobile phone networks, and the like. Specifically, the communication I / F 314 includes, for example, an FM tuner, a VICS (Vehicle Information and Communication System) / beacon receiver, a radio navigation device, and other navigation devices. Get road traffic information such as regulations. VICS is a registered trademark. Further, the communication I / F 314 may acquire current position information from other navigation devices or communication terminal devices.

GPSユニット315は、GPS衛星からの電波を受信し、車両の現在位置を示す情報を出力する。GPSユニット315の出力情報は、後述する各種センサ316の出力値とともに、CPU301による車両の現在位置の算出に際して利用される。現在位置を示す情報は、たとえば緯度・経度、高度などの、地図データ上の1点を特定する情報である。   The GPS unit 315 receives radio waves from GPS satellites and outputs information indicating the current position of the vehicle. The output information of the GPS unit 315 is used when the CPU 301 calculates the current position of the vehicle together with output values of various sensors 316 described later. The information indicating the current position is information for specifying one point on the map data, such as latitude / longitude and altitude.

各種センサ316は、車速センサ、加速度センサ、角速度センサなどの、車両の位置や挙動を判断するための情報を出力する。各種センサ316の出力値は、CPU301による車両の現在位置の算出や、速度や方位の変化量の算出に用いられる。   The various sensors 316 output information for determining the position and behavior of the vehicle, such as a vehicle speed sensor, an acceleration sensor, and an angular velocity sensor. The output values of the various sensors 316 are used for the calculation of the current position of the vehicle by the CPU 301 and the amount of change in speed and direction.

また、各種センサ316は、自車両周辺の物体の移動状態を継続的に検出する。具体的には、たとえば、電磁波などによるレーダや超音波などによるソナーによって車両の前方、側方、後方などの、物体の位置情報を検出する。レーダやソナーは、波動の回折により、波動の伝播が障害物で一部遮られたとき、障害物の影の部分にも波動が伝播してゆく。これによって、複数の車両が前後に重なっている場合も、それぞれの車両の移動状態を検出することができる。   The various sensors 316 continuously detect the moving state of objects around the host vehicle. Specifically, for example, position information of an object such as the front, side, and rear of the vehicle is detected by radar using electromagnetic waves or sonar using ultrasonic waves. In radar and sonar, when the propagation of a wave is partially blocked by an obstacle due to the diffraction of the wave, the wave propagates to the shadowed part of the obstacle. Thereby, even when a plurality of vehicles overlap each other, the movement state of each vehicle can be detected.

カメラ317は、車両内部あるいは外部の映像を撮影する。映像は静止画あるいは動画のどちらでもよく、たとえば、カメラ317によって車両内部の搭乗者の挙動を撮影し、撮影した映像を映像I/F312を介して磁気ディスク305や光ディスク307などの記録媒体に出力する。また、カメラ317によって車両外部の状況を撮影し、撮影した映像を映像I/F312を介して磁気ディスク305や光ディスク307などの記録媒体に出力する。   The camera 317 captures images inside or outside the vehicle. The image may be either a still image or a moving image. For example, the behavior of the passenger inside the vehicle is photographed by the camera 317, and the photographed image is output to a recording medium such as the magnetic disk 305 or the optical disk 307 via the video I / F 312. To do. The camera 317 captures a situation outside the vehicle, and outputs the captured video to a recording medium such as the magnetic disk 305 or the optical disk 307 via the video I / F 312.

また、カメラ317は、赤外線カメラ機能を有しており、赤外線カメラ機能を用いて撮影された映像情報に基づいて車両内部に存在する物体の表面温度の分布を相対的に比較することができる。また、記録媒体に出力された映像は、上書き記録や保存がおこなわれる。   Further, the camera 317 has an infrared camera function, and the surface temperature distributions of objects existing inside the vehicle can be relatively compared based on video information captured using the infrared camera function. The video output to the recording medium is overwritten and stored.

また、カメラ317は、利用者の視野に関する映像を撮影する。利用者の視野に関する映像は、利用者の視野とほぼ同じ範囲の映像である。カメラ317は、利用者の視野角に合わせて設置する。たとえば、利用者の座席シートの枕部分の端などに設置する。さらに、カメラ317は、利用者の視線を感知する他のカメラなどによって利用者の視野を確定し、これに応じてカメラ317の位置や角度を変更するようにしてもよい。   The camera 317 captures an image related to the user's visual field. The image relating to the user's field of view is an image in a range almost the same as the user's field of view. The camera 317 is installed according to the viewing angle of the user. For example, it is installed at the end of the pillow portion of the user seat. Further, the camera 317 may determine the user's field of view with another camera that senses the user's line of sight, and change the position and angle of the camera 317 accordingly.

図1に示した経路誘導装置100が備える画像取得部101、位置取得部102、距離判断部103、検出部104、解析部105、決定部106、画像判断部107、識別部108、作成部109、出力部110は、図3に示したナビゲーション装置300におけるROM302、RAM303、磁気ディスク305、光ディスク307などに記録されたプログラムやデータを用いて、CPU301が所定のプログラムを実行し、ナビゲーション装置300における各部を制御することによってその機能を実現する。   The image acquisition unit 101, the position acquisition unit 102, the distance determination unit 103, the detection unit 104, the analysis unit 105, the determination unit 106, the image determination unit 107, the identification unit 108, and the creation unit 109 included in the route guidance device 100 illustrated in FIG. 1. The output unit 110 uses the programs and data recorded in the ROM 302, RAM 303, magnetic disk 305, optical disk 307, etc. in the navigation device 300 shown in FIG. The function is realized by controlling each part.

すなわち、実施例のナビゲーション装置300は、ナビゲーション装置300における記録媒体としてのROM302に記録されている経路誘導プログラムを実行することにより、図1に示した経路誘導装置が備える機能を、図2に示した経路誘導処理手順で実行することができる。   That is, the navigation apparatus 300 according to the embodiment has the functions provided in the route guidance device shown in FIG. 1 by executing the route guidance program recorded in the ROM 302 as a recording medium in the navigation device 300, as shown in FIG. Can be executed by the route guidance processing procedure.

(ナビゲーション装置の処理の内容)
つぎに、ナビゲーション装置300の処理の内容について説明する。図4は、ナビゲーション装置の処理の内容を示すフローチャートである。図4のフローチャートにおいて、まず、利用者による入力デバイス311の操作によって目的地点が設定されるまで待って(ステップS401:Noのループ)、目的地点が設定された場合(ステップS401:Yes)、誘導経路を決定する(ステップS402)。
(Contents of navigation device processing)
Next, the processing contents of the navigation device 300 will be described. FIG. 4 is a flowchart showing the contents of processing of the navigation device. In the flowchart of FIG. 4, first, the user waits until the destination point is set by operating the input device 311 (step S401: No loop), and when the destination point is set (step S401: Yes), guidance is performed. A route is determined (step S402).

また、ステップS402において誘導経路が決定された際、同時に誘導経路上において音声もしくは画像によって案内をおこなう案内ポイントが設定されてもよい。   Further, when the guidance route is determined in step S402, a guidance point for performing guidance by voice or image on the guidance route may be set at the same time.

つぎに、走行を開始するまで待って(ステップS403:Noのループ)、走行を開始した場合(ステップS403:Yes)、カメラ317によって運転席から見た車両の進行方向の景色の撮影を開始する(ステップS404)。また、各種センサ316に備えられたレーダによる物体の検出を開始する(ステップS405)。   Next, waiting for the start of travel (step S403: No loop), and when the travel is started (step S403: Yes), the camera 317 starts photographing the scenery in the traveling direction of the vehicle as viewed from the driver's seat. (Step S404). In addition, the detection of an object by the radar provided in the various sensors 316 is started (step S405).

レーダによる物体検出範囲は、具体的には、たとえば、自車両が右左折する交差点などの案内ポイントを中心とし、案内ポイントからの距離Mに所定の余裕値αを加算した距離R=M+αを半径とした円の範囲である。また、レーダによる物体検出範囲は、案内ポイントに接する経路に限ってもよい。   Specifically, the object detection range by the radar is, for example, centered on a guide point such as an intersection where the host vehicle turns right and left, and a radius R = M + α obtained by adding a predetermined margin value α to the distance M from the guide point. The range of circles. Further, the object detection range by the radar may be limited to a route in contact with the guide point.

余裕値αは、たとえば、自車両の現在速度Pを取得し、距離Mの案内ポイントまで到達する予測時間T=M/Pを算出する。さらに、走行中の経路において一般の車両等で想定される最大速度Pmで走行した際に案内ポイントまで予測時間Tに到着する場合の案内ポイントまでの距離Mm=Pm(M/P)を算出する。このMmからMを引いた距離を余裕値αとする。したがって、余裕値α=Pm(M/P)−Mとなる。ここで、最大速度Pmは、一定でもよいし、その経路における制限速度(法定速度)、道路幅、道路の曲率などから算出してもよい。   As the margin value α, for example, the current speed P of the host vehicle is acquired, and the predicted time T = M / P to reach the guide point of the distance M is calculated. Further, the distance Mm = Pm (M / P) to the guidance point in the case of arriving at the predicted time T to the guidance point when traveling at the maximum speed Pm assumed for a general vehicle or the like on the traveling route is calculated. . A distance obtained by subtracting M from Mm is defined as a margin value α. Therefore, the margin value α = Pm (M / P) −M. Here, the maximum speed Pm may be constant, or may be calculated from a speed limit (legal speed) in the route, a road width, a road curvature, and the like.

また、レーダによる物体検出範囲は、たとえば、自車両の現在速度Pを取得し、現在速度Pによって時間Tの間に走行する距離M=PTに余裕値αを加算した距離R=PT+αを半径とした案内ポイントを中心とする円の範囲としてもよい。またこのとき、自車両の速度は、案内ポイントに近づくにつれて現在速度Pから減速していくことを加味して計算してもよい。   The object detection range by the radar is, for example, the distance R = PT + α obtained by adding the margin value α to the distance M = PT that travels during the time T by acquiring the current speed P of the host vehicle. It is good also as the range of the circle centering on the guide point which was made. At this time, the speed of the host vehicle may be calculated by taking into account that the vehicle speed decelerates from the current speed P as it approaches the guidance point.

したがって、自車両の現在速度Pの代わりに現在速度Pと距離による減速モデル関数f(P,M)の積分∫f(P,M)に時間Tを乗算した距離R=T∫f(P,M)を半径とした案内ポイントを中心とする円の範囲としてもよい。減速モデル関数f(P,M)は、所定の関数でもよいし、利用者や走行経路によって可変でもよい。   Therefore, instead of the current speed P of the host vehicle, the distance R = T∫f (P, P) obtained by multiplying the integral ∫f (P, M) of the deceleration model function f (P, M) by the current speed P and the distance by the time T. It is good also as the range of the circle centering on the guidance point which made M) a radius. The deceleration model function f (P, M) may be a predetermined function, or may be variable depending on the user and the travel route.

そして、案内ポイントまで所定距離以内になるまで待って(ステップS406:Noのループ)、案内ポイントまで所定距離以内になった場合(ステップS406:Yes)、物体の移動状態を解析する(ステップS407)。ここで、所定距離は、あらかじめ定められた一定の距離でもよいし、自車両の速度によって可変でもよい。   Then, the process waits until the guide point is within a predetermined distance (step S406: No loop). When the guide point is within the predetermined distance (step S406: Yes), the moving state of the object is analyzed (step S407). . Here, the predetermined distance may be a predetermined distance or may be variable depending on the speed of the host vehicle.

つぎに、ステップS407において解析された物体の移動状態から、誘導情報に用いる物体はあるか否かを判断する(ステップS408)。ここで、誘導情報に用いる物体か否かの判断は、たとえば、速度を落とした車両を検出したか否か、右左折車線へ移動した車両を検出したか否か、道路を横断中の通行人を検出したか否かなどの他の車両の右左折や通行人の横断を予測させる移動状態などの判断である。また、誘導情報に用いる物体の検出は単数でもよいし、複数でもよい。   Next, it is determined from the moving state of the object analyzed in step S407 whether or not there is an object used for the guidance information (step S408). Here, the determination as to whether or not the object is used for the guidance information is, for example, whether or not a vehicle that has slowed down is detected, whether or not a vehicle that has moved to the right or left turn lane is detected, or a passerby crossing the road Such as whether or not the vehicle has been detected, such as a moving state that predicts the turn of another vehicle or the crossing of a passerby. Moreover, the detection of the object used for guidance information may be singular or plural.

ステップS408において誘導情報に用いる物体があると判断された場合(ステップS408:Yes)、撮影されている映像にステップS408において誘導情報に用いる物体であると判断された物体が映るまで待つ(ステップS409:Noのループ)。そして、ステップS409において物体が映った場合(ステップS409:Yes)、映った物体の色を識別する(ステップS410)。   If it is determined in step S408 that there is an object to be used for guidance information (step S408: Yes), the process waits until an object determined to be an object to be used for guidance information in step S408 appears in the captured video (step S409). : No loop). When an object is reflected in step S409 (step S409: Yes), the color of the reflected object is identified (step S410).

そして、ステップS410において色を識別した物体を用いた誘導情報を出力する(ステップS411)。物体を用いた誘導情報は、具体的には、たとえば、「いま車が曲がったところを左折です」などといった物体の移動状態に基づいた誘導情報や、「いま赤い車が曲がったところを左折です」などといった物体の移動状態と、物体の色に基づいた誘導情報である。   And the guidance information using the object which identified the color in step S410 is output (step S411). Specifically, the guidance information using the object is, for example, guidance information based on the moving state of the object such as “Turn left where the car turns” or “Turn left where the red car turns” The guidance information is based on the moving state of the object such as “” and the color of the object.

一方、ステップS408において誘導情報に用いる物体がない場合(ステップS408:No)、通常の誘導情報を出力する(ステップS412)。ここで通常の誘導情報は、具体的には、たとえば、「300m先の交差点を左折です」などといった交差点名や道路名などを用いた誘導情報や、「300m先のコンビニの手前を左折です」などといったランドマークを用いた誘導情報である。   On the other hand, when there is no object used for guidance information in Step S408 (Step S408: No), normal guidance information is output (Step S412). Here, for example, the normal guidance information is, for example, guidance information using an intersection name or road name such as “turn left at the intersection 300m ahead” or “turn left before the convenience store 300m ahead” It is guidance information using landmarks such as.

つぎに、目的地点に到着したか否かを判断して(ステップS413)、目的地点に到着した場合(ステップS413:Yes)、一連の処理を終了する。   Next, it is determined whether or not the destination point has been reached (step S413). When the destination point has been reached (step S413: Yes), a series of processing is terminated.

一方、ステップS413において目的地点に到着しない場合(ステップS413:No)、ステップS406に戻り、以降の処理を繰り返す。   On the other hand, when it does not arrive at the destination point in step S413 (step S413: No), the process returns to step S406 and the subsequent processing is repeated.

なお、図4のフローチャートにおいては、ステップS406において案内ポイントまで所定距離以内か否かを判断しているが、これに限るものではない。たとえば、案内ポイントに到着する予測時間の所定時間前か否かを判断してもよい。   In the flowchart of FIG. 4, it is determined in step S406 whether the distance to the guidance point is within a predetermined distance, but the present invention is not limited to this. For example, it may be determined whether or not a predetermined time before the predicted time of arrival at the guidance point.

また、図4のフローチャートにおいては、ステップS409:Noのループにおいて物体が映るまで待つとしているが、これに限るものではない。たとえば、物体が映らなくても、ステップS410、ステップS411に進み、予測誘導として誘導情報を出力してもよい。予測誘導は、具体的には、たとえば、「もうすぐ見える赤い車が曲がるところを右折です」などといった、まだ利用者の視野に入っていない物体を用いた誘導情報である。   In the flowchart of FIG. 4, the process waits until an object appears in the loop of step S409: No, but is not limited thereto. For example, even if an object is not shown, the process proceeds to step S410 and step S411, and guidance information may be output as a predicted guidance. Predictive guidance is, specifically, guidance information using an object that is not yet in the user's field of view, such as, for example, “A right turn is about to turn when a red car is about to be seen”.

また、図4のフローチャートにおいては、ステップS410において物体の色を識別するとしているが、これに限るものではない。たとえば、物体の大きさや、車種などを識別してもよいし、また、ステップS410を省略して、物体の色を識別しなくても、ステップS411に進み、誘導情報を出力する構成でもよい。   In the flowchart of FIG. 4, the color of the object is identified in step S410, but the present invention is not limited to this. For example, the size of the object, the vehicle type, etc. may be identified, or the step S410 may be omitted and the color of the object may not be identified, and the process may proceed to step S411 and output guidance information.

また、ステップS411において物体を用いた誘導情報を出力するとしているが、たとえば、ステップS408において誘導情報に用いる物体が複数ある場合、これらの物体が撮影されている映像に映るたびに出力してもよい。具体的には、たとえば、「つぎに左折する交差点は、いま車が左折しています」、「また車が左折しています」、「今度は車が右折しています」というように連続して誘導情報を出力してもよい。   In addition, the guidance information using the object is output in step S411. For example, if there are a plurality of objects used for the guidance information in step S408, the guidance information may be output each time the object is reflected in the captured video. Good. Specifically, for example, “The next intersection where you turn left is now the car is turning left”, “The car is turning left again”, “This time the car is turning right”, etc. Guidance information may be output.

(レーダによる検出範囲と、撮影によるブラインドエリアとの関係)
つぎに、図5−1、および図5−2を用いて、レーダによる検出範囲と、撮影によるブラインドエリアとの関係について説明する。図5−1は、案内ポイントにおけるレーダによる検出範囲と、撮影によるブラインドエリアとの関係について示した説明図である。図5−2は、所定時間経過後の案内ポイントにおけるレーダによる検出範囲と、撮影によるブラインドエリアとの関係について示した説明図である。
(Relationship between detection range by radar and blind area by shooting)
Next, the relationship between the detection range by the radar and the blind area by photographing will be described with reference to FIGS. 5A and 5B. FIG. 5A is an explanatory diagram illustrating a relationship between a detection range by a radar at a guidance point and a blind area by photographing. FIG. 5B is an explanatory diagram illustrating a relationship between a detection range by the radar at a guidance point after a predetermined time has elapsed and a blind area by photographing.

図5−1および図5−2においては、自車両500と、同一車線の前方を走行する車両501と、対向車両A502と、対向車両B503と、レーダによる検出範囲510と、撮影によるブラインドエリア511と、が図示されている。レーダによる検出範囲510は、各種センサ316の備えるレーダやソナーが物体を検出可能な範囲である。レーダによる検出範囲510は、一定でもよいし、自車両や自車両の周辺に位置する他の車両の速度や案内ポイントまでの距離によって可変であってもよい。   5A and 5B, the host vehicle 500, the vehicle 501 traveling in front of the same lane, the oncoming vehicle A502, the oncoming vehicle B503, the detection range 510 by the radar, and the blind area 511 by photographing. Are shown. The radar detection range 510 is a range in which an object can be detected by the radar and sonar included in the various sensors 316. The detection range 510 by the radar may be constant, or may be variable depending on the speed of the host vehicle or other vehicles located around the host vehicle and the distance to the guide point.

ブラインドエリア511は、自車両500に搭乗している利用者の視野角に設定されたカメラ317によって撮影される画像において、障害物の裏などの撮影された画像に映らないエリアである。具体的には、たとえば、自車両500に搭乗している利用者の視野の中で、同一車線の前方を走行する車両501によって視野が遮られているエリアである。   The blind area 511 is an area that is not shown in a photographed image such as the back of an obstacle in an image photographed by the camera 317 set at the viewing angle of the user who is aboard the host vehicle 500. Specifically, for example, the area is blocked by the vehicle 501 traveling in front of the same lane in the field of view of the user boarding the host vehicle 500.

また、ブラインドエリア511か否かの判断は、たとえば、カメラ317による画像のうち自車両の走行に伴う時間経過によって画像が変化しない範囲をブラインドエリア511と判断してもよい。車両の走行に伴う時間経過によって画像が変化しない範囲は、具体的には、たとえば、前方を車両が同方向に走行しているために時間が経過しても同じ画像が映っていると判断される。   In addition, the determination as to whether or not the area is the blind area 511 may be, for example, a range in which the image does not change with the lapse of time associated with the traveling of the host vehicle in the image by the camera 317 may be determined as the blind area 511. Specifically, the range in which the image does not change with the lapse of time associated with the traveling of the vehicle is specifically determined that, for example, the same image is reflected even if the time elapses because the vehicle is traveling in the same direction ahead. The

したがって、たとえば、上述のブラインドエリア511か否かの判断をおこなうことで、各種センサ316の備えるレーダなどの代わりに、通信I/Fより取得される他車両に搭載されたナビゲーション装置や通行人の保持する端末装置の現在位置情報を用いて本実施例の機能を実現することもできる。   Therefore, for example, by determining whether or not it is the above-described blind area 511, instead of the radar provided in the various sensors 316, navigation devices or passersby installed in other vehicles acquired from the communication I / F. The function of this embodiment can also be realized by using the current position information of the terminal device to be held.

図5−1においては、同一車線の前方を走行する車両501によってできたブラインドエリア511内に、対向車両A502および対向車両B503が入っている。しかし、レーダによる検出範囲510内であるので、利用者には見えないが、レーダによって対向車両A502が右折しようとしていることは解析され、対向車両A502は誘導情報に用いる車両であると判断される。   In FIG. 5A, an oncoming vehicle A502 and an oncoming vehicle B503 are in a blind area 511 formed by a vehicle 501 traveling in front of the same lane. However, since it is within the detection range 510 by the radar, it is not visible to the user, but it is analyzed by the radar that the oncoming vehicle A502 is about to turn right, and the oncoming vehicle A502 is determined to be a vehicle used for guidance information. .

図5−2においては、図5−1から所定時間経過し、各車両が移動したために、対向車両A502は、ブラインドエリア511から出ている。つまり、カメラ317による画像に対向車両A502が映る。したがって、利用者の視野に対向車両502が入ったと判断され、この時点で誘導情報が出力される。具体的には、たとえば、「いま車が曲がろうとしている交差点を左折です」といった音声案内が出力される。   In FIG. 5B, the oncoming vehicle A502 is out of the blind area 511 because a predetermined time has elapsed from FIG. That is, the oncoming vehicle A502 appears in the image by the camera 317. Therefore, it is determined that the oncoming vehicle 502 has entered the user's field of view, and guidance information is output at this point. Specifically, for example, a voice guidance such as “Turn left at the intersection where the car is about to turn” is output.

上述したように、実施例のナビゲーション装置300によれば、画像取得部101によって取得された画像と、検出部104によって検出された検出結果に基づいて、作成部109によって物体の位置を目印として移動体を誘導する経路の誘導情報を作成し、出力部110によって出力することができる。   As described above, according to the navigation apparatus 300 of the embodiment, the creation unit 109 moves the position of the object as a mark based on the image acquired by the image acquisition unit 101 and the detection result detected by the detection unit 104. Guidance information on a route for guiding the body can be created and output by the output unit 110.

したがって、物体の位置を目印とした誘導情報を作成する場合、障害物などによって画像に撮像されない範囲の物体に関しても、レーダによって位置を検出することができる。これによって、利用者は、物体の位置を目印とした誘導案内をおこなう場合、利用者の視野に入らない物体に関しても位置を検出しておくことで、それらの物体が利用者の視野に入ったらすぐに誘導情報を出力させることができる。したがって、障害物の多い経路においても物体の位置を用いた誘導情報を出力させることができる。   Therefore, when creating guidance information using the position of an object as a landmark, the position of an object in a range that is not captured in an image by an obstacle or the like can be detected by the radar. As a result, when performing guidance with the position of an object as a landmark, the user detects the position of an object that does not fall within the user's field of view, and if those objects enter the user's field of view. The guidance information can be output immediately. Therefore, guidance information using the position of an object can be output even on a route with many obstacles.

また、実施例のナビゲーション装置300によれば、作成部109は、画像取得部101によって取得された画像に決定部106によって決定した目印となる物体が撮像されていると判断された場合、誘導情報を作成する。そして、出力部110によって作成された目印となる物体の位置を含む誘導情報を出力することができる。   Further, according to the navigation apparatus 300 of the embodiment, the creation unit 109 determines that the object that is the landmark determined by the determination unit 106 is captured in the image acquired by the image acquisition unit 101 when the guidance information is captured. Create And the guidance information containing the position of the object used as the mark produced by the output part 110 can be output.

したがって、物体の位置を目印とした誘導情報を作成する場合、利用者の視野に入っている物体の位置のみを用いた誘導情報を出力することができる。これによって、利用者は、視野に入っていない物体の位置を用いた誘導情報の出力によって混乱されることを防ぐことができる。   Therefore, when creating guidance information using the position of an object as a landmark, guidance information using only the position of the object in the user's field of view can be output. This prevents the user from being confused by the output of guidance information using the position of an object that is not in the field of view.

また、実施例のナビゲーション装置300によれば、画像取得部101によって取得された画像に基づいて、識別部108によって物体の外観的特徴を識別することができる。そして、作成部109によって物体の位置と、物体の外観的特徴と、を目印として移動体を誘導する経路の誘導情報を作成し、出力部110は、作成部109によって作成された物体の位置および外観的特徴を含む誘導情報を出力することができる。   Further, according to the navigation device 300 of the embodiment, the appearance feature of the object can be identified by the identification unit 108 based on the image acquired by the image acquisition unit 101. Then, the creation unit 109 creates guidance information of a route for guiding the moving body using the position of the object and the appearance characteristics of the object as marks, and the output unit 110 outputs the position of the object created by the creation unit 109 and Guidance information including appearance features can be output.

したがって、目印となる物体が複数決定された場合、それぞれの物体を区別することができる。これによって、利用者は、複数の物体が案内ポイント周辺に存在する場合も、誘導情報の目印となる物体を簡単に見つけることができる。   Therefore, when a plurality of objects serving as landmarks are determined, each object can be distinguished. Thereby, the user can easily find an object serving as a guide information for guidance information even when a plurality of objects exist around the guidance point.

また、実施例のナビゲーション装置300によれば、位置取得部102によって取得された移動体の現在位置情報が、距離判断部103によって誘導情報の作成される誘導地点まで所定距離以内になったと判断された場合に、作成部109によって誘導情報を作成することができる。   Further, according to the navigation apparatus 300 of the embodiment, it is determined that the current position information of the moving body acquired by the position acquisition unit 102 is within a predetermined distance to the guide point where the guide information is created by the distance determination unit 103. In this case, the guidance information can be created by the creation unit 109.

したがって、案内ポイントから所定距離以内になるまでは、レーダを起動しないことができる。これによって、利用者は、案内ポイントから所定距離以内になるまでは、レーダの有する他の機能をさせておくことができる。   Therefore, the radar can not be activated until it is within a predetermined distance from the guide point. This allows the user to keep other functions of the radar until it is within a predetermined distance from the guide point.

以上説明したように、本発明の誘導装置、誘導方法、誘導プログラム、および記録媒体によれば、ナビゲーション装置300は、ブラインドエリアに存在する物体に対してもレーダによって移動状態を解析し、誘導情報の目印となる物体を判断することができる。そして、目印となる物体がブラインドエリアから出た場合に、すぐに誘導情報を出力することができる。これによって、利用者は、自身の視野の範囲に物体が入ったら、すぐに物体の位置を目印とした誘導情報を出力させることができる。   As described above, according to the guidance device, the guidance method, the guidance program, and the recording medium of the present invention, the navigation device 300 analyzes the movement state of the object existing in the blind area by the radar, and the guidance information. It is possible to determine the object that becomes the mark of the mark. And when the object used as a mark comes out of a blind area, guidance information can be output immediately. As a result, the user can output guidance information using the position of the object as a landmark as soon as the object enters the range of his field of view.

なお、本実施の形態で説明した誘導方法は、あらかじめ用意されたプログラムをパーソナル・コンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。   The guidance method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer. The program may be a transmission medium that can be distributed via a network such as the Internet.

100 経路誘導装置
101 画像取得部
102 位置取得部
103 距離判断部
104 検出部
105 解析部
106 決定部
107 画像判断部
108 識別部
109 作成部
110 出力部
DESCRIPTION OF SYMBOLS 100 Route guidance device 101 Image acquisition part 102 Position acquisition part 103 Distance judgment part 104 Detection part 105 Analysis part 106 Determination part 107 Image judgment part 108 Identification part 109 Creation part 110 Output part

Claims (7)

移動体の移動方向を撮像した画像を取得する画像取得手段と、
前記移動方向に存在する物体の位置をレーダによって検出する検出手段と、
前記画像取得手段によって取得された画像と、前記検出手段によって検出された検出結果とに基づいて、前記物体の位置を目印として前記移動体を誘導する経路の誘導情報を作成する作成手段と、
前記作成手段によって作成された前記物体の位置を含む誘導情報を出力する出力手段と、
を備えることを特徴とする経路誘導装置。
Image acquisition means for acquiring an image obtained by imaging the moving direction of the moving body;
Detecting means for detecting a position of an object existing in the moving direction by a radar;
Creating means for creating guidance information of a route for guiding the moving body using the position of the object as a landmark, based on the image obtained by the image obtaining means and the detection result detected by the detection means;
Output means for outputting guidance information including the position of the object created by the creating means;
A route guidance device comprising:
前記検出手段によって検出された物体の位置から当該物体の移動状態を解析する解析手段と、
前記解析手段によって解析された解析結果に基づいて、前記誘導情報の目印となる物体を決定する決定手段と、
前記画像取得手段によって取得された画像に前記決定手段によって決定した目印となる物体が撮像されているか否かを判断する画像判断手段と、
を備え、
前記作成手段は、前記画像判断手段によって前記目印となる物体が撮像されていると判断された場合、前記誘導情報を作成し、
前記出力手段は、前記作成手段によって作成された前記目印となる物体の位置を含む誘導情報を出力することを特徴とする請求項1に記載の経路誘導装置。
Analysis means for analyzing the movement state of the object from the position of the object detected by the detection means;
A determination unit that determines an object to be a mark of the guidance information based on an analysis result analyzed by the analysis unit;
Image determining means for determining whether or not an object to be a mark determined by the determining means is captured in the image acquired by the image acquiring means;
With
The creation unit creates the guidance information when the image determination unit determines that the object serving as the mark is captured,
The route guidance apparatus according to claim 1, wherein the output unit outputs guidance information including a position of the object that is the mark created by the creation unit.
前記画像取得手段によって取得された画像に基づいて、前記物体の外観的特徴を識別する識別手段を備え、
前記作成手段は、前記物体の位置と、前記識別手段によって識別された当該物体の外観的特徴と、を目印として前記移動体を誘導する経路の誘導情報を作成し、
前記出力手段は、前記作成手段によって作成された前記物体の位置および外観的特徴を含む誘導情報を出力することを特徴とする請求項1に記載の経路誘導装置。
Identification means for identifying the external features of the object based on the image acquired by the image acquisition means;
The creation means creates guidance information of a route for guiding the moving body using the position of the object and the appearance characteristics of the object identified by the identification means as a mark,
2. The route guidance device according to claim 1, wherein the output unit outputs guidance information including a position and an appearance characteristic of the object created by the creation unit.
前記移動体の現在位置情報を取得する位置取得手段と、
前記位置取得手段によって取得された現在位置情報が、前記誘導情報の作成される誘導地点まで所定距離以内になったか否かを判断する距離判断手段と、
を備え、
前記作成手段は、前記距離判断手段によって所定距離以内になったと判断された場合に、前記誘導情報を作成することを特徴とする請求項1〜3のいずれか一つに記載の経路誘導装置。
Position acquisition means for acquiring current position information of the moving body;
Distance determination means for determining whether or not the current position information acquired by the position acquisition means is within a predetermined distance to the guide point where the guide information is created;
With
The route guidance device according to any one of claims 1 to 3, wherein the creation unit creates the guidance information when the distance determination unit determines that the distance is within a predetermined distance.
移動体の移動方向を撮像した画像を取得する画像取得工程と、
前記移動方向に存在する物体の位置をレーダによって検出する検出工程と、
前記画像取得工程によって取得された画像と、前記検出工程によって検出された検出結果とに基づいて、前記物体の位置を目印として前記移動体を誘導する経路の誘導情報を作成する作成工程と、
前記作成工程によって作成された前記物体の位置を含む誘導情報を出力する工程と、
を含むことを特徴とする経路誘導方法。
An image acquisition step of acquiring an image obtained by imaging the moving direction of the moving body;
A detection step of detecting a position of an object existing in the moving direction by a radar;
Based on the image acquired by the image acquisition step and the detection result detected by the detection step, a creation step of creating guidance information of a route that guides the moving body using the position of the object as a landmark,
Outputting guidance information including the position of the object created by the creating step;
A route guidance method comprising:
請求項5に記載の経路誘導方法をコンピュータに実行させることを特徴とする経路誘導プログラム。   A route guidance program for causing a computer to execute the route guidance method according to claim 5. 請求項6に記載の経路誘導プログラムを記録したことを特徴とするコンピュータに読み取り可能な記録媒体。   A computer-readable recording medium on which the route guidance program according to claim 6 is recorded.
JP2008537342A 2006-09-29 2006-09-29 Guiding device, guiding method, guiding program, and recording medium Pending JPWO2008041284A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2006/319506 WO2008041284A1 (en) 2006-09-29 2006-09-29 Route guidance device, route guidance method, route guidance program, and recording medium

Publications (1)

Publication Number Publication Date
JPWO2008041284A1 true JPWO2008041284A1 (en) 2010-01-28

Family

ID=39268151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008537342A Pending JPWO2008041284A1 (en) 2006-09-29 2006-09-29 Guiding device, guiding method, guiding program, and recording medium

Country Status (2)

Country Link
JP (1) JPWO2008041284A1 (en)
WO (1) WO2008041284A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002340603A (en) * 2001-03-16 2002-11-27 Fujitsu Ten Ltd Anvigation device and road data storage medium
JP2005196376A (en) * 2004-01-06 2005-07-21 Alpine Electronics Inc Device for displaying surrounding vehicle, navigation system, and method for displaying vehicle
JP2005207999A (en) * 2004-01-26 2005-08-04 Alpine Electronics Inc Navigation system, and intersection guide method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002340603A (en) * 2001-03-16 2002-11-27 Fujitsu Ten Ltd Anvigation device and road data storage medium
JP2005196376A (en) * 2004-01-06 2005-07-21 Alpine Electronics Inc Device for displaying surrounding vehicle, navigation system, and method for displaying vehicle
JP2005207999A (en) * 2004-01-26 2005-08-04 Alpine Electronics Inc Navigation system, and intersection guide method

Also Published As

Publication number Publication date
WO2008041284A1 (en) 2008-04-10

Similar Documents

Publication Publication Date Title
JP4293917B2 (en) Navigation device and intersection guide method
US7751970B2 (en) Information providing apparatus, information providing method, and computer product
US11118934B2 (en) Method and system of route guidance for a towing vehicle
JP4787196B2 (en) Car navigation system
JP2007145095A (en) Traveling controller, traveling control method, traveling control program and recording medium
JP2023066699A (en) Superimposed image display device
JPWO2008107944A1 (en) Lane departure prevention apparatus, lane departure prevention method, lane departure prevention program, and storage medium
JP2016090515A (en) Information display device, control method, program, and recording medium
JP6444508B2 (en) Display control device and navigation device
WO2011135660A1 (en) Navigation system, navigation method, navigation program, and storage medium
JP4249037B2 (en) Peripheral vehicle display device, navigation device, and vehicle display method
JP4619442B2 (en) Image display device, display control method, display control program, and recording medium
WO2007088915A1 (en) Route guidance device, route guidance method, route guidance program, and recording medium
WO2008053533A1 (en) Map display device, map display method, map display program, and recording medium
WO2008038333A1 (en) Data recording device, data recording method, data recording program, and computer readable recording medium
JP2009288179A (en) Information guiding device, information guiding method, information guiding program, and recording medium
JP2008107223A (en) Route guiding apparatus, route guiding method, route guiding program and recording medium
JP2011215906A (en) Safety support device, safety support method, safety support program and recording medium
WO2007123104A1 (en) Route guidance device, route guidance method, route guidance program, and recording medium
JPWO2008041284A1 (en) Guiding device, guiding method, guiding program, and recording medium
WO2008041338A1 (en) Map display, map display method, map display program, and recording medium
JP2008249654A (en) Record reproducing device, method, program, and recording medium
JP2016161483A (en) Information providing device and information providing program
JP2006177814A (en) Information providing device
JP2008157760A (en) Map display device, method, and program, and recording medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100928