JPWO2006109527A1 - Navigation device and navigation method - Google Patents

Navigation device and navigation method Download PDF

Info

Publication number
JPWO2006109527A1
JPWO2006109527A1 JP2007512494A JP2007512494A JPWO2006109527A1 JP WO2006109527 A1 JPWO2006109527 A1 JP WO2006109527A1 JP 2007512494 A JP2007512494 A JP 2007512494A JP 2007512494 A JP2007512494 A JP 2007512494A JP WO2006109527 A1 JPWO2006109527 A1 JP WO2006109527A1
Authority
JP
Japan
Prior art keywords
image
route
current position
unit
instruction mark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007512494A
Other languages
Japanese (ja)
Other versions
JP4892741B2 (en
Inventor
圭一 内村
圭一 内村
振程 胡
振程 胡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kumamoto University NUC
Original Assignee
Kumamoto University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kumamoto University NUC filed Critical Kumamoto University NUC
Priority to JP2007512494A priority Critical patent/JP4892741B2/en
Publication of JPWO2006109527A1 publication Critical patent/JPWO2006109527A1/en
Application granted granted Critical
Publication of JP4892741B2 publication Critical patent/JP4892741B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • Image Processing (AREA)

Abstract

簡易なデータ処理によって実写映像に道案内情報を合成・出力することを可能とするナビゲーション情報を提供する。経路探索部(1)、経路情報処理部(2)、実写画像撮影装置(3)、現在位置・方位特定部(4)、姿勢特定部(5)、現在位置プロット部(6)、誘導指示マーク生成部(7)、透視変換画像合成部(8)および画像表示装置(9)を備える。装置本体に付設または組み込まれた実写画像撮影装置によって、その都度、その位置での風景の実写画像がリアルタイムに撮影され、その実写映像に誘導指示マークが合成され、直観的に把握可能な道案内画像が表示される。誘導指示マーク、経路の画像の交差点または分岐点までを表示するL型とする。その長さが予め定めた閾値と比較して長い場合には、L型を途中で区切って表示する。  It provides navigation information that enables the synthesis and output of route guidance information in a live-action image by simple data processing. Route search unit (1), route information processing unit (2), photographed image capturing apparatus (3), current position/direction specifying unit (4), posture specifying unit (5), current position plotting unit (6), guidance instruction A mark generation unit (7), a perspective conversion image synthesis unit (8) and an image display device (9) are provided. A real-time image capturing device attached to or incorporated in the main body of the device captures a real-time image of the landscape at that position in real time, and a guidance instruction mark is combined with the actual captured image to provide intuitive guidance. The image is displayed. An L-shaped display is provided for displaying the guidance instruction mark and the intersection or branch point of the image of the route. If the length is longer than a predetermined threshold value, the L-shape is divided and displayed in the middle.

Description

本発明は、出発地点から目的地までの経路を指示する誘導指示マークを実写画像に合成して出力するナビゲーション装置およびナビゲーション方法に関する。     The present invention relates to a navigation device and a navigation method for combining a guidance image indicating a route from a starting point to a destination with a photographed image and outputting the synthesized image.

例えば鉄道やその他の交通機関の最寄駅あるいは地下街の出入口からユーザの所望する目的地までの道案内が欲しい場合が往々にしてある。このような場合、GPS(Global Positioning System)付き携帯電話に二次元地図を表示させて道案内を行う、というナビゲーション方法およびそのためのシステムが一般に実用化されている。   For example, it is often the case that the user wants directions from the nearest station of a railway or other transportation facility or the entrance/exit of an underground mall to a destination desired by a user. In such a case, a navigation method in which a two-dimensional map is displayed on a mobile phone with a GPS (Global Positioning System) for route guidance and a system therefor are generally put into practical use.

しかし二次元地図上での道案内では、ユーザにとって、周りの実際の景観と地図とのマッチングを即座に実感的に把握することは困難である。このため、直観的に分かりやすい実写映像と実際の景観とを照らし合わせて道案内を行う、という方法およびシステムが提案されている(例えば、特許文献1〜4)。   However, it is difficult for the user to immediately and intuitively understand the matching between the actual landscape and the map in the route guidance on the two-dimensional map. For this reason, methods and systems have been proposed in which intuitively easy-to-understand live-action images and actual landscapes are compared to provide route guidance (for example, Patent Documents 1 to 4).

このような従来提案されている技術では、実写映像を予め画像データ記録部に蓄えておき、道案内を行う際に、その位置に適合した実写映像を画像データ記録部から読み出して用いるようにしている。   In such a conventionally proposed technique, the live-action image is stored in the image data recording unit in advance, and when performing the route guidance, the real-image image suitable for the position is read from the image data recording unit and used. There is.

また、いわゆるカーナビと呼ばれる車載ナビゲーションシステムでは、例えば駐車場に固定されたカメラから通信されて来る実写映像信号に基づいて、その駐車場の状況を実写映像としてナビゲーション画面内に表示する、といった技術が提案されている(例えば、特許文献5)
特開2003−194567号公報 特開2002−277275号公報 特開2002−221433号公報 特開2004−226140号公報 特開2001−21368号公報
Further, in a so-called car navigation system called a car navigation system, for example, based on a live-action video signal transmitted from a camera fixed to a parking lot, a technique of displaying the situation of the parking lot in the navigation screen as a live-action image is available. Proposed (for example, Patent Document 5)
JP, 2003-194567, A JP, 2002-277275, A JP, 2002-221433, A JP, 2004-226140, A JP, 2001-21368, A

しかしながら、上記のような従来の方法およびシステムでは、実写映像を予め画像データとして画像データ記録部に蓄えておく必要がある。このため、たとえば同じ一つの風景でも、季節、天候、時刻等の撮影条件が異なると、ユーザにとってはかなり異なった映像として見えるため、それらの撮影条件の変化も含めると、ナビゲーション可能領域を限定したとしても、その領域内の各位置ごとでの映像のそれぞれに異なった季節、天候、時刻ごとでの画像データを用意しなければならないので、結局、実際には実現不可能なほどに膨大な量の画像データの撮影・蓄積が必要となってしまう。従って、甚だしくは、上記のようなシステムは、その膨大な量の画像データの蓄積の非現実性のために、実現不可能なものとなるという、実際上の致命的な問題があった。あるいは、そのような膨大な量の画像データの蓄積は何とか実現できたとしても、そのためには極めて煩雑で莫大な手間およびそのためのコストが掛かってしまうという不都合もある。   However, in the conventional method and system as described above, it is necessary to store the photographed image as image data in the image data recording unit in advance. For this reason, for example, even in the same landscape, if the shooting conditions such as the season, the weather, and the time are different, the user can see the images as quite different images. Therefore, including the change in those shooting conditions limits the navigable area. However, it is necessary to prepare image data for different seasons, weather conditions, and times for each image in each position in the area, and in the end, a huge amount of data is impossible to realize in practice. It becomes necessary to capture and store the image data of. Therefore, there is a serious fatal problem that the system as described above becomes unrealizable due to the impracticality of accumulating a huge amount of image data. Alternatively, even if the storage of such a huge amount of image data can be managed somehow, there is an inconvenience in that it is extremely complicated and enormous labor and cost are required.

本発明はかかる問題点に鑑みてなされたもので、その目的は、簡易なデータ処理によって実写映像に道案内情報を合成・出力することが可能なナビゲーション装置およびナビゲーション方法を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a navigation device and a navigation method capable of synthesizing and outputting route guidance information to a live-action image by simple data processing.

本発明のナビゲーション装置は、出発地点から目的地までの経路を含む地図情報を格納するための記憶装置と、記憶装置に格納された地図情報から、出発地点から目的地までの経路を探索する経路探索部と、経路探索部によって探索された経路の情報を表示するための画像データを生成・処理する経路情報処理部と、風景の実写画像を撮影する実写画像撮影装置と、実写画像撮影装置の現在の位置および方位を特定する現在位置・方位特定部と、実写画像撮影装置の姿勢を特定する姿勢特定部と、探索された経路の情報における現在位置をプロットする現在位置プロット部と、現在位置から前記目的地へと向かう方向に誘導指示マークを生成する誘導指示マーク生成部と、誘導指示マークを透視変換したのち実写映像に重畳して合成する透視変換画像合成部と、透視変換画像合成部で合成された画像データに基づいた画像を出力する画像出力装置と、を備えたものである。   A navigation device of the present invention is a route for searching a route from a starting point to a destination from a storage device for storing map information including a route from a starting point to a destination and map information stored in the storage device. The search unit, the route information processing unit that generates and processes image data for displaying the information of the route searched by the route search unit, the photographed image photographing device that photographs the photographed image of the landscape, and the photographed image photographing device. A current position/azimuth identification unit that identifies the current position and orientation, a posture identification unit that identifies the orientation of the photographed image capturing device, a current position plot unit that plots the current position in the searched route information, and a current position Guidance direction mark generation unit for generating a guidance direction mark in the direction from the destination to the destination, a perspective conversion image synthesis unit for performing perspective transformation of the guidance direction mark, and then superimposing and synthesizing the guidance instruction mark, and a perspective conversion image synthesis unit. And an image output device for outputting an image based on the image data combined in (3).

また、本発明のナビゲーション方法は、出発地点から目的地までの経路を含む地図情報を、外部の地図サーバから通信によって携帯型ナビゲーション装置の記憶装置に取得すると共に、前記記憶装置内に格納された地図情報から出発地点から目的地までの経路を探索する経路探索ステップと、経路探索ステップによって探索された経路の情報を表示するための画像データを生成・処理する経路情報処理ステップと、風景の実写画像を、携帯型ナビゲーション装置本体に付設または組み込まれた実写画像撮影装置によって撮影する実写画像撮影ステップと、実写画像撮影装置の現在の位置および方位を特定する現在位置・方位特定ステップと、実写画像撮影装置の姿勢を特定する姿勢特定ステップと、探索された経路の情報における現在位置をプロットする現在位置プロットステップと、現在位置から目的地へと向かう方向に誘導指示マークを生成する誘導指示マーク生成ステップと、誘導指示マークを透視変換したのち実写映像に重畳して合成する透視変換画像合成ステップと、透視変換画像合成ステップにて合成してなる画像データに基づいた画像を出力する画像出力ステップと、を含んでいる。   Further, in the navigation method of the present invention, the map information including the route from the departure point to the destination is acquired from the external map server in the storage device of the portable navigation device by communication and stored in the storage device. A route search step that searches the route from the starting point to the destination from the map information, a route information processing step that generates and processes image data for displaying the information of the route searched by the route search step, and a real scene photograph A real image capturing step of capturing an image by a real image capturing device attached to or incorporated in the body of the portable navigation device, a current position/orientation identifying step of identifying the current position and orientation of the real image capturing device, and a live image. A posture specifying step for specifying the posture of the image capturing apparatus, a current position plotting step for plotting the current position in the searched route information, and a guide instruction mark generation for generating a guide instruction mark in the direction from the current position toward the destination. A step, a perspective conversion image synthesizing step of superimposing and synthesizing the guidance instruction mark on the photographed image after perspective transformation, and an image output step of outputting an image based on the image data synthesized in the perspective conversion image synthesizing step. , Is included.

本発明のナビゲーション装置またはナビゲーション方法では、装置本体に付設または組み込まれた実写画像撮影装置によって、その都度、その位置での風景の実写画像がリアルタイムに撮影され、その実写映像に誘導指示マークが合成されて、直観的に把握可能な道案内画像が表示される。   In the navigation device or navigation method of the present invention, a real-time image capturing device attached to or incorporated in the main body of the device captures a real-time image of a landscape at that position in real time, and a guidance instruction mark is combined with the live-action image. Then, a guide image that can be intuitively grasped is displayed.

ここで、地図情報として、車載ナビゲーション用の地図ではなく、歩行者用のデジタル地図のデータを用いるようにすることが望ましい。   Here, as map information, it is desirable to use digital map data for pedestrians instead of maps for in-vehicle navigation.

また、記憶装置内の地図情報は、外部の地図サーバから、その都度通信により取得するようにすれば、メモリ容量が少なくてすむ。   Further, if the map information in the storage device is acquired from the external map server by communication each time, the memory capacity can be reduced.

また、現在位置が探索結果の経路から所定の距離または範囲以上に外れた場合には、以下の処理を行うようにすることが望ましい。すなわち、経路探索部が探索を行い直し、経路情報処理部が画像データの生成・処理を行い直し、実写画像撮影装置が風景の実写画像を撮影し直し、現在位置・方位特定部が実写画像撮影装置の現在の位置および方位を特定し直し、姿勢特定部が実写画像撮影装置の姿勢を特定し直し、現在位置プロット部が探索された経路の情報における現在位置をプロットし直し、誘導指示マーク生成部が現在位置から目的地へと向かう方向に誘導指示マークを生成し直し、透視変換画像合成部が誘導指示マークを透視変換して経路の情報の画像内に合成し直し、さらに画像出力装置が、透視変換画像合成部で合成された画像データに基づいた画像を出力し直すものである。   Further, when the current position deviates from the route of the search result by a predetermined distance or more, it is desirable to perform the following processing. In other words, the route search unit re-searches, the route information processing unit re-generates and processes the image data, the real image capturing device re-captures the actual image of the landscape, and the current position/orientation specifying unit captures the actual image. Re-specify the current position and orientation of the device, re-specify the posture of the photographed image capturing device by the posture specifying unit, re-plot the current position in the information of the searched route, and generate a guidance mark. Section regenerates the guidance instruction mark in the direction from the current position to the destination, and the perspective conversion image synthesis section performs perspective transformation of the guidance instruction mark and synthesizes it again in the image of the route information. The image based on the image data combined by the perspective conversion image combining unit is output again.

このようにすることにより、たとえ一時的にユーザの現在位置から外れた道案内情報が出力されても、直ちに現在位置に即した道案内情報を出力し直すことが可能となる。   By doing so, even if the route guidance information that is temporarily out of the current position of the user is output, it becomes possible to immediately re-output the route guidance information that matches the current position.

また、出力される道案内の画像をさらに見易いものとするためには、誘導指示マーク生成部が、誘導指示マークを経路の画像の交差点または分岐点までを表示するL型とし、L型の誘導指示マークの長さには閾値を予め決めておき、当該閾値と比較してL型の長さが長い場合には、L型を途中で区切って表示するように指示マークのデータを生成するような構成としてもよい。   In order to make the output route guidance image easier to see, the guidance instruction mark generation unit is an L-type guidance instruction mark that is displayed up to the intersection or branch point of the route image, and an L-type guidance. A threshold value is predetermined for the length of the instruction mark, and when the L-shaped length is longer than the threshold value, the instruction mark data is generated so that the L-shaped portion is divided and displayed in the middle. It may have any configuration.

更に、誘導指示マークの表示に連動して音声誘導による道案内情報(例えば、車線変更指示、曲がる先のランドマークと目的地指示、関連施設指示あるいは道路規制指示など)を提供するようにしてもよい。この場合、音声誘導は道案内情報の優先順位に従って行うことが望ましい。また、透視変換画像合成部で合成された画像データに基づいた画像に加えて、二次元地図および三次元CG地図による画像のうち少なくとも一方を表示する機能を有し、各画像を場面に応じて切り換えて出力するようにしてもよい。   Further, it is possible to provide route guidance information by voice guidance (for example, lane change instruction, destination landmark and destination instruction, related facility instruction, road regulation instruction, etc.) in association with the display of the guidance instruction mark. Good. In this case, it is desirable that the voice guidance is performed according to the priority order of the route guidance information. Further, in addition to the image based on the image data synthesized by the perspective transformation image synthesizing unit, it has a function of displaying at least one of the two-dimensional map image and the three-dimensional CG map image. You may make it switch and output.

本発明によれば、ナビゲーションが行われる際に、その都度、その位置での風景の実写画像がリアルタイムに撮影され、その実写映像に誘導指示マークが合成されて、直観的に把握可能な道案内の画像が出力(例えば表示)されるので、従来のナビゲーションシステムでは困難または不可能であった、簡易なデータ処理によって実写映像に道案内情報を合成・出力するナビゲーション装置およびナビゲーション方法を実現することができる。   According to the present invention, each time a navigation is performed, a live-action image of a landscape at that position is taken in real time, and a guidance instruction mark is combined with the live-action image to intuitively grasp the route guidance. Image is output (for example, displayed), it is difficult or impossible with a conventional navigation system to realize a navigation device and a navigation method that synthesize and output route guidance information to a live-action video by simple data processing. You can

本発明の一実施の形態に係るナビゲーション装置の主要部の構成を表すブロック図である。It is a block diagram showing the composition of the principal part of the navigation device concerning one embodiment of the present invention. 図1のナビゲーション装置が組み込まれた携帯電話機の外観図である。FIG. 2 is an external view of a mobile phone incorporating the navigation device of FIG. 1. ナビゲーション動作を説明するための流れ図である。9 is a flowchart for explaining a navigation operation. 位置情報Xの取得方法を表した模式図である。It is a schematic diagram showing the acquisition method of the positional information X. 誘導指示マークの形状の一例を表した模式図である。It is a schematic diagram showing an example of the shape of a guidance instruction mark. 現在地点が探索結果の経路から大幅に外れていない場合の一例を表す模式図である。It is a schematic diagram showing an example when the present location is not largely deviated from the route of the search result. 現在地点が探索結果の経路から大幅に外れている場合の一例を表す模式図である。It is a schematic diagram showing an example in case the present location is largely off from the route of the search result. 世界座標系とカメラ座標系との空間幾何学的な関係を表す図である。It is a figure showing the spatial geometrical relationship of a world coordinate system and a camera coordinate system. 実存の点P´から投影面上の点Pへの透視変換の一例を表す図である。It is a figure showing an example of the perspective transformation from the existing point P'to the point P on a projection surface.

以下、本発明の最良の形態について図面を参照して説明する。   Hereinafter, the best mode of the present invention will be described with reference to the drawings.

図1は、本発明の一実施の形態に係るナビゲーション装置のブロック構成を表したものである。このナビゲーション装置は、経路探索部1、経路情報処理部2、実写画像撮影装置3、現在位置・方位特定部4、姿勢特定部5、現在位置プロット部6、誘導指示マーク生成部7、透視変換画像合成部8、画像表示装置9および記憶装置10を、その主要部として備えており、例えば、図2に一例を表したようなカメラ付き携帯電話機100に組み込まれる。   FIG. 1 shows a block configuration of a navigation device according to an embodiment of the present invention. This navigation device includes a route search unit 1, a route information processing unit 2, a photographed image capturing device 3, a current position/direction specifying unit 4, a posture specifying unit 5, a current position plotting unit 6, a guidance instruction mark generating unit 7, and a perspective conversion. The image synthesizing unit 8, the image display device 9, and the storage device 10 are provided as main parts, and are incorporated in, for example, a camera-equipped mobile phone 100 such as an example shown in FIG.

経路探索部1は、ユーザーが入力指定した出発地点から目的地までの経路を、記憶装置10に格納された地図情報から探索するものである。その地図情報としては、車載用のデジタル地図ではなく、歩行者用のデジタル地図のデータを用いる。これにより、車道上ではなく歩道上での道案内が行われる。なお、記憶装置10内の地図情報は、カメラ付き携帯電話機100の通信機能を利用してその都度外部の地図サーバから通信により取得するものとする。   The route searching unit 1 searches for a route from a starting point designated by the user to a destination from the map information stored in the storage device 10. As the map information, digital map data for pedestrians is used instead of digital map for vehicles. As a result, route guidance is provided on the sidewalk rather than on the roadway. Note that the map information in the storage device 10 is to be acquired by communication from an external map server each time using the communication function of the camera-equipped mobile phone 100.

経路情報処理部2は、経路探索部によって探索された経路の情報を表示するための画像データを生成・処理するものである。実写画像撮影装置3は、このナビゲーション装置に組み込まれた撮像素子および映像信号処理回路を含んだ撮影装置で、道案内を行うに際して、現在位置の風景の実写画像を撮影する。   The route information processing unit 2 generates and processes image data for displaying information on the route searched by the route searching unit. The photographed image photographing device 3 is a photographing device including an image pickup device and a video signal processing circuit incorporated in the navigation device, and photographs a photographed image of a landscape at the current position when performing route guidance.

現在位置・方位特定部4は、実写画像撮影装置3を含めてこのナビゲーション装置の現在の位置および方位を特定するものである。姿勢特定部5は、実写画像撮影装置3の姿勢を特定する機能を有している。現在位置プロット部6は、探索された経路の情報における現在位置をプロットする。   The current position/direction specifying unit 4 specifies the current position and direction of the navigation device including the photographed image photographing device 3. The posture identifying unit 5 has a function of identifying the posture of the photographed image capturing apparatus 3. The current position plotting unit 6 plots the current position in the searched route information.

誘導指示マーク生成部7は、現在位置から前記目的地へと向かう方向に誘導指示マークを生成する。この誘導指示マーク生成部7は、誘導指示マークを経路の画像の交差点または分岐点までを表示するL型とするものであり、この誘導指示マークの長さには、閾値が予め定められており、その閾値よりも生成されるL型の長さが長い場合には、そのL型を途中で区切った態様で表示するように誘導指示マークのデータを生成するという機能も有している。   The guide instruction mark generation unit 7 generates a guide instruction mark in the direction from the current position toward the destination. The guide instruction mark generation unit 7 is an L-shaped guide instruction mark that displays a route image up to an intersection or a branch point, and the length of the guide instruction mark has a predetermined threshold value. When the length of the L type generated is longer than the threshold value, it also has a function of generating the data of the guide instruction mark so that the L type is displayed in a state of being divided in the middle.

透視変換画像合成部8は、誘導指示マークを透視変換したのち実写映像に重畳して合成する機能を有している。画像表示装置9は、透視変換画像合成部8で合成された画像データに基づいた画像を表示出力するものである。   The perspective-transformed image synthesizing unit 8 has a function of perspective-transforming the guidance instruction mark and then superimposing and synthesizing the guidance instruction mark on the real image. The image display device 9 displays and outputs an image based on the image data combined by the perspective conversion image combining unit 8.

次に、このナビゲーション装置の作用を図3の流れ図を参照しつつ説明する。   Next, the operation of this navigation device will be described with reference to the flowchart of FIG.

まず、経路探索ステップS1では、出発地点から目的地までの経路を含む地図情報を、外部の地図サーバから通信によって記憶装置10に取得し、この記憶装置10に格納された地図情報から出発地点から目的地までの経路を探索する。ここでは、ユーザが出発地および目的地をデジタル地図上での位置指定入力、電話番号入力、郵便番号入力などによって指定する。出発地が現在位置である場合には、このナビゲーション装置が組み込まれている携帯電話機100自体の位置情報を利用することができる。この経路探索には、例えば一般的な最短距離経路探索アルゴリズムであるダイキストラ( Dijkstra) 法を用いることが可能である。このダイキストラ法は、途中で寄り道を挿入する場合などでも用いることができる。また、大通りや路地のみを利用するといった歩道の選択・経路探索などができるようにしてもよい。   First, in the route searching step S1, map information including a route from a departure point to a destination is acquired from the external map server in the storage device 10 by communication, and the map information stored in the storage device 10 is used to obtain the map from the departure point. Search for a route to your destination. Here, the user specifies the starting point and the destination by inputting a position on the digital map, inputting a telephone number, inputting a zip code, or the like. When the departure place is the current position, the position information of the mobile phone 100 itself in which the navigation device is incorporated can be used. For this route search, for example, the Dijkstra method, which is a general shortest distance route search algorithm, can be used. This Dijkstra method can be used even when inserting a detour on the way. Further, it may be possible to select a sidewalk or search for a route by using only the main street or alley.

次に、経路情報処理ステップS2では、経路探索ステップS1によって探索された経路の情報を表示するための画像データを生成・処理する。そして、実写画像撮影ステップS3では、ユーザが現在いる位置における風景の実写画像を、実写画像撮影装置3によって撮影する。具体的には、ユーザは、このナビゲーション装置が組み込まれている携帯電話機100を顔にかざし、その携帯電話機100に設けられた実写画像撮影装置3のレンズ系の光軸を地面とほぼ平行にして、歩道や道路を含めた風景を撮影する。また、このとき、現在位置特定部4によって、実写画像撮影装置3を含めてこのナビゲーション装置の現在位置を特定するための情報として、緯度,経度,高度等の要素を有する位置情報(位置ベクトルのデータ)Χを、例えば図4に模式的に表したように、GPS41や3箇所の中継地点42a,42b,42cから得る。更に、電子コンパスにより方位情報Nを得る(ステップS4)。   Next, in the route information processing step S2, image data for displaying the information of the route searched in the route searching step S1 is generated and processed. Then, in the photographed image photographing step S3, the photographed image of the landscape at the current position of the user is photographed by the photographed image photographing device 3. Specifically, the user holds the mobile phone 100 incorporating this navigation device over his face and makes the optical axis of the lens system of the photographed image taking device 3 provided in the mobile phone 100 substantially parallel to the ground. , Take landscapes including sidewalks and roads. At this time, the position information (position vector of the position vector) having elements such as latitude, longitude, and altitude is used as information for specifying the current position of the navigation device including the photographed image capturing device 3 by the current position specifying unit 4. Data) Χ is obtained from the GPS 41 and three relay points 42a, 42b and 42c, as schematically shown in FIG. 4, for example. Further, the azimuth information N is obtained by the electronic compass (step S4).

またそれと並行して、姿勢特定部5によって、実写画像撮影装置3の姿勢を特定するための姿勢情報として、例えば3自由度を有するヨー(yaw)角度、ロール(roll)角度およびピッチ(pitch)角度からなる姿勢角度情報(姿勢角度ベクトルのデータ)Θをジャイロセンサから得る(ステップS5)。   At the same time, as posture information for the posture specifying unit 5 to specify the posture of the photographed image capturing apparatus 3, for example, a yaw angle, a roll angle and a pitch having three degrees of freedom are provided. Attitude angle information (data of attitude angle vector) Θ consisting of angles is obtained from the gyro sensor (step S5).

次に、現在位置・方位特定ステップS6において、上記のようにして得られた位置情報Xおよび方位情報Nに基づいて、実写画像撮影装置3の現在位置・方位を特定する。続いて、姿勢特定ステップS7において、上記のようにして得られた姿勢角度情報Θに基づいて、実写画像撮影装置3の姿勢を特定する。   Next, in the current position/azimuth specifying step S6, the current position/azimuth of the photographed image photographing device 3 is specified based on the position information X and the azimuth information N obtained as described above. Then, in the posture specifying step S7, the posture of the photographed image photographing device 3 is specified based on the posture angle information Θ obtained as described above.

更に、現在位置プロットステップS8では、探索された経路の情報における現在位置をデジタル地図上にプロットする。続いて、誘導指示マーク生成ステップS9において、現在位置から目的地へと向かう方向に誘導指示マークMを生成する。この誘導指示マークMの形状および終点は、次のようにして決定する。   Further, in the current position plotting step S8, the current position in the searched route information is plotted on the digital map. Then, in the guide instruction mark generation step S9, the guide instruction mark M is generated in the direction from the current position toward the destination. The shape and end point of the guide instruction mark M are determined as follows.

(1)経路探索の結果、例えば、図5に表したような、道路網51における経路の途中に複数個の交差点や分岐路が存在している場合には、どちらに進むべきかを明示するために、経路の折れ曲がる位置までを表示する。すなわち、誘導指示マークMの形状は、図5(A)に一例を表したようにL型を基本とする。このL型の長さには閾値を予め定めておき、それよりも長くなる場合には、図5(B)に一例を表したように途中で区切ってしまう(ステップS9)。 (1) As a result of the route search, for example, when there are a plurality of intersections and branch roads along the route in the road network 51 as shown in FIG. For this reason, the route up to the bend position is displayed. That is, the guide instruction mark M is basically L-shaped as shown in FIG. 5A. A threshold is set in advance for this L-shaped length, and if it is longer than that, it is divided in the middle as shown in the example in FIG. 5B (step S9).

(2)図6に示したように、現在地点Rの、探索結果の経路からの誤差またはずれが許容範囲以内の場合(ステップS10;Y)には、そのときまでにS9で生成されたデータに基づいて、現在位置から交差点角までの誘導指示マークMを表示する。しかし、図7に示したように、現在地点Rが探索結果の経路から所定の許容値を逸脱して大幅に外れた場合(ステップS10;N)には、再探索を行う。換言すれば、上記のステップS1〜S9を(および場合によっては後述するようなS11以降のステップも含めて)やり直す。そのようにやり直した結果、現在地点が探索結果の経路から大幅に外れていないようになれば(ステップS10;Y)、次のステップに進む。なお、図6および図7において、「二次元地図」は衛星から見た実写画像、「表示画像」は道路上の同じ場所に立って見たときの実写画像を誘導指示マークMと共に模式的に表したものである。 (2) As shown in FIG. 6, when the error or deviation of the current position R from the route of the search result is within the allowable range (step S10; Y), the data generated by S9 by that time. Based on, the guidance instruction mark M from the current position to the intersection angle is displayed. However, as shown in FIG. 7, when the current point R deviates from the route of the search result and deviates significantly from the predetermined allowable value (step S10; N), the re-search is performed. In other words, the above steps S1 to S9 are repeated (and in some cases, including the step S11 and subsequent steps as described later). As a result of redoing in such a manner, if the current position does not greatly deviate from the route of the search result (step S10; Y), the process proceeds to the next step. In FIGS. 6 and 7, the “two-dimensional map” is a real image viewed from the satellite, and the “display image” is a real image viewed from the same place on the road, together with the guide instruction mark M. It is a representation.

透視変換画像合成ステップS11では、誘導指示マークを透視変換して経路の情報の画像内に合成する。ここでの透視変換は、より具体的には、次に述べるような3次元座標変換と透視変換とによって達成することが可能である。   In the perspective-transformed image synthesizing step S11, the guide instruction mark is perspective-transformed and synthesized in the image of the route information. More specifically, the perspective transformation here can be achieved by three-dimensional coordinate transformation and perspective transformation as described below.

いま、世界座標系O−XYZで表現された、ある点P=(x,y,z)を別のカメラ座標系O´−X´Y´Z´で表現することを考える。O−XYZとO´−X´Y´Z´との正規直交基底を、それぞれE=(e1 ,e2 ,e3 ),E´=(e'1,e'2,e'3)とする。ここで、世界座標系では、Z軸方向は地面からの高さ、Y方向は真北の方向とする。Now, consider expressing a certain point P=(x, y, z) expressed in the world coordinate system O-XYZ in another camera coordinate system O'-X'Y'Z'. The orthonormal basis of the O-XYZ and O'-X'Y'Z', respectively E = (e 1, e 2 , e 3), E'= (e '1, e' 2, e '3) And Here, in the world coordinate system, the Z-axis direction is the height from the ground, and the Y-direction is the true north direction.

実写画像撮影装置(カメラ)3の中心位置Rは、GPSにより世界座標系で与えられている。与えられた位置情報は、緯度・経度から平面直交系に変換されているものとする。またジャイロと電子コンパスとによって、現在位置のYZ平面との方向角度差θ(地図的にどの方角を向いているか)、そのときのカメラの水平方向と地面との傾きφ、実写画像撮影装置3の並進方向と地面との傾き(俯角)ρが得られているとする。   The center position R of the photographed image capturing apparatus (camera) 3 is given by the GPS in the world coordinate system. It is assumed that the given position information has been converted from a latitude/longitude into a plane orthogonal system. The gyro and the electronic compass cause an angle difference θ between the current position and the YZ plane (which direction the map is facing), the inclination φ between the horizontal direction of the camera and the ground at that time, the photographed image capturing apparatus 3 It is assumed that the inclination (depression angle) ρ between the translation direction and the ground is obtained.

このとき、世界座標系O−XYZからカメラ座標系O´−X´Y´Z´への変換の回転行列Aは、次式(1)で表される。

Figure 2006109527
At this time, the rotation matrix A for conversion from the world coordinate system O-XYZ to the camera coordinate system O'-X'Y'Z' is represented by the following equation (1).
Figure 2006109527

いま、点Pが、世界座標系O−XYZでは、次式(2)で与えられているとする。このとき、カメラ座標系O´−X´Y´Z´を用いて点Pは、式(3)で与えられる。
P=R+x・e1 +y・e2 +z・e3 …(2)
P=R+x・e'1+y・e'2+z・e'3 …(3)
Now, it is assumed that the point P is given by the following equation (2) in the world coordinate system O-XYZ. At this time, the point P is given by the equation (3) using the camera coordinate system O′-X′Y′Z′.
P=R+x·e 1 +y·e 2 +z·e 3 (2)
P=R+x·e′ 1 +y·e′ 2 +z·e′ 3 (3)

ところで、図8に表したような世界座標系O−XYZとカメラ座標系O´−X´Y´Z´との空間幾何学的な関係性に基づけば、E´はEに回転行列Aを掛け合わせたもので、次式(4)のように表現できる。
E´=E・A …(4)
By the way, based on the spatial geometric relationship between the world coordinate system O-XYZ and the camera coordinate system O′-X′Y′Z′ as shown in FIG. 8, E′ is the rotation matrix A in E. It is a product of the multiplications and can be expressed as the following equation (4).
E'=E·A (4)

ここで、e1 =[1,0,0]T ,e2 =[0,1,0]T T,e3 =[0,0,1]T とすると、次式(5)が成立する。
E´=A …(5)
Here, assuming that e 1 =[1,0,0] T , e 2 =[0,1,0] T T,e 3 =[0,0,1] T , the following equation (5) holds. ..
E'=A (5)

よって、上記から次式(6)が成立する。
P−R=[x' ,y' ,z' ]T [e'1,e'2,e'3]=[x' ,y' ,z' ]T A …(6)
Therefore, the following expression (6) is established from the above.
P-R = [x ', y', z '] T [e' 1, e '2, e' 3] = [x ', y', z '] T A ... (6)

Aは直交行列であるので、A-1=AT であることから、次式(7)によりP´を得ることができる。
P´=(P−R)A-1=(P−R)AT …(7)
Since A is an orthogonal matrix, since A −1 =A T , P′ can be obtained by the following equation (7).
P′=(P−R)A −1 =(P−R)A T (7)

そして、図9に模式的に表したように、焦点f101に対して、ある点P´=(x' ,y' ,z' )102からカメラ投影面103に射影した点をp(px,py,0)とすると、このとき、簡単な比例計算によって、点pの位置座標は、次式(8),(9)と表すことができる。この点(px,py)が、求める座標値である。
px=fx' /(f+y' ) …(8)
py=fz' /(f+y' ) …(9)
Then, as schematically shown in FIG. 9, a point P′=(x′, y′, z′) 102 projected from the certain point P′=(x′, y′, z′) 102 to the focus f101 is p(px, py). , 0), the position coordinate of the point p can be expressed by the following equations (8) and (9). This point (px, py) is the desired coordinate value.
px=fx′/(f+y′) (8)
py=fz'/(f+y') (9)

最後に、画像表示出力ステップS12では、透視変換画像合成ステップS12において得られた画像データに基づいて画像を表示出力する。   Finally, in the image display output step S12, an image is displayed and output based on the image data obtained in the perspective transformation image composition step S12.

このようにして、本実施の形態に係るナビゲーション装置では、ユーザによって出発地と目的地とが指定入力されると、その都度、その位置での風景の実写画像がリアルタイムに撮影され、その実写映像に誘導指示マークが合成され、直観的に把握可能な道案内の画像が表示出力される。従って、従来のナビゲーションシステムでは困難または不可能であった、簡易なデータ処理によって実写映像に道案内情報を合成・出力するナビゲーション装置およびナビゲーション方法を実現することができる。   In this manner, in the navigation device according to the present embodiment, each time the user designates and inputs the departure place and the destination, a real-time image of the scenery at that position is taken in real time, and the real-image is taken. A guide instruction mark is combined with the guide instruction image, and an image of the route guidance that can be intuitively grasped is displayed and output. Therefore, it is possible to realize a navigation device and a navigation method for synthesizing and outputting route guidance information on a real image by simple data processing, which is difficult or impossible with conventional navigation systems.

また、上記実施の形態では、本発明のナビゲーション装置を携帯電話機に組み込んだ場合の一例について説明したが、装置の構成および方法の応用あるいは用途は、これのみに限定されるものではないことは言うまでもない。この他にも、例えばスタンドアローンの歩行者用ハンディーナビゲーション端末とすること、あるいは例えばノートブック型パーソナルコンピュータのような携帯可能な電子機器などに組み込むことなども可能であり、さらには車載用のナビゲーション装置に適用することも可能である。   Further, in the above embodiment, an example in which the navigation device of the present invention is incorporated in a mobile phone has been described, but it goes without saying that the application or use of the device configuration and method is not limited to this. Yes. In addition to this, for example, it can be a stand-alone handheld navigation terminal for pedestrians, or can be incorporated into a portable electronic device such as a notebook personal computer, or the like. It can also be applied to a device.

なお、道案内情報の出力としては、表示装置による視覚的な画像情報(誘導指示マークM)のみに限定されものではなく、この誘導指示マークMに連動して例えば音声情報や文字情報などを付加情報として出力するようにしてもよい。例えば、車載用のナビゲーション装置においては、車線変更指示、曲がる先のランドマークと目的地指示、関連施設指示あるいは道路規制指示などの道案内情報を、誘導指示マークおよびそれに連動する音声誘導によりドライバーに提供することができる。ここで、音声誘導は情報の優先順位に従うようにすることが好ましい。   The output of the route guidance information is not limited to the visual image information (guidance instruction mark M) by the display device, and for example, voice information or character information is added in conjunction with the guidance instruction mark M. You may make it output as information. For example, in an on-vehicle navigation device, route guidance information such as a lane change instruction, a landmark and a destination instruction to turn, a related facility instruction or a road regulation instruction can be given to a driver by a guidance instruction mark and voice guidance linked to it. Can be provided. Here, it is preferable that the voice guidance follows the priority order of information.

また、透視変換画像合成部8で合成された画像データに基づいた画像(実写映像のナビゲーション画像)を常時表示するような構成に限らず、場面に応じて二次元地図および三次元CG地図(三次元CGバードビュー地図)などを併用するようにしてもよい。これにより、例えば、目的地設定には二次元地図、現在地周辺施設一覧等には三次元CG地図をそれぞれ利用し、経路の折点あるいは目的地周辺でのみ自動的に実写映像のナビゲーション画像に切り替えて表示することができる。   Further, the configuration is not limited to always displaying an image (navigation image of a live-action video) based on the image data synthesized by the perspective transformation image synthesizing unit 8, but a two-dimensional map and a three-dimensional CG map (third order) depending on the scene. The original CG bird view map) or the like may be used together. As a result, for example, a two-dimensional map is used to set the destination, and a three-dimensional CG map is used to list the facilities around the current location, etc., and the navigation image is automatically switched to a live-action image only at the corners of the route or around the destination. Can be displayed.

さらに、ナビゲーション装置を構成する各部については、必ずしも同一の端末内に組み込まれる必要はない。例えば、経路探索部1、誘導指示マーク生成部7等については、外部のサーバ等に組み込まれるようにすることで、端末内の記憶容量および計算容量を小さくすることができる。具体的には、デジタル地図を外部サーバ等で保持して経路探索を行い、あるいは外部サーバにおいて誘導指示マークの生成および透視変換を行って、その結果を端末側に通信手段を用いて送信するような形態である。
Further, the respective parts constituting the navigation device do not necessarily have to be incorporated in the same terminal. For example, the route search unit 1, the guidance instruction mark generation unit 7, and the like can be incorporated in an external server or the like to reduce the storage capacity and calculation capacity in the terminal. Specifically, the digital map is held by an external server or the like for route search, or the external server performs guide instruction mark generation and perspective conversion, and transmits the result to the terminal side using communication means. It is a simple form.

【発明の名称】ナビゲーション装置およびナビゲーション方法Title: Navigation device and navigation method

【0001】
【技術分野】
[0001]
本発明は、出発地点から目的地までの経路を指示する誘導指示マークを実写画像に合成して出力する携帯型ナビゲーション装置およびナビゲーション方法に関する。
【背景技術】
[0002]
例えば鉄道やその他の交通機関の最寄駅あるいは地下街の出入口からユーザの所望する目的地までの道案内が欲しい場合が往々にしてある。このような場合、GPS(Global Positioning System)付き携帯電話に二次元地図を表示させて道案内を行う、というナビゲーション方法およびそのためのシステムが一般に実用化されている。
[0003]
しかし二次元地図上での道案内では、ユーザにとって、周りの実際の景観と地図とのマッチングを即座に実感的に把握することは困難である。このため、直観的に分かりやすい実写映像と実際の景観とを照らし合わせて道案内を行う、という方法およびシステムが提案されている(例えば、特許文献1〜4)。
[0004]
このような従来提案されている技術では、実写映像を予め画像データ記録部に蓄えておき、道案内を行う際に、その位置に適合した実写映像を画像データ記録部から読み出して用いるようにしている。
[0005]
また、いわゆるカーナビと呼ばれる車載ナビゲーションシステムでは、例えば駐車場に固定されたカメラから通信されて来る実写映像信号に基づいて、その駐車場の状況を実写映像としてナビゲーション画面内に表示する、といった技術が提案されている(例えば、特許文献5)
【特許文献1】特開2003−194567号公報
【特許文献2】特開2002−277275号公報
【特許文献3】特開2002−221433号公報
【特許文献4】特開2004−226140号公報
【特許文献5】特開2001−21368号公報
【発明の開示】
[0001]
【Technical field】
[0001]
The present invention relates to a portable navigation device and a navigation method for combining a guidance image indicating a route from a departure point to a destination with a real image and outputting the synthesized image.
[Background technology]
[0002]
For example, it is often the case that the user wants directions from the nearest station of a railway or other transportation means or the entrance/exit of an underground mall to the destination desired by the user. In such a case, a navigation method of displaying a two-dimensional map on a mobile phone with a GPS (Global Positioning System) to perform route guidance and a system therefor are generally put into practical use.
[0003]
However, it is difficult for the user to immediately and intuitively understand the matching between the actual landscape and the map in the route guidance on the two-dimensional map. For this reason, methods and systems have been proposed in which intuitively easy-to-understand live-action images are compared with actual landscapes for route guidance (for example, Patent Documents 1 to 4).
[0004]
In such a conventionally proposed technique, the live-action image is stored in the image data recording unit in advance, and when performing the route guidance, the real-image image suitable for the position is read from the image data recording unit and used. There is.
[0005]
In addition, in a so-called car navigation system called a car navigation system, for example, based on a live-action video signal transmitted from a camera fixed to a parking lot, a technique of displaying the situation of the parking lot in the navigation screen as a live-action image is available. Proposed (for example, Patent Document 5)
[Patent Document 1] JP-A-2003-194567 [Patent Document 2] JP-A-2002-277275 [Patent Document 3] JP-A-2002-221433 [Patent Document 4] JP-A-2004-226140 [Patent Document 1] Reference 5: Japanese Patent Application Laid-Open No. 2001-21368 [Disclosure of the Invention]

【0002】
[0006]
しかしながら、上記のような従来の方法およびシステムでは、実写映像を予め画像データとして画像データ記録部に蓄えておく必要がある。このため、たとえば同じ一つの風景でも、季節、天候、時刻等の撮影条件が異なると、ユーザにとってはかなり異なった映像として見えるため、それらの撮影条件の変化も含めると、ナビゲーション可能領域を限定したとしても、その領域内の各位置ごとでの映像のそれぞれに異なった季節、天候、時刻ごとでの画像データを用意しなければならないので、結局、実際には実現不可能なほどに膨大な量の画像データの撮影・蓄積が必要となってしまう。従って、甚だしくは、上記のようなシステムは、その膨大な量の画像データの蓄積の非現実性のために、実現不可能なものとなるという、実際上の致命的な問題があった。あるいは、そのような膨大な量の画像データの蓄積は何とか実現できたとしても、そのためには極めて煩雑で莫大な手間およびそのためのコストが掛かってしまうという不都合もある。
[0007]
本発明はかかる問題点に鑑みてなされたもので、その目的は、簡易なデータ処理によって実写映像に道案内情報を合成・出力することが可能な携帯型ナビゲーション装置およびナビゲーション方法を提供することにある。
[0008]
本発明の携帯型ナビゲーション装置は、出発地点から目的地までの経路を含む地図情報を格納するための記憶装置と、記憶装置に格納された地図情報から、出発地点から目的地までの経路を探索する経路探索部と、経路探索部によって探索された経路の情報を表示するための画像データを生成・処理する経路情報処理部と、風景の静止画像を撮影する静止画像撮影装置と、静止画像撮影装置の現在の位置および方位を特定する現在位置・方位特定部と、静止画像撮影装置の姿勢を特定する姿勢特定部と、探索された経路の情報における現在位置をプロットする現在位置プロット部と、現在位置から前記目的地へと向かう方向に誘導指示マークを生成する誘導指示マーク生成部と、誘導指示マークを透視変換したのち静止画像に重畳して合成する透視変換画像合成部と、透視変換画像合成部で合成された画像データに基づいた画像を出力する画像出力装置と、を備えたものである。
[0009]
また、本発明のナビゲーション方法は、出発地点から目的地までの経路を含む地図情報を、外部の地図サーバから通信によって携帯型ナビゲーション装置の記憶装置に取得すると共に、前記記憶装置内に格納された地図情報から出発地点から目的地までの経路
[0002]
[0006]
However, in the conventional method and system as described above, it is necessary to store the photographed image as image data in the image data recording unit in advance. For this reason, for example, even in the same landscape, if the shooting conditions such as the season, the weather, and the time are different, the user can see the images as quite different images. Therefore, including the change in those shooting conditions limits the navigable area. However, it is necessary to prepare image data for different seasons, weather conditions, and times for each image in each position in the area, and in the end, a huge amount of data is impossible to realize in practice. It becomes necessary to capture and store the image data of. Therefore, there is a serious fatal problem that the system as described above becomes unrealizable due to the impracticality of accumulating a huge amount of image data. Alternatively, even if the storage of such a huge amount of image data can be managed somehow, there is an inconvenience in that it is extremely complicated and enormous labor and cost are required.
[0007]
The present invention has been made in view of the above problems, and an object thereof is to provide a portable navigation device and a navigation method capable of synthesizing and outputting guidance information in a live-action image by simple data processing. is there.
[0008]
A portable navigation device of the present invention searches a route from a starting point to a destination from a storage device for storing map information including a route from a starting point to a destination and the map information stored in the storage device. A route search unit, a route information processing unit that generates and processes image data for displaying information of the route searched by the route search unit, a still image capturing device that captures a still image of a landscape, and a still image capturing A current position/azimuth identification unit that identifies the current position and orientation of the device, a posture identification unit that identifies the orientation of the still image capturing device, and a current position plot unit that plots the current position in the information of the searched route, A guidance instruction mark generation unit that generates a guidance instruction mark in the direction from the current position to the destination, a perspective transformation image synthesis unit that perspectively transforms the guidance instruction mark and then superimposes the guidance instruction mark on a still image, and a perspective transformation image. And an image output device that outputs an image based on the image data combined by the combining unit.
[0009]
Further, in the navigation method of the present invention, the map information including the route from the departure point to the destination is acquired from the external map server in the storage device of the portable navigation device by communication and stored in the storage device. Route from map information to starting point to destination

【0003】
を探索する経路探索ステップと、経路探索ステップによって探索された経路の情報を表示するための画像データを生成・処理する経路情報処理ステップと、風景の静止画像を、携帯型ナビゲーション装置本体に付設または組み込まれた静止画像撮影装置によって撮影する静止画像撮影ステップと、静止画像撮影装置の現在の位置および方位を特定する現在位置・方位特定ステップと、静止画像撮影装置の姿勢を特定する姿勢特定ステップと、探索された経路の情報における現在位置をプロットする現在位置プロットステップと、現在位置から目的地へと向かう方向に誘導指示マークを生成する誘導指示マーク生成ステップと、誘導指示マークを透視変換したのち静止画像に重畳して合成する透視変換画像合成ステップと、透視変換画像合成ステップにて合成してなる画像データに基づいた画像を出力する画像出力ステップと、を含んでいる。
[0010]
本発明の携帯型ナビゲーション装置またはナビゲーション方法では、装置本体に付設または組み込まれた静止画像撮影装置によって、その都度、その位置での風景の静止画像がリアルタイムに撮影され、その静止画像に誘導指示マークが合成されて、直観的に把握可能な道案内画像が表示される。
[0011]
ここで、地図情報として、車載ナビゲーション用の地図ではなく、歩行者用のデジタル地図のデータを用いるようにすることが望ましい。
[0012]
また、記憶装置内の地図情報は、外部の地図サーバから、その都度通信により取得するようにすれば、メモリ容量が少なくてすむ。
[0013]
また、現在位置が探索結果の経路から所定の距離または範囲以上に外れた場合には、以下の処理を行うようにすることが望ましい。すなわち、経路探索部が探索を行い直し、経路情報処理部が画像データの生成・処理を行い直し、静止画像撮影装置が風景の静止画像を撮影し直し、現在位置・方位特定部が静止画像撮影装置の現在の位置および方位を特定し直し、姿勢特定部が静止画像撮影装置の姿勢を特定し直し、現在位置プロット部が探索された経路の情報における現在位置をプロットし直し、誘導指示マーク生成部が現在位置から目的地へと向かう方向に誘導指示マークを生成し直し、透視変換画像合成部が誘導指示マークを透視変換して経路の情報の画像内に合成し直し、さらに画像出力装置が、透視変換画像合成部で合成された画像データに基づいた画像を出力し直すものである。
[0003]
A route search step of searching for a route, a route information processing step of generating and processing image data for displaying information of the route searched by the route search step, and a still image of the landscape are attached to the main body of the portable navigation device or A still image shooting step for shooting with a built-in still image shooting device; a current position/direction specifying step for specifying the current position and direction of the still image shooting device; and a posture specifying step for specifying the attitude of the still image shooting device. , A current position plotting step of plotting the current position in the information of the searched route, a guide instruction mark generating step of generating a guide instruction mark in the direction from the current position to the destination, and a perspective conversion of the guide instruction mark. It includes a perspective transformation image synthesizing step for superimposing and synthesizing on a still image, and an image outputting step for outputting an image based on the image data synthesized in the perspective transformation image synthesizing step.
[0010]
In the portable navigation device or the navigation method of the present invention, a still image of a landscape at that position is captured in real time by a still image capturing device attached to or incorporated in the device body, and a guide instruction mark is added to the still image. Are combined and an intuitively understandable route guidance image is displayed.
[0011]
Here, as the map information, it is desirable to use digital map data for pedestrians instead of maps for in-vehicle navigation.
[0012]
Further, if the map information in the storage device is acquired from the external map server by communication each time, the memory capacity can be reduced.
[0013]
Further, when the current position deviates from the route of the search result by a predetermined distance or more, it is desirable to perform the following processing. That is, the route search unit re-searches, the route information processing unit re-creates and processes image data, the still image capturing device re-captures a still image of the landscape, and the current position/orientation identifying unit captures a still image. The current position and azimuth of the device is re-specified, the posture identification unit re-identifies the posture of the still image capturing device, and the current position plotting unit re-plots the current position in the information of the searched route to generate the guidance instruction mark. Section regenerates the guidance instruction mark in the direction from the current position to the destination, and the perspective conversion image synthesis section performs perspective transformation of the guidance instruction mark and synthesizes it again in the image of the route information. The image based on the image data synthesized by the perspective conversion image synthesizing unit is output again.

【0004】
[0014]
このようにすることにより、たとえ一時的にユーザの現在位置から外れた道案内情報が出力されても、直ちに現在位置に即した道案内情報を出力し直すことが可能となる。
[0015]
また、出力される道案内の画像をさらに見易いものとするためには、誘導指示マーク生成部が、誘導指示マークを経路の画像の交差点または分岐点までを表示するL型とし、L型の誘導指示マークの長さには閾値を予め決めておき、当該閾値と比較してL型の長さが長い場合には、L型を途中で区切って表示するように指示マークのデータを生成するような構成としてもよい。
[0016]
更に、誘導指示マークの表示に連動して音声誘導による道案内情報(例えば、車線変更指示、曲がる先のランドマークと目的地指示、関連施設指示あるいは道路規制指示など)を提供するようにしてもよい。この場合、音声誘導は道案内情報の優先順位に従って行うことが望ましい。また、透視変換画像合成部で合成された画像データに基づいた画像に加えて、二次元地図および三次元CG地図による画像のうち少なくとも一方を表示する機能を有し、各画像を場面に応じて切り換えて出力するようにしてもよい。
[0017]
本発明によれば、ナビゲーションが行われる際に、その都度、その位置での風景の静止画像がリアルタイムに撮影され、その静止画像に誘導指示マークが合成されて、直観的に把握可能な道案内の画像が出力(例えば表示)されるので、従来のナビゲーションシステムでは困難または不可能であった、簡易なデータ処理によって実写映像に道案内情報を合成・出力するナビゲーション装置およびナビゲーション方法を実現することができる。
【図面の簡単な説明】
[0018]
[図1]本発明の一実施の形態に係るナビゲーション装置の主要部の構成を表すブロック図である。
[図2]図1のナビゲーション装置が組み込まれた携帯電話機の外観図である。
[図3]ナビゲーション動作を説明するための流れ図である。
[0004]
[0014]
By doing so, even if the route guidance information that is temporarily out of the current position of the user is output, it becomes possible to immediately re-output the route guidance information that matches the current position.
[0015]
In order to make the output route guidance image easier to see, the guidance instruction mark generation unit is an L-type guidance instruction mark that is displayed up to the intersection or branch point of the route image, and an L-type guidance. A threshold value is predetermined for the length of the instruction mark, and when the L-shaped length is longer than the threshold value, the instruction mark data is generated so that the L-shaped portion is divided and displayed in the middle. It may have any configuration.
[0016]
Further, it is possible to provide route guidance information by voice guidance (for example, lane change instruction, destination landmark and destination instruction, related facility instruction, road regulation instruction, etc.) in association with the display of the guidance instruction mark. Good. In this case, it is desirable that the voice guidance is performed according to the priority order of the route guidance information. Further, in addition to the image based on the image data synthesized by the perspective conversion image synthesizing unit, it has a function of displaying at least one of the images by the two-dimensional map and the three-dimensional CG map, You may make it switch and output.
[0017]
According to the present invention, each time a navigation is performed, a still image of a landscape at that position is captured in real time, and a guidance instruction mark is combined with the still image to provide intuitive guidance. Image is output (for example, displayed), it is difficult or impossible with a conventional navigation system to realize a navigation device and a navigation method for synthesizing and outputting route guidance information to a live-action video by simple data processing. You can
[Brief description of drawings]
[0018]
FIG. 1 is a block diagram showing a configuration of a main part of a navigation device according to an embodiment of the present invention.
2 is an external view of a mobile phone incorporating the navigation device of FIG.
FIG. 3 is a flow chart for explaining a navigation operation.

Claims (9)

出発地点から目的地までの経路を含む地図情報を格納するための記憶装置と、
前記記憶装置に格納された地図情報から、出発地点から目的地までの経路を探索する経路探索部と、
前記経路探索部によって探索された経路の情報を表示するための画像データを生成・処理する経路情報処理部と、
風景の実写画像を撮影する実写画像撮影装置と、
前記実写画像撮影装置の現在の位置および方位を特定する現在位置・方位特定部と、
前記実写画像撮影装置の姿勢を特定する姿勢特定部と、
前記探索された経路の情報における現在位置をプロットする現在位置プロット部と、
前記現在位置から目的地へと向かう方向に誘導指示マークを生成する誘導指示マーク生成部と、
前記誘導指示マークを透視変換したのち実写映像に重畳して合成する透視変換画像合成部と、
前記透視変換画像合成部で合成された画像データに基づいた画像を出力する画像出力部と
を備えたことを特徴とするナビゲーション装置。
A storage device for storing map information including a route from a starting point to a destination,
From the map information stored in the storage device, a route search unit for searching a route from a departure point to a destination,
A route information processing unit for generating and processing image data for displaying information on the route searched by the route searching unit;
A live-action image capturing device that captures a live-action image of a landscape,
A current position/azimuth specifying unit that specifies the current position and azimuth of the photographed image capturing device;
A posture specifying unit that specifies the posture of the photographed image capturing device;
A current position plotting unit for plotting the current position in the information of the searched route,
A guide instruction mark generation unit that generates a guide instruction mark in the direction from the current position toward the destination,
A perspective-transformed image synthesizing unit that synthesizes by superimposing the guidance instruction mark on the live-action image after perspective-transforming it;
An image output unit that outputs an image based on the image data combined by the perspective conversion image combining unit.
前記地図情報として、歩行者用のデジタル地図のデータを用いる
ことを特徴とする請求項1記載のナビゲーション装置。
The navigation device according to claim 1, wherein data of a pedestrian digital map is used as the map information.
前記記憶装置内の地図情報は、外部の地図サーバから通信により取得する
ことを特徴とする請求項1または2記載のナビゲーション装置。
The navigation device according to claim 1 or 2, wherein the map information in the storage device is obtained by communication from an external map server.
前記現在位置が前記探索結果の経路から所定の距離または範囲以上に外れた場合には、
前記経路探索部は、前記探索を行い直し、
前記経路情報処理部は、前記画像データの生成・処理を行い直し、
前記実写画像撮影装置は、前記風景の実写画像を撮影し直し、
前記現在位置・方位特定部は、前記実写画像撮影装置の現在の位置および方位を特定し直し、
前記姿勢特定部は、前記実写画像撮影装置の姿勢を特定し直し、
前記現在位置プロット部は、前記探索された経路の情報における現在位置をプロットし直し、
前記誘導指示マーク生成部は、前記現在位置から目的地へと向かう方向に誘導指示マークを生成し直し、
前記透視変換画像合成部は、前記誘導指示マークを透視変換して前記経路の情報の画像内に合成し直し、
前記画像出力装置は、前記透視変換画像合成部にて合成してなる画像データに基づいた画像を出力し直す
ことを特徴とする請求項1記載のナビゲーション装置。
When the current position deviates from the route of the search result by more than a predetermined distance or range,
The route search unit performs the search again,
The route information processing unit regenerates and processes the image data,
The photographed image capturing apparatus re-photographs the photographed image of the landscape,
The current position/azimuth identification unit re-identifies the current position and orientation of the photographed image capturing device,
The posture specifying unit respecifies the posture of the photographed image capturing apparatus,
The current position plotting unit re-plots the current position in the information of the searched route,
The guide instruction mark generation unit regenerates the guide instruction mark in the direction from the current position toward the destination,
The perspective-transformed image synthesizing unit perspective-transforms the guidance instruction mark to resynthesize the guidance instruction mark into the image of the route information,
The navigation device according to claim 1, wherein the image output device re-outputs an image based on the image data synthesized by the perspective conversion image synthesizing unit.
前記誘導指示マーク生成部は、前記誘導指示マークを、前記経路の画像の交差点または分岐点までを表示するL型とし、前記L型の誘導指示マークの長さには閾値を予め決めておき、当該閾値と比較して前記L型の長さが長い場合には、前記L型を途中で区切って表示するように前記指示マークのデータを生成する
ことを特徴とする請求項1記載のナビゲーション装置。
The guide instruction mark generation unit is an L-shaped guide instruction mark that displays up to an intersection or a branch point of the image of the route, and a threshold value is predetermined for the length of the L-shaped guide instruction mark. The navigation device according to claim 1, wherein when the length of the L-shape is longer than the threshold value, the data of the instruction mark is generated so as to display the L-shape by dividing it in the middle. ..
前記誘導指示マークの表示に連動して音声誘導による道案内情報を提供する
ことを特徴とする請求項1記載のナビゲーション装置。
The navigation device according to claim 1, wherein route guidance information is provided by voice guidance in association with the display of the guidance instruction mark.
前記音声誘導を道案内情報の優先順位に従って行う
ことを特徴とする請求項6記載のナビゲーション装置。
The navigation device according to claim 6, wherein the voice guidance is performed according to the priority order of the route guidance information.
前記透視変換画像合成部で合成された画像データに基づいた画像に加えて、二次元地図および三次元CG地図による画像のうち少なくとも一方を表示する機能を有し、各画像を場面に応じて切り換えて出力する
ことを特徴とする請求項1記載のナビゲーション装置。
In addition to the image based on the image data synthesized by the perspective-transformed image synthesizing unit, it has a function of displaying at least one of two-dimensional map and three-dimensional CG map images, and switches each image according to a scene. The navigation device according to claim 1, wherein the navigation device is output.
出発地点から目的地までの経路を含む地図情報を、外部の地図サーバから通信によって携帯型ナビゲーション装置の記憶装置に取得すると共に、前記記憶装置内に格納された地図情報から出発地点から目的地までの経路を探索する経路探索ステップと、
前記経路探索ステップによって探索された経路の情報を表示するための画像データを生成・処理する経路情報処理ステップと、
風景の実写画像を、前記携帯型ナビゲーション装置に付設または内蔵された実写画像撮影装置によって撮影する実写画像撮影ステップと、
前記実写画像撮影装置の現在の位置および方位を特定する現在位置・方位特定ステップと、
前記実写画像撮影装置の姿勢を特定する姿勢特定ステップと、
前記探索された経路の情報における現在位置をプロットする現在位置プロットステップと、
前記現在位置から前記目的地へと向かう方向に誘導指示マークを生成する誘導指示マーク生成ステップと、
前記誘導指示マークを透視変換したのち実写映像に重畳して合成する透視変換画像合成ステップと、
前記透視変換画像合成ステップにて合成してなる画像データに基づいた画像を出力する画像出力ステップと
を含むことを特徴とするナビゲーション方法。
The map information including the route from the starting point to the destination is acquired from the external map server to the storage device of the portable navigation device by communication, and the map information stored in the storage device is used from the starting point to the destination. A route search step for searching the route of
A route information processing step of generating and processing image data for displaying information of the route searched by the route searching step;
A live-action image capturing step of capturing a live-action image of the landscape by a live-action image capturing device attached to or built in the portable navigation device;
A current position/orientation identifying step for identifying the current position and orientation of the photographed image capturing device;
A posture specifying step for specifying the posture of the photographed image capturing apparatus,
A current position plotting step of plotting a current position in the information of the searched route,
A guide instruction mark generating step of generating a guide instruction mark in a direction from the current position toward the destination,
A perspective-transformed image synthesizing step of synthesizing the guidance instruction mark by subjecting it to perspective transformation and then superimposing and synthesizing the image.
An image output step of outputting an image based on the image data synthesized in the perspective transformation image synthesizing step.
JP2007512494A 2005-03-30 2006-03-24 Navigation device and navigation method Active JP4892741B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007512494A JP4892741B2 (en) 2005-03-30 2006-03-24 Navigation device and navigation method

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2005098880 2005-03-30
JP2005098880 2005-03-30
JP2005264703 2005-09-13
JP2005264703 2005-09-13
JP2007512494A JP4892741B2 (en) 2005-03-30 2006-03-24 Navigation device and navigation method
PCT/JP2006/305976 WO2006109527A1 (en) 2005-03-30 2006-03-24 Navigation device and navigation method

Publications (2)

Publication Number Publication Date
JPWO2006109527A1 true JPWO2006109527A1 (en) 2008-10-23
JP4892741B2 JP4892741B2 (en) 2012-03-07

Family

ID=37086813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007512494A Active JP4892741B2 (en) 2005-03-30 2006-03-24 Navigation device and navigation method

Country Status (2)

Country Link
JP (1) JP4892741B2 (en)
WO (1) WO2006109527A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4038529B1 (en) * 2006-12-05 2008-01-30 株式会社ナビタイムジャパン Navigation system, portable terminal device, and peripheral image display method
EP2241859B1 (en) * 2007-12-31 2015-04-15 STMicroelectronics Application GmbH Improved vehicle navigation system
CN103453901B (en) * 2013-06-27 2016-09-28 展讯通信(上海)有限公司 A kind of position guidance system and position guidance method
JP6723744B2 (en) * 2015-12-28 2020-07-15 アジア航測株式会社 Navigation information providing system and navigation information providing device
CN110402371B (en) * 2017-03-01 2023-12-01 御眼视觉技术有限公司 Systems and methods for navigation with sensing uncertainty
KR101994521B1 (en) * 2017-04-20 2019-09-30 김현우 Navigation system by using augmented reality
CN111521190A (en) * 2020-04-16 2020-08-11 常青藤科技河北有限公司 Panorama map-based person searching method, storage medium and system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0763572A (en) * 1993-08-31 1995-03-10 Alpine Electron Inc Travel guide image displaying method in on-vehicle navigation system
JPH11108684A (en) * 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd Car navigation system
JP2000149193A (en) * 1998-11-09 2000-05-30 Nippon Telegr & Teleph Corp <Ntt> Travel supporting device and travel supporting method
JP2003121167A (en) * 2001-10-12 2003-04-23 Denso Corp Guidance image-generating apparatus, guidance image- displaying apparatus, navigation apparatus, and program
JP2003254775A (en) * 2002-03-05 2003-09-10 Denso Corp Navigation device
JP2003274482A (en) * 2002-03-15 2003-09-26 Alpine Electronics Inc Sound output processing apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935177A (en) * 1995-07-18 1997-02-07 Hitachi Ltd Method and device for supporting driving
JP2006105640A (en) * 2004-10-01 2006-04-20 Hitachi Ltd Navigation system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0763572A (en) * 1993-08-31 1995-03-10 Alpine Electron Inc Travel guide image displaying method in on-vehicle navigation system
JPH11108684A (en) * 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd Car navigation system
JP2000149193A (en) * 1998-11-09 2000-05-30 Nippon Telegr & Teleph Corp <Ntt> Travel supporting device and travel supporting method
JP2003121167A (en) * 2001-10-12 2003-04-23 Denso Corp Guidance image-generating apparatus, guidance image- displaying apparatus, navigation apparatus, and program
JP2003254775A (en) * 2002-03-05 2003-09-10 Denso Corp Navigation device
JP2003274482A (en) * 2002-03-15 2003-09-26 Alpine Electronics Inc Sound output processing apparatus

Also Published As

Publication number Publication date
WO2006109527A1 (en) 2006-10-19
JP4892741B2 (en) 2012-03-07

Similar Documents

Publication Publication Date Title
JP4921462B2 (en) Navigation device with camera information
JP4767578B2 (en) High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device
TWI269024B (en) Navigation system
JP4038529B1 (en) Navigation system, portable terminal device, and peripheral image display method
KR101285360B1 (en) Point of interest displaying apparatus and method for using augmented reality
WO2009084135A1 (en) Navigation system
JP2009020089A (en) System, method, and program for navigation
JP4892741B2 (en) Navigation device and navigation method
JP4339178B2 (en) Parking space empty space guidance device and parking space empty space guidance method
JPH0933271A (en) Navigation apparatus and image pickup device
JP4816303B2 (en) Vehicle display system, navigation system
JP2008128827A (en) Navigation device, navigation method, and program thereof
JP6110780B2 (en) Additional information display system
JPH11271074A (en) Device and method for comparing mark image and program storage medium
JP2007206014A (en) Navigation device
CN102288180B (en) Real-time image navigation system and method
JP5262232B2 (en) Image orientation display method and apparatus, and photograph
JP4136529B2 (en) Information processing apparatus, system thereof, method thereof, program thereof, recording medium recording the program, and navigation apparatus
RU2375756C2 (en) Navigation device with information received from camera
JP2009250714A (en) Road guidance display device and road guidance display method
JP2008002965A (en) Navigation device and method therefor
WO2022039011A1 (en) Navigation using computer system
JP2001005994A (en) Device and method for image processing
JP2009264835A (en) Navigation device, navigation method and navigation program
JP2007263849A (en) Navigation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110809

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150