WO2006109527A1 - ナビゲーション装置およびナビゲーション方法 - Google Patents

ナビゲーション装置およびナビゲーション方法 Download PDF

Info

Publication number
WO2006109527A1
WO2006109527A1 PCT/JP2006/305976 JP2006305976W WO2006109527A1 WO 2006109527 A1 WO2006109527 A1 WO 2006109527A1 JP 2006305976 W JP2006305976 W JP 2006305976W WO 2006109527 A1 WO2006109527 A1 WO 2006109527A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
route
current position
unit
instruction mark
Prior art date
Application number
PCT/JP2006/305976
Other languages
English (en)
French (fr)
Inventor
Keiichi Uchimura
Zhencheng Hu
Original Assignee
National University Corporation Kumamoto University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University Corporation Kumamoto University filed Critical National University Corporation Kumamoto University
Priority to JP2007512494A priority Critical patent/JP4892741B2/ja
Publication of WO2006109527A1 publication Critical patent/WO2006109527A1/ja

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams

Definitions

  • the present invention relates to a navigation apparatus and a navigation method for synthesizing and outputting a guidance instruction mark for instructing a route from a departure point to a destination in a real image.
  • Patent Document 1 Japanese Patent Laid-Open No. 2003-194567
  • Patent Document 2 Japanese Patent Laid-Open No. 2002-277275
  • Patent Document 3 Japanese Patent Laid-Open No. 2002-221433
  • Patent Document 4 Japanese Patent Laid-Open No. 2004-226140
  • Patent Document 5 Japanese Patent Laid-Open No. 2001-21368
  • the present invention has been made in view of the serious problems, and an object of the present invention is to provide a navigation device and a navigation method capable of combining and outputting route guidance information to a live-action image by simple data processing. It is to provide.
  • the navigation device of the present invention includes a storage device for storing map information including a route from the departure point to the destination, and a route from the departure point to the destination from the map information stored in the storage device.
  • a route search unit that searches for a route
  • a route information processing unit that generates and processes image data for displaying information on the route searched by the route search unit
  • a live-action image capturing device that captures a live-action image of a landscape
  • Current position / orientation specifying unit for specifying the current position and orientation of the image capturing device
  • posture specifying unit for specifying the posture of the real image capturing device
  • current position plot for plotting the current position in the searched route information
  • a guidance instruction mark generation unit that generates a guidance instruction mark in a direction from the current position to the destination, and the guidance instruction mark is subjected to perspective transformation and then superimposed on the live-action image.
  • a perspective transformation image synthesis unit and an image output device that outputs an image based on the image data synthesized by the
  • the navigation method of the present invention stores map information including a route from a departure point to a destination by communication from an external map server with a storage device of the portable navigation device.
  • a route search step for searching for a route from the departure point to the destination from the map information stored in the storage device, and an image for displaying information on the route searched by the route search step
  • Current information processing step for generating and processing data, actual image capturing step for capturing a live-action image of a landscape with a real-image image capturing device attached to or incorporated in the main body of the portable navigation device, and the current image capturing device From the current position, the current position / azimuth specifying step for specifying the position and direction, the attitude specifying step for specifying the attitude of the photographed image capturing device, the current position plot step for plotting the current position in the searched route information, and the current position
  • a guidance instruction mark generation step for generating a guidance instruction mark in a direction toward the destination, and a guidance instruction mark
  • The includes a perspective transformation image synthesis step
  • a real image of a landscape at that position is taken in real time each time by a real image photographing device attached to or incorporated in the main body of the device.
  • the guidance instruction mark is combined with the road guidance image that can be intuitively grasped.
  • map information it is desirable to use digital map data for pedestrians that is not a map for in-vehicle navigation.
  • the memory capacity can be reduced.
  • the route search unit re-searches, the route information processing unit re-creates and processes image data
  • the live-action image capturing device re-captures the real-world image of the landscape
  • the current position / orientation specifying unit captures the live-action image Re-specify the current position and orientation of the image capturing device
  • the posture identifying unit re-specifies the posture of the live-action image capturing device
  • the current position plot unit re-plots the current position in the searched route information to guide
  • the mark generation unit regenerates the guidance instruction mark in the direction from the current position to the destination
  • the perspective transformation image composition unit performs perspective transformation of the guidance instruction mark to obtain route information.
  • the image is recombined in the image of the report, and the image output device re-outputs the image based on the image data synthesized by the perspective transformation image synthesis unit.
  • the guidance indication mark generator is L-type that displays the guidance indication mark up to the intersection or branch point of the route image, A threshold value is determined in advance for the length of the L-type guidance instruction mark, and when the L-type length is longer than the threshold value, the instruction mark data is displayed so that the L-type is separated and displayed. As a configuration that generates data.
  • route guidance information by voice guidance for example, lane change instructions, destination landmarks and destination instructions, related facility instructions, road regulation instructions, etc.
  • voice guidance for example, lane change instructions, destination landmarks and destination instructions, related facility instructions, road regulation instructions, etc.
  • the image based on the image data synthesized by the perspective transformation image synthesis unit it has a function to display at least one of the 2D map and 3D CG map images. It may be switched according to the output.
  • each time a navigation is performed a real image of the landscape at that position is taken in real time, and a guidance instruction mark is synthesized with the real image, so that it is intuitively understood. Since possible route guidance images are output (eg displayed), navigation information that synthesizes and outputs the route guidance information to the actual image by simple data processing, which was difficult or impossible with conventional navigation systems. A device and a navigation method can be realized.
  • FIG. 1 is a block diagram showing a configuration of a main part of a navigation device according to an embodiment of the present invention.
  • FIG. 2 is an external view of a mobile phone in which the navigation device of FIG. 1 is incorporated.
  • FIG. 3 is a flowchart for explaining a navigation operation.
  • FIG. 4 is a schematic diagram showing a method for obtaining position information X.
  • FIG. 5 is a schematic diagram showing an example of the shape of the guidance instruction mark.
  • FIG. 6 A schematic diagram showing an example when the current position is not significantly deviated from the route power of the search result.
  • FIG. 7 A schematic diagram showing an example in which the current location is significantly different from the route power of the search result.
  • FIG. 8 is a diagram showing a spatial geometric relationship between the world coordinate system and the camera coordinate system.
  • FIG. 9 is a diagram showing an example of perspective transformation from an existing point to a point P on the projection plane.
  • FIG. 1 shows a block configuration of a navigation device according to an embodiment of the present invention.
  • the navigation device includes a route search unit 1, a route information processing unit 2, a real image capturing device 3, a current position / direction specifying unit 4, a posture specifying unit 5, a current position plotting unit 6, a guidance instruction mark generating unit 7,
  • the perspective transformation image synthesizing unit 8, the image display device 9, and the storage device 10 are provided as main parts thereof, and are incorporated into, for example, a mobile phone 100 with a camera as shown in FIG.
  • the route search unit 1 searches the map information stored in the storage device 10 for a route from the departure point specified by the user to the destination.
  • map information digital map data for pedestrians is used rather than on-vehicle digital maps. This provides road guidance on the sidewalk, not on the roadway.
  • the map information in the storage device 10 is acquired by communication from an external map server each time using the communication function of the camera-equipped mobile phone 100.
  • the route information processing unit 2 generates and processes image data for displaying information on the route searched by the route search unit.
  • the photographed image photographing device 3 is a photographing device including an image sensor and a video signal processing circuit incorporated in the navigation device, and photographs a photographed image of a landscape at the current position when performing route guidance.
  • the current position / orientation specifying unit 4 specifies the current position and direction of the navigation device including the actual image photographing device 3.
  • the posture identification unit 5 It has a function to identify the position of device 3.
  • the current position plot unit 6 plots the current position in the searched route information.
  • the guidance instruction mark generation unit 7 generates a guidance instruction mark in a direction from the current position toward the destination.
  • the guidance instruction mark generator 7 is an L type that displays the guidance instruction mark up to the intersection or branching point of the route image.
  • a threshold is set in advance for the length of the guidance instruction mark. If the length of the L-type generated is longer than the threshold value, the guidance instruction mark data is generated so that the L-type is displayed in the form of being divided in the middle.
  • the perspective transformation image composition unit 8 has a function of superimposing and superimposing the guidance instruction mark on the photographed image after perspective transformation.
  • the image display device 9 displays and outputs an image based on the image data synthesized by the perspective transformation image synthesis unit 8.
  • map information including a route from the departure point to the destination is acquired by communication from an external map server to the storage device 10, and the map information capability stored in the storage device 10 is acquired.
  • Search for a route from the starting point to the destination the user designates the starting point and the destination by inputting a position on the digital map, inputting a telephone number, or inputting a postal code.
  • the location information of the mobile phone 100 itself that incorporates this navigation device can be used.
  • the Dijkstra method which is a general shortest distance route search algorithm can be used. This Dijkstra method can be used even when inserting a stopway on the way. You can also use only main streets and alleys, select a sidewalk, and search for routes.
  • image data for displaying the route information searched in the route search step S 1 is generated.
  • the photographed image photographing step S3 photographs the photographed image of the scenery at the position where the user is currently located.
  • the user holds the mobile phone 100 in which the navigation device is incorporated over his / her face, and the optical axis of the lens system of the real image photographing device 3 provided on the mobile phone 100 is substantially the same as the ground.
  • the position information for specifying the current position of the navigation device including the photographed image photographing device 3 by the current position specifying unit 4 the position information including the latitude, longitude, altitude and the like (position Vector data) X can be obtained from GPS41 and the three relay points 42a, 42b, 42c as shown schematically in Fig. 4, for example. Furthermore, direction information N is obtained by an electronic con- nection (step S4).
  • posture information for specifying the posture of the photographed image photographing device 3 by the posture specifying unit 5 for example, a yaw angle having three degrees of freedom, a roll angle and Posture angle information consisting of pitch angles (posture angle vector data) ⁇ is obtained from the gyro sensor (step S5).
  • the current position and direction of the photographed image photographing apparatus 3 are specified based on the position information X and the direction information N obtained as described above.
  • the posture specifying step S7 the posture of the photographed image photographing device 3 is specified based on the posture angle information ⁇ obtained as described above.
  • the current position plot step S8 the current position in the searched route information is plotted on the digital map.
  • the guidance instruction mark generation step S9 the guidance instruction mark M is generated in the direction from the current position to the destination. The shape and end point of this guidance instruction mark M are determined as follows.
  • the shape of the guidance instruction mark M is basically L-shaped as shown in FIG. 5 (A).
  • a threshold is set in advance for the length of the L-shape, and if it is longer than that, it is divided along the way as shown in Fig. 5 (B) (step S9).
  • step S10; Y if the error or deviation of the current point scale from the route of the search result is within the allowable range (step S10; Y), by S9 until then Based on the generated data, the guidance mark M from the current position to the intersection angle is displayed.
  • step S10; N when the current point R deviates significantly from the predetermined value of the path force of the search result (step S10; N), a re-search is performed.
  • step S1 above Repeat steps ⁇ S9 (and possibly including steps after SI 1 as described below). If the current point does not deviate significantly from the search result route (step S 10; Y) as a result of such redoing, the process proceeds to the next step.
  • the "two-dimensional map” is a real image that also shows the satellite power
  • the "display image” is a schematic image of the real image when viewed from the same location on the road along with the guidance instruction mark M It is shown in
  • the guidance instruction mark is perspective transformed and synthesized in the route information image. More specifically, the perspective transformation here can be achieved by the following three-dimensional coordinate transformation and perspective transformation.
  • the heel axis direction is the ground force height, and the heel direction is the true north direction.
  • the center position R of the photographed image photographing device (camera) 3 is given by GPS in the world coordinate system.
  • the given position information is assumed to have been converted from latitude to longitude into a plane orthogonal system.
  • the gyroscope and electronic compass make the direction angle difference between the current position and the heel plane 0 (which direction the map is facing), the camera's horizontal direction and the ground tilt ⁇ , and the actual image capturing device 3 Suppose that the translational direction and the inclination of the ground (the depression angle) are obtained.
  • the position coordinates of the point p can be expressed by the following equations (8) and (9) by simple proportional calculation.
  • This point (px, py) is the desired coordinate value.
  • an image is displayed and output based on the image data obtained in the perspective transformation image synthesis step S 12.
  • each time a user designates and inputs a starting point and a destination a real image of the landscape at that position is captured in real time. Then, a guidance instruction mark is combined with the actual image, and an image of a route guide that can be intuitively grasped is displayed and output. Therefore, it is possible to realize a navigation device and a navigation method for synthesizing and outputting route guidance information to a live-action image by simple data processing, which is difficult or impossible with a conventional navigation system.
  • the configuration and method of the force device described as an example of the case where the navigation device of the present invention is incorporated in a mobile phone or application or use of the method Needless to say, the present invention is not limited to this.
  • it can be used as a hand-held navigation terminal for stand-alone pedestrians, or can be incorporated into portable electronic devices such as notebook-type personal computers. It can also be applied to other navigation devices.
  • the output of the route guidance information is not limited to visual image information (guidance instruction mark M) by the display device.
  • voice information or character information is linked to this guidance instruction mark M. Or the like may be output as additional information.
  • a driver uses a guidance instruction mark and voice guidance linked to the guidance information such as a lane change instruction, a landmark to be turned and a destination instruction, a related facility instruction, or a road regulation instruction. Can be provided.
  • voice guidance should follow the priority of information.
  • the present invention is not limited to a configuration in which an image based on the image data synthesized by the perspective transformation image synthesizing unit 8 (navigation image of a live-action video) is always displayed, but a two-dimensional map according to the scene. Also, a 3D CG map (3D CG bird view map) or the like may be used together. Thus, for example, a two-dimensional map is used for destination setting, and a three-dimensional CG map is used for the list of facilities around the current location. It can be switched and displayed.
  • each unit constituting the navigation device does not necessarily have to be incorporated in the same terminal.
  • the storage capacity and calculation capacity in the terminal can be reduced by incorporating the route search unit 1 and the guidance instruction mark generation unit 7 into an external server or the like.
  • the route is searched by holding the digital map on an external server or the like, or the guidance instruction mark is generated and the perspective transformation is performed on the external server, and the result is communicated to the terminal side. It is a form that uses and transmits.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • Image Processing (AREA)

Abstract

 簡易なデータ処理によって実写映像に道案内情報を合成・出力することを可能とするナビゲーション情報を提供する。経路探索部(1)、経路情報処理部(2)、実写画像撮影装置(3)、現在位置・方位特定部(4)、姿勢特定部(5)、現在位置プロット部(6)、誘導指示マーク生成部(7)、透視変換画像合成部(8)および画像表示装置(9)を備える。装置本体に付設または組み込まれた実写画像撮影装置によって、その都度、その位置での風景の実写画像がリアルタイムに撮影され、その実写映像に誘導指示マークが合成され、直観的に把握可能な道案内画像が表示される。誘導指示マーク、経路の画像の交差点または分岐点までを表示するL型とする。その長さが予め定めた閾値と比較して長い場合には、L型を途中で区切って表示する。

Description

明 細 書
ナビゲーシヨン装置およびナビゲーシヨン方法
技術分野
[0001] 本発明は、出発地点から目的地までの経路を指示する誘導指示マークを実写画 像に合成して出力するナビゲーシヨン装置およびナビゲーシヨン方法に関する。 背景技術
[0002] 例えば鉄道やその他の交通機関の最寄駅あるいは地下街の出入口力 ユーザの 所望する目的地までの道案内が欲しい場合が往々にしてある。このような場合、 GPS
(Global Positioning System)付き携帯電話に二次元地図を表示させて道案内を行う
、というナビゲーシヨン方法およびそのためのシステムが一般に実用化されている。
[0003] しかし二次元地図上での道案内では、ユーザにとって、周りの実際の景観と地図と のマッチングを即座に実感的に把握することは困難である。このため、直観的に分か りやすい実写映像と実際の景観とを照らし合わせて道案内を行う、という方法および システムが提案されている(例えば、特許文献 1〜4)。
[0004] このような従来提案されている技術では、実写映像を予め画像データ記録部に蓄 えておき、道案内を行う際に、その位置に適合した実写映像を画像データ記録部か ら読み出して用いるようにして!/、る。
[0005] また、 、わゆるカーナビと呼ばれる車載ナビゲーシヨンシステムでは、例えば駐車場 に固定されたカメラ力 通信されて来る実写映像信号に基づいて、その駐車場の状 況を実写映像としてナビゲーシヨン画面内に表示する、といった技術が提案されてい る(例えば、特許文献 5)
特許文献 1 :特開 2003— 194567号公報
特許文献 2:特開 2002— 277275号公報
特許文献 3:特開 2002— 221433号公報
特許文献 4:特開 2004— 226140号公報
特許文献 5 :特開 2001—21368号公報
発明の開示 [0006] し力しながら、上記のような従来の方法およびシステムでは、実写映像を予め画像 データとして画像データ記録部に蓄えておく必要がある。このため、たとえば同じ一 つの風景でも、季節、天候、時刻等の撮影条件が異なると、ユーザにとってはかなり 異なった映像として見えるため、それらの撮影条件の変化も含めると、ナビゲーシヨン 可能領域を限定したとしても、その領域内の各位置ごとでの映像のそれぞれに異な つた季節、天候、時刻ごとでの画像データを用意しなければならないので、結局、実 際には実現不可能なほどに膨大な量の画像データの撮影 '蓄積が必要となってしま う。従って、甚だしくは、上記のようなシステムは、その膨大な量の画像データの蓄積 の非現実性のために、実現不可能なものとなるという、実際上の致命的な問題があつ た。あるいは、そのような膨大な量の画像データの蓄積は何とか実現できたとしても、 そのためには極めて煩雑で莫大な手間およびそのためのコストが掛かってしまうとい う不都合もある。
[0007] 本発明は力かる問題点に鑑みてなされたもので、その目的は、簡易なデータ処理 によって実写映像に道案内情報を合成'出力することが可能なナビゲーシヨン装置 およびナビゲーシヨン方法を提供することにある。
[0008] 本発明のナビゲーシヨン装置は、出発地点から目的地までの経路を含む地図情報 を格納するための記憶装置と、記憶装置に格納された地図情報から、出発地点から 目的地までの経路を探索する経路探索部と、経路探索部によって探索された経路の 情報を表示するための画像データを生成'処理する経路情報処理部と、風景の実写 画像を撮影する実写画像撮影装置と、実写画像撮影装置の現在の位置および方位 を特定する現在位置 ·方位特定部と、実写画像撮影装置の姿勢を特定する姿勢特 定部と、探索された経路の情報における現在位置をプロットする現在位置プロット部 と、現在位置から前記目的地へと向かう方向に誘導指示マークを生成する誘導指示 マーク生成部と、誘導指示マークを透視変換したのち実写映像に重畳して合成する 透視変換画像合成部と、透視変換画像合成部で合成された画像データに基づ 、た 画像を出力する画像出力装置と、を備えたものである。
[0009] また、本発明のナビゲーシヨン方法は、出発地点から目的地までの経路を含む地 図情報を、外部の地図サーバから通信によって携帯型ナビゲーシヨン装置の記憶装 置に取得すると共に、前記記憶装置内に格納された地図情報から出発地点から目 的地までの経路を探索する経路探索ステップと、経路探索ステップによって探索され た経路の情報を表示するための画像データを生成 ·処理する経路情報処理ステップ と、風景の実写画像を、携帯型ナビゲーシヨン装置本体に付設または組み込まれた 実写画像撮影装置によって撮影する実写画像撮影ステップと、実写画像撮影装置 の現在の位置および方位を特定する現在位置 ·方位特定ステップと、実写画像撮影 装置の姿勢を特定する姿勢特定ステップと、探索された経路の情報における現在位 置をプロットする現在位置プロットステップと、現在位置から目的地へと向かう方向に 誘導指示マークを生成する誘導指示マーク生成ステップと、誘導指示マークを透視 変換したのち実写映像に重畳して合成する透視変換画像合成ステップと、透視変換 画像合成ステップにて合成してなる画像データに基づいた画像を出力する画像出力 ステップと、を含んでいる。
[0010] 本発明のナビゲーシヨン装置またはナビゲーシヨン方法では、装置本体に付設また は組み込まれた実写画像撮影装置によって、その都度、その位置での風景の実写 画像がリアルタイムに撮影され、その実写映像に誘導指示マークが合成されて、直観 的に把握可能な道案内画像が表示される。
[0011] ここで、地図情報として、車載ナビゲーシヨン用の地図ではなぐ歩行者用のデジタ ル地図のデータを用いるようにすることが望まし 、。
[0012] また、記憶装置内の地図情報は、外部の地図サーバから、その都度通信により取 得するようにすれば、メモリ容量が少なくてすむ。
[0013] また、現在位置が探索結果の経路力も所定の距離または範囲以上に外れた場合 には、以下の処理を行うようにすることが望ましい。すなわち、経路探索部が探索を 行い直し、経路情報処理部が画像データの生成 ·処理を行い直し、実写画像撮影装 置が風景の実写画像を撮影し直し、現在位置 ·方位特定部が実写画像撮影装置の 現在の位置および方位を特定し直し、姿勢特定部が実写画像撮影装置の姿勢を特 定し直し、現在位置プロット部が探索された経路の情報における現在位置をプロット し直し、誘導指示マーク生成部が現在位置から目的地へと向かう方向に誘導指示マ ークを生成し直し、透視変換画像合成部が誘導指示マークを透視変換して経路の情 報の画像内に合成し直し、さらに画像出力装置が、透視変換画像合成部で合成され た画像データに基づいた画像を出力し直すものである。
[0014] このようにすることにより、たとえ一時的にユーザの現在位置力 外れた道案内情報 が出力されても、直ちに現在位置に即した道案内情報を出力し直すことが可能となる
[0015] また、出力される道案内の画像をさらに見易いものとするためには、誘導指示マー ク生成部が、誘導指示マークを経路の画像の交差点または分岐点までを表示する L 型とし、 L型の誘導指示マークの長さには閾値を予め決めておき、当該閾値と比較し て L型の長さが長い場合には、 L型を途中で区切って表示するように指示マークのデ ータを生成するような構成としてもょ 、。
[0016] 更に、誘導指示マークの表示に連動して音声誘導による道案内情報 (例えば、車 線変更指示、曲がる先のランドマークと目的地指示、関連施設指示あるいは道路規 制指示など)を提供するようにしてもよい。この場合、音声誘導は道案内情報の優先 順位に従って行うことが望ましい。また、透視変換画像合成部で合成された画像デー タに基づいた画像に加えて、二次元地図および三次元 CG地図による画像のうち少 なくとも一方を表示する機能を有し、各画像を場面に応じて切り換えて出力するよう にしてもよい。
[0017] 本発明によれば、ナビゲーシヨンが行われる際に、その都度、その位置での風景の 実写画像がリアルタイムに撮影され、その実写映像に誘導指示マークが合成されて、 直観的に把握可能な道案内の画像が出力(例えば表示)されるので、従来のナビゲ ーシヨンシステムでは困難または不可能であった、簡易なデータ処理によって実写映 像に道案内情報を合成 '出力するナビゲーシヨン装置およびナビゲーシヨン方法を 実現することができる。
図面の簡単な説明
[0018] [図 1]本発明の一実施の形態に係るナビゲーシヨン装置の主要部の構成を表すプロ ック図である。
[図 2]図 1のナビゲーシヨン装置が組み込まれた携帯電話機の外観図である。
[図 3]ナビゲーシヨン動作を説明するための流れ図である。 [図 4]位置情報 Xの取得方法を表した模式図である。
[図 5]誘導指示マークの形状の一例を表した模式図である。
[図 6]現在地点が探索結果の経路力 大幅に外れていない場合の一例を表す模式 図である。
[図 7]現在地点が探索結果の経路力 大幅に外れている場合の一例を表す模式図 である。
[図 8]世界座標系とカメラ座標系との空間幾何学的な関係を表す図である。
[図 9]実存の点 から投影面上の点 Pへの透視変換の一例を表す図である。
発明を実施するための最良の形態
[0019] 以下、本発明の最良の形態について図面を参照して説明する。
[0020] 図 1は、本発明の一実施の形態に係るナビゲーシヨン装置のブロック構成を表した ものである。このナビゲーシヨン装置は、経路探索部 1、経路情報処理部 2、実写画 像撮影装置 3、現在位置,方位特定部 4、姿勢特定部 5、現在位置プロット部 6、誘導 指示マーク生成部 7、透視変換画像合成部 8、画像表示装置 9および記憶装置 10を 、その主要部として備えており、例えば、図 2に一例を表したようなカメラ付き携帯電 話機 100に組み込まれる。
[0021] 経路探索部 1は、ユーザーが入力指定した出発地点から目的地までの経路を、記 憶装置 10に格納された地図情報から探索するものである。その地図情報としては、 車載用のデジタル地図ではなぐ歩行者用のデジタル地図のデータを用いる。これ により、車道上ではなく歩道上での道案内が行われる。なお、記憶装置 10内の地図 情報は、カメラ付き携帯電話機 100の通信機能を利用してその都度外部の地図サー バから通信により取得するものとする。
[0022] 経路情報処理部 2は、経路探索部によって探索された経路の情報を表示するため の画像データを生成'処理するものである。実写画像撮影装置 3は、このナビゲーシ ヨン装置に組み込まれた撮像素子および映像信号処理回路を含んだ撮影装置で、 道案内を行うに際して、現在位置の風景の実写画像を撮影する。
[0023] 現在位置'方位特定部 4は、実写画像撮影装置 3を含めてこのナビゲーシヨン装置 の現在の位置および方位を特定するものである。姿勢特定部 5は、実写画像撮影装 置 3の姿勢を特定する機能を有している。現在位置プロット部 6は、探索された経路 の情報における現在位置をプロットする。
[0024] 誘導指示マーク生成部 7は、現在位置から前記目的地へと向かう方向に誘導指示 マークを生成する。この誘導指示マーク生成部 7は、誘導指示マークを経路の画像 の交差点または分岐点までを表示する L型とするものであり、この誘導指示マークの 長さには、閾値が予め定められており、その閾値よりも生成される L型の長さが長い 場合には、その L型を途中で区切った態様で表示するように誘導指示マークのデー タを生成すると 、う機能も有して 、る。
[0025] 透視変換画像合成部 8は、誘導指示マークを透視変換したのち実写映像に重畳し て合成する機能を有している。画像表示装置 9は、透視変換画像合成部 8で合成さ れた画像データに基づいた画像を表示出力するものである。
[0026] 次に、このナビゲーシヨン装置の作用を図 3の流れ図を参照しつつ説明する。
[0027] まず、経路探索ステップ S1では、出発地点から目的地までの経路を含む地図情報 を、外部の地図サーバから通信によって記憶装置 10に取得し、この記憶装置 10に 格納された地図情報力 出発地点から目的地までの経路を探索する。ここでは、ュ 一ザが出発地および目的地をデジタル地図上での位置指定入力、電話番号入力、 郵便番号入力などによって指定する。出発地が現在位置である場合には、このナビ ゲーシヨン装置が組み込まれて ヽる携帯電話機 100自体の位置情報を利用すること ができる。この経路探索には、例えば一般的な最短距離経路探索アルゴリズムである ダイキストラ( Dijkstra)法を用いることが可能である。このダイキストラ法は、途中で寄 り道を挿入する場合などでも用いることができる。また、大通りや路地のみを利用する t 、つた歩道の選択 ·経路探索などができるようにしてもょ 、。
[0028] 次に、経路情報処理ステップ S 2では、経路探索ステップ S1によって探索された経 路の情報を表示するための画像データを生成 '処理する。そして、実写画像撮影ス テツプ S3では、ユーザが現在いる位置における風景の実写画像を、実写画像撮影 装置 3によって撮影する。具体的には、ユーザは、このナビゲーシヨン装置が組み込 まれている携帯電話機 100を顔にかざし、その携帯電話機 100に設けられた実写画 像撮影装置 3のレンズ系の光軸を地面とほぼ平行にして、歩道や道路を含めた風景 を撮影する。また、このとき、現在位置特定部 4によって、実写画像撮影装置 3を含め てこのナビゲーシヨン装置の現在位置を特定するための情報として、緯度,経度,高 度等の要素を有する位置情報 (位置ベクトルのデータ) Xを、例えば図 4に模式的に 表したように、 GPS41や 3箇所の中継地点 42a, 42b, 42c力ら得る。更に、電子コン ノ スにより方位情報 Nを得る (ステップ S4)。
[0029] またそれと並行して、姿勢特定部 5によって、実写画像撮影装置 3の姿勢を特定す るための姿勢情報として、例えば 3自由度を有するョー (yaw)角度、ロール (roll)角度 およびピッチ (pitch)角度からなる姿勢角度情報(姿勢角度ベクトルのデータ) Θをジ ャイロセンサから得る(ステップ S5)。
[0030] 次に、現在位置'方位特定ステップ S6において、上記のようにして得られた位置情 報 Xおよび方位情報 Nに基づ ヽて、実写画像撮影装置 3の現在位置 ·方位を特定す る。続いて、姿勢特定ステップ S 7において、上記のようにして得られた姿勢角度情報 Θに基づいて、実写画像撮影装置 3の姿勢を特定する。
[0031] 更に、現在位置プロットステップ S8では、探索された経路の情報における現在位置 をデジタル地図上にプロットする。続いて、誘導指示マーク生成ステップ S9において 、現在位置から目的地へと向かう方向に誘導指示マーク Mを生成する。この誘導指 示マーク Mの形状および終点は、次のようにして決定する。
[0032] (1)経路探索の結果、例えば、図 5に表したような、道路網 51における経路の途中に 複数個の交差点や分岐路が存在している場合には、どちらに進むべき力を明示する ために、経路の折れ曲がる位置までを表示する。すなわち、誘導指示マーク Mの形 状は、図 5 (A)に一例を表したように L型を基本とする。この L型の長さには閾値を予 め定めておき、それよりも長くなる場合には、図 5 (B)に一例を表したように途中で区 切ってしまう(ステップ S 9)。
[0033] (2)図 6に示したように、現在地点尺の、探索結果の経路からの誤差またはずれが許 容範囲以内の場合 (ステップ S10 ;Y)には、そのときまでに S9で生成されたデータに 基づいて、現在位置から交差点角までの誘導指示マーク Mを表示する。しかし、図 7 に示したように、現在地点 Rが探索結果の経路力 所定の許容値を逸脱して大幅に 外れた場合 (ステップ S 10 ; N)には、再探索を行う。換言すれば、上記のステップ S1 〜S9を (および場合によっては後述するような SI 1以降のステップも含めて)やり直 す。そのようにやり直した結果、現在地点が探索結果の経路から大幅に外れていな いようになれば (ステップ S 10 ; Y)、次のステップに進む。なお、図 6および図 7におい て、「二次元地図」は衛星力も見た実写画像、「表示画像」は道路上の同じ場所に立 つて見たときの実写画像を誘導指示マーク Mと共に模式的に表したものである。
[0034] 透視変換画像合成ステップ S11では、誘導指示マークを透視変換して経路の情報 の画像内に合成する。ここでの透視変換は、より具体的には、次に述べるような 3次 元座標変換と透視変換とによって達成することが可能である。
[0035] Vヽま、世界座標系 O— XYZで表現された、ある点 P= (X, y, z)を別のカメラ座標系 O'— X' Y'Z'で表現することを考える。 Ο— ΧΥΖと -χΎ'ζ'との正規直交基底 を、それぞれ E= (e , e , e ) , E (e' , e' , e' )とする。 二で、世界座標系では、
Ζ軸方向は地面力 の高さ、 Υ方向は真北の方向とする。
[0036] 実写画像撮影装置 (カメラ) 3の中心位置 Rは、 GPSにより世界座標系で与えられて いる。与えられた位置情報は、緯度 '経度から平面直交系に変換されているものとす る。またジャイロと電子コンパスとによって、現在位置の ΥΖ平面との方向角度差 0 ( 地図的にどの方角を向いているか)、そのときのカメラの水平方向と地面との傾き φ、 実写画像撮影装置 3の並進方向と地面との傾き (俯角) が得られているとする。
[0037] このとき、世界座標系 Ο— ΧΥΖ力もカメラ座標系 Ο'— Χ'Υ'Ζ'への変換の回転行 列 Αは、次式(1)で表される。
[数 1]
COS 0 sin φ 1 0 0 cos Θ sin Θ 0
A = 0 1 0 0 cos p sin p sin Θ cos Θ 0 sin φ 0 COS 0 sin p cos p 0 0 1 いま、点 Pが、世界座標系 O— XYZでは、次式(2)で与えられているとする。このと き、カメラ座標系 Ο'— X'Y'Z'を用いて点 Pは、式(3)で与えられる。
P=R+x- e +y e +z - e - - - (2)
1 2 3
P=R+x- e' +y e' +z - e' · ' · (3) [0039] ところで、図 8に表したような世界座標系 O— XYZとカメラ座標系 Ο'— X'Y'Z'との 空間幾何学的な関係性に基づけば、 は Εに回転行列 Αを掛け合わせたもので、 次式 (4)のように表現できる。
Ε' =Ε·Α - -- (4)
[0040] ここで、 e = [1, 0, 0]T , e = [0, 1, 0]TT, e = [0, 0, 1]τとすると、次式(5)が
1 2 3
成立する。
Ε' =Α - -- (5)
[0041] よって、上記から次式(6)が成立する。
P-R= [χ' , y' , ζ' ]Τ [e, , e' , e' ] = [χ' , y' , ζ' ]ΤΑ …(6)
1 2 3
[0042] Αは直交行列であるので、 A_1=ATであることから、次式(7)により を得ることがで きる。
P' = (P-R) A_1= (P-R) AT - -- (7)
[0043] そして、図 9に模式的に表したように、焦点 f 101に対して、ある点 = (χ' , y' , z' ) 102からカメラ投影面 103に射影した点を p (px, py, 0)とすると、このとき、簡単な 比例計算によって、点 pの位置座標は、次式 (8) , (9)と表すことができる。この点 (px , py)が、求める座標値である。
px = fx' / (f+y' ) - (8)
py=fz' / (f+y' ) - (9)
[0044] 最後に、画像表示出力ステップ S 12では、透視変換画像合成ステップ S 12におい て得られた画像データに基づいて画像を表示出力する。
[0045] このようにして、本実施の形態に係るナビゲーシヨン装置では、ユーザによって出発 地と目的地とが指定入力されると、その都度、その位置での風景の実写画像がリアル タイムに撮影され、その実写映像に誘導指示マークが合成され、直観的に把握可能 な道案内の画像が表示出力される。従って、従来のナビゲーシヨンシステムでは困難 または不可能であった、簡易なデータ処理によって実写映像に道案内情報を合成 · 出力するナビゲーシヨン装置およびナビゲーシヨン方法を実現することができる。
[0046] また、上記実施の形態では、本発明のナビゲーシヨン装置を携帯電話機に組み込 んだ場合の一例について説明した力 装置の構成および方法の応用あるいは用途 は、これのみに限定されるものではないことは言うまでもない。この他にも、例えばスタ ンドアローンの歩行者用ハンディーナビゲーシヨン端末とすること、あるいは例えばノ ートブック型パーソナルコンピュータのような携帯可能な電子機器などに組み込むこ となども可能であり、さらには車載用のナビゲーシヨン装置に適用することも可能であ る。
[0047] なお、道案内情報の出力としては、表示装置による視覚的な画像情報 (誘導指示 マーク M)のみに限定されものではなぐこの誘導指示マーク Mに連動して例えば音 声情報や文字情報などを付加情報として出力するようにしてもよい。例えば、車載用 のナビゲーシヨン装置においては、車線変更指示、曲がる先のランドマークと目的地 指示、関連施設指示あるいは道路規制指示などの道案内情報を、誘導指示マーク およびそれに連動する音声誘導によりドライバーに提供することができる。ここで、音 声誘導は情報の優先順位に従うようにすることが好まし 、。
[0048] また、透視変換画像合成部 8で合成された画像データに基づ ヽた画像 (実写映像 のナビゲーシヨン画像)を常時表示するような構成に限らず、場面に応じて二次元地 図および三次元 CG地図(三次元 CGバードビュー地図)などを併用するようにしても よい。これにより、例えば、目的地設定には二次元地図、現在地周辺施設一覧等に は三次元 CG地図をそれぞれ利用し、経路の折点あるいは目的地周辺でのみ自動 的に実写映像のナビゲーシヨン画像に切り替えて表示することができる。
[0049] さらに、ナビゲーシヨン装置を構成する各部については、必ずしも同一の端末内に 組み込まれる必要はない。例えば、経路探索部 1、誘導指示マーク生成部 7等につ いては、外部のサーバ等に組み込まれるようにすることで、端末内の記憶容量および 計算容量を小さくすることができる。具体的には、デジタル地図を外部サーバ等で保 持して経路探索を行 、、あるいは外部サーバにぉ 、て誘導指示マークの生成および 透視変換を行って、その結果を端末側に通信手段を用いて送信するような形態であ る。

Claims

請求の範囲
[1] 出発地点から目的地までの経路を含む地図情報を格納するための記憶装置と、 前記記憶装置に格納された地図情報から、出発地点から目的地までの経路を探索 する経路探索部と、
前記経路探索部によって探索された経路の情報を表示するための画像データを生 成 ·処理する経路情報処理部と、
風景の実写画像を撮影する実写画像撮影装置と、
前記実写画像撮影装置の現在の位置および方位を特定する現在位置 ·方位特定 部と、
前記実写画像撮影装置の姿勢を特定する姿勢特定部と、
前記探索された経路の情報における現在位置をプロットする現在位置プロット部と 前記現在位置から目的地へと向かう方向に誘導指示マークを生成する誘導指示マ ーク生成部と、
前記誘導指示マークを透視変換したのち実写映像に重畳して合成する透視変換 画像合成部と、
前記透視変換画像合成部で合成された画像データに基づいた画像を出力する画 像出力部と
を備えたことを特徴とするナビゲーシヨン装置。
[2] 前記地図情報として、歩行者用のデジタル地図のデータを用いる
ことを特徴とする請求項 1記載のナビゲーシヨン装置。
[3] 前記記憶装置内の地図情報は、外部の地図サーバから通信により取得する
ことを特徴とする請求項 1または 2記載のナビゲーシヨン装置。
[4] 前記現在位置が前記探索結果の経路から所定の距離または範囲以上に外れた場 合には、
前記経路探索部は、前記探索を行い直し、
前記経路情報処理部は、前記画像データの生成 ·処理を行!、直し、
前記実写画像撮影装置は、前記風景の実写画像を撮影し直し、 前記現在位置 ·方位特定部は、前記実写画像撮影装置の現在の位置および方位 を特定し直し、
前記姿勢特定部は、前記実写画像撮影装置の姿勢を特定し直し、
前記現在位置プロット部は、前記探索された経路の情報における現在位置をプロッ 卜し直し、
前記誘導指示マーク生成部は、前記現在位置から目的地へと向かう方向に誘導指 示マークを生成し直し、
前記透視変換画像合成部は、前記誘導指示マークを透視変換して前記経路の情 報の画像内に合成し直し、
前記画像出力装置は、前記透視変換画像合成部にて合成してなる画像データに 基づいた画像を出力し直す
ことを特徴とする請求項 1記載のナビゲーシヨン装置。
[5] 前記誘導指示マーク生成部は、前記誘導指示マークを、前記経路の画像の交差 点または分岐点までを表示する L型とし、前記 L型の誘導指示マークの長さには閾値 を予め決めておき、当該閾値と比較して前記 L型の長さが長い場合には、前記 L型を 途中で区切って表示するように前記指示マークのデータを生成する
ことを特徴とする請求項 1記載のナビゲーシヨン装置。
[6] 前記誘導指示マークの表示に連動して音声誘導による道案内情報を提供する ことを特徴とする請求項 1記載のナビゲーシヨン装置。
[7] 前記音声誘導を道案内情報の優先順位に従って行う
ことを特徴とする請求項 6記載のナビゲーシヨン装置。
[8] 前記透視変換画像合成部で合成された画像データに基づ ヽた画像に加えて、二 次元地図および三次元 CG地図による画像のうち少なくとも一方を表示する機能を有 し、各画像を場面に応じて切り換えて出力する
ことを特徴とする請求項 1記載のナビゲーシヨン装置。
[9] 出発地点から目的地までの経路を含む地図情報を、外部の地図サーバから通信 によって携帯型ナビゲーシヨン装置の記憶装置に取得すると共に、前記記憶装置内 に格納された地図情報から出発地点から目的地までの経路を探索する経路探索ス テツプと、
前記経路探索ステップによって探索された経路の情報を表示するための画像デー タを生成 ·処理する経路情報処理ステップと、
風景の実写画像を、前記携帯型ナビゲーシヨン装置に付設または内蔵された実写 画像撮影装置によって撮影する実写画像撮影ステップと、
前記実写画像撮影装置の現在の位置および方位を特定する現在位置 ·方位特定 ステップと、
前記実写画像撮影装置の姿勢を特定する姿勢特定ステップと、
前記探索された経路の情報における現在位置をプロットする現在位置プロットステ ップと、
前記現在位置から前記目的地へと向かう方向に誘導指示マークを生成する誘導指 示マーク生成ステップと、
前記誘導指示マークを透視変換したのち実写映像に重畳して合成する透視変換 画像合成ステップと、
前記透視変換画像合成ステップにて合成してなる画像データに基づいた画像を出 力する画像出力ステップと
を含むことを特徴とするナビゲーシヨン方法。
PCT/JP2006/305976 2005-03-30 2006-03-24 ナビゲーション装置およびナビゲーション方法 WO2006109527A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007512494A JP4892741B2 (ja) 2005-03-30 2006-03-24 ナビゲーション装置およびナビゲーション方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005098880 2005-03-30
JP2005-098880 2005-03-30
JP2005-264703 2005-09-13
JP2005264703 2005-09-13

Publications (1)

Publication Number Publication Date
WO2006109527A1 true WO2006109527A1 (ja) 2006-10-19

Family

ID=37086813

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/305976 WO2006109527A1 (ja) 2005-03-30 2006-03-24 ナビゲーション装置およびナビゲーション方法

Country Status (2)

Country Link
JP (1) JP4892741B2 (ja)
WO (1) WO2006109527A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008068849A1 (ja) * 2006-12-05 2008-06-12 Navitime Japan Co., Ltd. ナビゲーションシステム、携帯端末装置および周辺画像表示方法
EP2241859A1 (en) * 2007-12-31 2010-10-20 STMicroelectronics Design and Application GmbH Improved vehicle navigation system
EP2818831A1 (en) * 2013-06-27 2014-12-31 Spreadtrum Communications (Shanghai) Co., Ltd. Method and system for determing the postion and posture of a mobile terminal
JP2017120238A (ja) * 2015-12-28 2017-07-06 トヨタ自動車株式会社 ナビ情報提供システム及びナビ情報提供装置
JP2020511704A (ja) * 2017-03-01 2020-04-16 モービルアイ ビジョン テクノロジーズ リミテッド 不確実性を検知しながらナビゲートするためのシステム及び方法
CN111521190A (zh) * 2020-04-16 2020-08-11 常青藤科技河北有限公司 一种基于全景地图的寻人方法、存储介质及系统
CN113280817A (zh) * 2020-07-08 2021-08-20 阿里巴巴集团控股有限公司 一种基于地标的视觉导航

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101994521B1 (ko) * 2017-04-20 2019-09-30 김현우 증강현실을 이용한 길 안내 시스템

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0763572A (ja) * 1993-08-31 1995-03-10 Alpine Electron Inc 車載用ナビゲーション装置の走行案内画像表示方法
JPH0935177A (ja) * 1995-07-18 1997-02-07 Hitachi Ltd 運転支援方法および運転支援装置
JPH11108684A (ja) * 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd カーナビゲーションシステム
JP2000149193A (ja) * 1998-11-09 2000-05-30 Nippon Telegr & Teleph Corp <Ntt> 移動支援装置及び移動支援方法
JP2003121167A (ja) * 2001-10-12 2003-04-23 Denso Corp 案内画像生成装置、案内画像表示装置、ナビゲーション装置、及びプログラム
JP2003254775A (ja) * 2002-03-05 2003-09-10 Denso Corp ナビゲーション装置
JP2003274482A (ja) * 2002-03-15 2003-09-26 Alpine Electronics Inc 音声出力処理装置
JP2006105640A (ja) * 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0763572A (ja) * 1993-08-31 1995-03-10 Alpine Electron Inc 車載用ナビゲーション装置の走行案内画像表示方法
JPH0935177A (ja) * 1995-07-18 1997-02-07 Hitachi Ltd 運転支援方法および運転支援装置
JPH11108684A (ja) * 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd カーナビゲーションシステム
JP2000149193A (ja) * 1998-11-09 2000-05-30 Nippon Telegr & Teleph Corp <Ntt> 移動支援装置及び移動支援方法
JP2003121167A (ja) * 2001-10-12 2003-04-23 Denso Corp 案内画像生成装置、案内画像表示装置、ナビゲーション装置、及びプログラム
JP2003254775A (ja) * 2002-03-05 2003-09-10 Denso Corp ナビゲーション装置
JP2003274482A (ja) * 2002-03-15 2003-09-26 Alpine Electronics Inc 音声出力処理装置
JP2006105640A (ja) * 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008068849A1 (ja) * 2006-12-05 2008-06-12 Navitime Japan Co., Ltd. ナビゲーションシステム、携帯端末装置および周辺画像表示方法
EP2241859A1 (en) * 2007-12-31 2010-10-20 STMicroelectronics Design and Application GmbH Improved vehicle navigation system
EP2818831A1 (en) * 2013-06-27 2014-12-31 Spreadtrum Communications (Shanghai) Co., Ltd. Method and system for determing the postion and posture of a mobile terminal
JP2017120238A (ja) * 2015-12-28 2017-07-06 トヨタ自動車株式会社 ナビ情報提供システム及びナビ情報提供装置
JP2020511704A (ja) * 2017-03-01 2020-04-16 モービルアイ ビジョン テクノロジーズ リミテッド 不確実性を検知しながらナビゲートするためのシステム及び方法
JP7235247B2 (ja) 2017-03-01 2023-03-08 モービルアイ ビジョン テクノロジーズ リミテッド 不確実性を検知しながらナビゲートするためのシステム及び方法
US11897518B2 (en) 2017-03-01 2024-02-13 Mobileye Vision Technologies Ltd. Systems and methods for navigating with sensing uncertainty
CN111521190A (zh) * 2020-04-16 2020-08-11 常青藤科技河北有限公司 一种基于全景地图的寻人方法、存储介质及系统
CN113280817A (zh) * 2020-07-08 2021-08-20 阿里巴巴集团控股有限公司 一种基于地标的视觉导航

Also Published As

Publication number Publication date
JPWO2006109527A1 (ja) 2008-10-23
JP4892741B2 (ja) 2012-03-07

Similar Documents

Publication Publication Date Title
US7457705B2 (en) Navigation apparatus for displaying three-d stored terrain information based on position and attitude
JP4068661B1 (ja) ナビゲーションシステム、携帯端末装置および経路案内方法
JP4767578B2 (ja) 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置
KR101285360B1 (ko) 증강현실을 이용한 관심 지점 표시 장치 및 방법
JP4892741B2 (ja) ナビゲーション装置およびナビゲーション方法
JP4038529B1 (ja) ナビゲーションシステム、携帯端末装置および周辺画像表示方法
JP4847090B2 (ja) 位置測位装置、および位置測位方法
US20100250116A1 (en) Navigation device
JP2008542746A (ja) カメラ情報を有するナビゲーションデバイス
US20100256900A1 (en) Navigation device
US20100245561A1 (en) Navigation device
JP2009020089A (ja) ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
WO2009084126A1 (ja) ナビゲーション装置
JP4816303B2 (ja) 車両用表示システム、ナビゲーションシステム
JPH0933271A (ja) ナビゲーション装置及び撮像装置
JP2009236843A (ja) ナビゲーション装置、ナビゲーション方法、およびナビゲーションプログラム
CN112614219A (zh) 一种用于地图导航定位的基于标识点的空间坐标转换方法
US20120026324A1 (en) Image capturing terminal, data processing terminal, image capturing method, and data processing method
JP2007206014A (ja) ナビゲーション装置
CN102288180B (zh) 实时影像导航系统及方法
RU2375756C2 (ru) Навигационное устройство с информацией, получаемой от камеры
WO2022039011A1 (ja) コンピュータシステムによるナビゲーション
JP2001005994A (ja) 画像処理装置および画像処理方法
WO2009095966A1 (ja) ナビゲーション装置
JP2005233712A (ja) 位置表示システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2007512494

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

122 Ep: pct application non-entry in european phase

Ref document number: 06729924

Country of ref document: EP

Kind code of ref document: A1