JP2009229180A - Navigation device - Google Patents

Navigation device Download PDF

Info

Publication number
JP2009229180A
JP2009229180A JP2008073442A JP2008073442A JP2009229180A JP 2009229180 A JP2009229180 A JP 2009229180A JP 2008073442 A JP2008073442 A JP 2008073442A JP 2008073442 A JP2008073442 A JP 2008073442A JP 2009229180 A JP2009229180 A JP 2009229180A
Authority
JP
Japan
Prior art keywords
building
unit
information
image
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008073442A
Other languages
Japanese (ja)
Inventor
Katsuya Kawai
克哉 河合
Yoshihisa Yamaguchi
喜久 山口
Katsuyuki Inoue
勝行 井上
Hiroyoshi Konaka
裕喜 小中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2008073442A priority Critical patent/JP2009229180A/en
Publication of JP2009229180A publication Critical patent/JP2009229180A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation device which enables a user to easily designate a building, improves accuracy in identifying the building, and reduces a burden when the user acquires information. <P>SOLUTION: The navigation device includes a positioning section 2, a map building database 1, a model construction section 6, an image acquiring section 3, an attention direction receiving section 4, a shape recognition section 5, a building identifying section 7, a navigation information acquiring section 8, and a displaying section 9. The model construction section 6 constructs a solid model of a current location periphery. The image acquiring section 3 acquires photographed images. The attention direction receiving section 4 determines the direction to the building designated in a displaying device which displays photographed images. The shape recognition section 5 extracts shape character information of surrounding buildings. The building identifying section 7 identifies the designated building using the solid model, the direction, and the shape character information. The navigation information acquiring section 8 acquires navigation information of the building from the map building database 1, and the displaying section 9 outputs navigation information with at least one of the voice and image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、車載用のナビゲーション装置に関し、特に車両周辺の建造物に関する情報を得るためのナビゲーション装置に関する。   The present invention relates to a vehicle-mounted navigation device, and more particularly to a navigation device for obtaining information related to buildings around a vehicle.

従来のナビゲーション装置においては、ユーザが適切な検索条件を入力して建物を特定し、その情報を取得していた。また、従来のカーナビゲーションシステムでは、車載カメラからの実写映像をナビゲーション装置の画面に表示し、その画面に見えている建物を指で触れる等により建物を指定し、車載カメラで撮影した連続画像から得られる対象物の特徴点とその対応点の座標情報及びGPS(グローバル・ポジショニング・システム)から得られるカメラの位置情報を用いて対象物の位置情報を獲得し、その位置情報から近い順に複数の建物の情報を順次列挙して表示し、ユーザに選択させていた。(例えば特許文献1参照)。   In a conventional navigation device, a user inputs appropriate search conditions to identify a building and acquire the information. In addition, in a conventional car navigation system, a live-action video from an in-vehicle camera is displayed on the screen of the navigation device, a building is specified by touching a building that is visible on the screen with a finger, etc. The position information of the object is obtained using the coordinate information of the obtained feature point and the corresponding point and the position information of the camera obtained from GPS (Global Positioning System). The building information was listed and displayed sequentially, and the user selected it. (For example, refer to Patent Document 1).

特開2004-138556号公報(第4頁、第1図)JP 2004-138556 A (page 4, FIG. 1)

従来のナビゲーション装置では、適切な検索条件を入力しなければならなかったり、建物の特定精度が十分でないため複数の建物の中からユーザが選択しなくてはならず、ユーザの負担が大きいという問題点があった。   In conventional navigation devices, it is necessary to input appropriate search conditions, or because the accuracy of building identification is not sufficient, the user has to select from a plurality of buildings. There was a point.

この発明は、上述のような問題を解決するためになされたもので、ユーザが建造物を簡便に指定でき、その建造物の特定精度を向上させ、ユーザが情報を得る際の負担を軽減させるナビゲーション装置を得ることを目的とする。   The present invention has been made to solve the above-described problems. The user can easily specify a building, improve the accuracy of specifying the building, and reduce the burden when the user obtains information. The object is to obtain a navigation device.

この発明に係るナビゲーション装置は、測位部と、地図建造物データベースと、モデル構築部と、画像取得部と、注目方向受取部と、形状認識部と、建造物特定部と、案内情報取得部と、表示部とを備えている。モデル構築部は、測位部からの現在位置情報と地図建造物データベースからの地図及び建造物情報から現在位置周辺の立体モデルを構築する。画像取得部は、現在位置の周辺を撮像し実写画像を取得する。注目方向受取部は、画像取得部からの実写画像を画面に表示する表示装置において、指定された建造物の画面上の位置情報を受取り、現在位置に対する指定された建造物への方向を求める。形状認識部は、画像取得部からの実写画像から周辺建造物の形状的特徴情報を抽出する。建造物特定部は、モデル構築部からの立体モデルと注目方向受取部からの方向と形状認識部からの形状的特徴情報を用いて表示画面上において指定された建造物が立体モデル中のどの建造物であるかを特定する。案内情報取得部は、建造物特定部で特定された建造物の案内情報を地図建造物データベースから取得し、表示部は、この案内情報を音声又は映像の少なくとも1つで出力するものである。   A navigation device according to the present invention includes a positioning unit, a map building database, a model building unit, an image acquisition unit, a direction-of-interest receiving unit, a shape recognition unit, a building identification unit, and a guidance information acquisition unit. And a display unit. The model construction unit constructs a three-dimensional model around the current position from the current position information from the positioning unit, the map from the map building database, and the building information. The image acquisition unit captures the periphery of the current position and acquires a real image. The attention direction receiving unit receives position information on the screen of the designated building on the display device that displays the photographed image from the image acquisition unit on the screen, and obtains the direction to the designated building with respect to the current position. The shape recognizing unit extracts the shape feature information of the surrounding building from the photographed image from the image acquiring unit. The building identification unit uses the 3D model from the model building unit, the direction from the target direction receiving unit, and the geometric feature information from the shape recognition unit to determine which building in the 3D model is on the display screen. Identify whether it is a thing. The guide information acquisition unit acquires the guide information of the building specified by the building specifying unit from the map building database, and the display unit outputs the guide information by at least one of audio or video.

この発明に係るナビゲーション装置は、画像取得部と注目方向受取部とを備えたため、表示画面上において建造物を簡便に指定することができる。また、測位部と、地図建造物データベースと、モデル構築部と形状認識部と建造物特定部とを備えたため、現在位置周辺の立体モデルを地図建造物データベースに基づき構築し、これと現実に撮像した実写画像を照合するので、建造物の特定精度が向上する。これらの結果、建造物の情報を簡便に取得でき、ユーザの負担を軽減させることができる。   Since the navigation device according to the present invention includes the image acquisition unit and the attention direction receiving unit, the building can be easily specified on the display screen. In addition, since it has a positioning unit, a map building database, a model building unit, a shape recognition unit, and a building specifying unit, a 3D model around the current position is built based on the map building database, and this is actually captured Since the captured real image is collated, the accuracy of identifying the building is improved. As a result, building information can be easily acquired, and the burden on the user can be reduced.

実施の形態1.
図1は、この発明を実施するための実施の形態1におけるナビゲーション装置のシステム構成図である。図において、地図建造物データベース1は、地図及び建造物の立体形状情報と、案内情報を記憶している。立体形状情報は地図情報と関連付けて建造物の立体モデルを構築するための情報であり、例えば建造物の位置、敷地形状、階数などがある。敷地形状および階数に代わって、より詳細な立体モデルを持っていてもよい。案内情報は建造物に関する案内をユーザに提示するための情報であり、例えば名称、詳細情報などがある。また、ここで挙げた情報は外部ネットワークと通信して取得してもよい。なおここでの建造物は、人工物に限定される事無く、例えば公園や、山、川、海岸等でもよい。
Embodiment 1 FIG.
FIG. 1 is a system configuration diagram of a navigation apparatus according to Embodiment 1 for carrying out the present invention. In the figure, the map building database 1 stores a map and three-dimensional shape information of the building and guidance information. The three-dimensional shape information is information for constructing a three-dimensional model of a building in association with map information, and includes, for example, the position of the building, the site shape, and the number of floors. Instead of site shape and floor number, you may have a more detailed solid model. Guidance information is information for presenting a user with guidance regarding a building, such as a name and detailed information. The information listed here may be acquired by communicating with an external network. The building here is not limited to an artifact, but may be a park, a mountain, a river, a coast, or the like.

測位部2は、車両の現在位置や姿勢を求める。位置や姿勢は、例えば従来のカーナビゲーション装置で行われているように、GPS、車速センサ、ジャイロセンサといったセンサ群の測定値とマップマッチングなどを用いて計算する。   The positioning unit 2 obtains the current position and posture of the vehicle. The position and orientation are calculated using measured values of a sensor group such as GPS, a vehicle speed sensor, and a gyro sensor, map matching, and the like, as is done in a conventional car navigation device.

画像取得部3は、現在位置の周辺を撮像し、周辺の実写画像を取得する。ここで実写画像は、例えば車載カメラによって自車前方の画像を取得する。   The image acquisition unit 3 captures an image of the vicinity of the current position and acquires a live-action image of the periphery. Here, as the photographed image, for example, an image in front of the own vehicle is acquired by an in-vehicle camera.

注目方向受取部4は、ユーザによって表示画面上で指定された建造物への方向と、注目方向角を求める。ここで注目方向角は、自車位置を基準とし、指定された建造物への方向と車両が向いている方向とのなす角として表される。具体的には、画像取得部3によって取得した周辺の撮影画像(実写画像)をディスプレイ等の表示装置に表示し、その表示画面上でユーザが注目し指定した建造物の注目点の位置情報を受取る。受取った実写画像上の注目点の位置、カメラが設置された位置姿勢およびカメラパラメータを用いて座標変換を行い、注目点の方向と車両が向いている方向とのなす角を計算する。座標変換の方法としては、例えば「3次元CGの基礎と応用」ISBN7819−1080−7、P.22−24、P.59−66に記載された透視変換の逆変換を用いる。画像上での注目点の位置は、例えばタッチパネル機能を有するディスプレイを触るか、リモコンによってディスプレイ上のカーソルを操作することで指定する。   The attention direction receiving unit 4 obtains the direction to the building designated by the user on the display screen and the attention direction angle. Here, the attention direction angle is expressed as an angle formed by the direction to the designated building and the direction in which the vehicle is facing, based on the vehicle position. Specifically, a peripheral captured image (actual image) acquired by the image acquisition unit 3 is displayed on a display device such as a display, and position information of a point of interest of a building that the user has noted and specified on the display screen is displayed. Receive. Coordinate conversion is performed using the position of the point of interest on the received real image, the position and orientation at which the camera is installed, and camera parameters, and the angle between the direction of the point of interest and the direction in which the vehicle is facing is calculated. As a method of coordinate conversion, for example, “Basics and Applications of 3D CG” ISBN 7819-1080-7, P.I. 22-24, P.I. The inverse transformation of the perspective transformation described in 59-66 is used. The position of the point of interest on the image is specified by touching a display having a touch panel function or operating a cursor on the display with a remote controller, for example.

形状認識部5は、画像取得部3によって取得した実写画像を用いて周辺建造物の形状的特徴情報を抽出する。ここで周辺建造物は、自車から現実に見えている建造物である。周辺建造物の形状的特徴情報としては、例えば実写画像の特徴点、エッジ、平面などを用いる。これらの形状的特徴情報を画像から抽出する方法としては、例えば「画像処理入門」ISBN4−7898−1834−9、P.50−62に記載された方法を用いる。   The shape recognizing unit 5 extracts the shape feature information of the surrounding building using the photographed image acquired by the image acquiring unit 3. Here, the surrounding building is a building that is actually seen from the vehicle. As the shape feature information of the surrounding building, for example, feature points, edges, planes, etc. of the photographed image are used. Examples of a method for extracting such shape feature information from an image include “Introduction to Image Processing” ISBN 4-7898-1834-9, P.I. The method described in 50-62 is used.

モデル構築部6は、まず、測位部2から取得した自車位置姿勢を用いて周辺領域を設定する。ここで周辺領域は、自車位置を原点として自車姿勢の方向を奥行き方向(=車両が向いている方向)とした座標系で表す。また周辺領域の範囲は、例えば自車の左右方向にそれぞれ50[m]、前方に500[m]などと一定の範囲を取るように予め設定しておけばよい。周辺領域の範囲は、走行中の道路の種別、周辺にある建造物の数などを考慮して動的に決定してもよい。その場合は、例えば高速道路を走行中なら前方の距離を10[km]とする、周辺の観光施設の数が20個になるまで範囲を広げるなどとすればよい。次に、地図建造物データベース1から周辺領域内に位置する建造物の立体形状情報を取得し、この情報を用いて立体モデルを構築する。   The model construction unit 6 first sets a peripheral region using the own vehicle position / posture acquired from the positioning unit 2. Here, the peripheral area is represented by a coordinate system in which the position of the vehicle is the origin and the direction of the vehicle posture is the depth direction (= direction in which the vehicle is facing). The range of the peripheral region may be set in advance so as to take a certain range, for example, 50 [m] in the left-right direction of the own vehicle and 500 [m] in the forward direction. The range of the surrounding area may be dynamically determined in consideration of the type of road that is running, the number of buildings in the vicinity, and the like. In that case, for example, if the vehicle is traveling on an expressway, the distance ahead may be set to 10 [km], or the range may be expanded until the number of surrounding tourist facilities reaches 20. Next, the three-dimensional shape information of the building located in the peripheral region is acquired from the map building database 1, and a three-dimensional model is constructed using this information.

建造物特定部7は、注目方向受取部4で受取った指定された建造物への方向や注目方向角、形状認識部5で認識した周辺建造物の形状的特徴情報、およびモデル構築部6で構築した周辺領域の立体モデルを用いて注目建造物を特定する。   The building specifying unit 7 receives the direction to the designated building and the direction angle of interest received by the attention direction receiving unit 4, the shape feature information of the surrounding building recognized by the shape recognition unit 5, and the model construction unit 6. The target building is identified using the three-dimensional model of the constructed peripheral area.

案内情報取得部8は、建造物特定部7が特定した注目建造物に関する案内情報を、地図建造物データベース1から取得する。取得する案内情報としては、例えば建造物の名称がある。建造物が観光用であれば建造時期、歴史的背景、観光情報などを取得してもよい。建造物が商業用であれば、営業時間、セール情報などを取得してもよい。建造物が駅や空港などであれば、時刻表や空席情報を表示してもよい。   The guide information acquisition unit 8 acquires guide information about the noted building specified by the building specifying unit 7 from the map building database 1. As guide information to acquire, there exists a name of a building, for example. If the building is for sightseeing, the construction time, historical background, sightseeing information, etc. may be acquired. If the building is for commercial use, business hours, sale information, etc. may be acquired. If the building is a station or an airport, a timetable or vacancy information may be displayed.

表示部9は、案内情報取得部8で取得した案内情報を音声でスピーカに出力したり、映像でディスプレイに表示する。この時に、画像取得部3で取得した実写画像に建造物の案内情報を重畳させてもよい。   The display unit 9 outputs the guidance information acquired by the guidance information acquisition unit 8 to the speaker by voice or displays it on the display as a video. At this time, building guidance information may be superimposed on the actual image acquired by the image acquisition unit 3.

図2は本発明の実施の形態1を実現するハードウェア構成の一例である。地図建造物データベース1は、記憶装置102に地図データおよび建造物データをあらかじめ記憶しておくことで実現する。あるいは、地図建造物データベース1は、外部機器インタフェース104を経由して外部の記憶媒体あるいはネットワークから地図データおよび建造物データを取得し、マイコンインタフェース103を経由して記憶装置102に一時的に格納することで実現する。   FIG. 2 is an example of a hardware configuration for realizing the first embodiment of the present invention. The map building database 1 is realized by storing map data and building data in the storage device 102 in advance. Alternatively, the map building database 1 acquires map data and building data from an external storage medium or network via the external device interface 104 and temporarily stores them in the storage device 102 via the microcomputer interface 103. It will be realized.

測位部2は、車両インタフェース105が車両から受け取った速度、GPSレシーバ106がGPS衛星から電波を受け取って計算した推定自車位置、ジャイロセンサ107が検出した車両の角速度を、マイコンインタフェース103が仲介して記憶装置102に格納し、地図建造物データベース1において記憶装置102に格納されている地図データと上記した速度、推定自車位置、角速度を用いて、CPU101が自車の位置および姿勢を特定し記憶装置102に格納することで実現する。   The positioning unit 2 uses the microcomputer interface 103 to mediate the speed received by the vehicle interface 105 from the vehicle, the estimated vehicle position calculated by the GPS receiver 106 receiving radio waves from the GPS satellite, and the angular velocity of the vehicle detected by the gyro sensor 107. Using the map data stored in the storage device 102 in the map building database 1 and the above-described speed, estimated vehicle position, and angular velocity, the CPU 101 specifies the position and orientation of the vehicle. This is realized by storing in the storage device 102.

画像取得部3は、カメラ111で撮影した画像を外部機器インタフェース104およびマイコンインタフェース103が仲介して記憶装置102に格納することで実現する。   The image acquisition unit 3 is realized by storing an image captured by the camera 111 in the storage device 102 via the external device interface 104 and the microcomputer interface 103.

注目方向受取部4は、画像取得部3において記憶装置102に格納された画像を映像出力装置108に表示することで実現した表示装置と、HMI(ヒューマン・マシン・インターフェース)装置110によって受け取ったユーザの入力情報を、マイコンインタフェース103が仲介して記憶装置102に格納し、この入力情報を用いてCPU101が注目方向角を計算して記憶装置102に格納することで実現する。   The attention direction receiving unit 4 displays the image stored in the storage device 102 in the image acquisition unit 3 on the video output device 108 and the user received by the HMI (Human Machine Interface) device 110. Is input to the storage device 102 via the microcomputer interface 103, and the CPU 101 calculates the direction angle of interest using this input information and stores it in the storage device 102.

形状認識部5は、画像取得部3において記憶装置102に格納された画像を用いて、CPU103が形状的特徴情報を抽出して記憶装置102に格納することで実現する。   The shape recognition unit 5 is realized by the CPU 103 using the image stored in the storage device 102 in the image acquisition unit 3 to extract the shape feature information and store it in the storage device 102.

モデル構築部6は、測位部2において記憶装置102に格納された自車位置姿勢、地図建造物データベース1において記憶装置102に格納された地図データおよび建造物データを用いて、CPU103が立体モデルを構築して記憶装置102に格納することで実現する。   The model construction unit 6 uses the own vehicle position and orientation stored in the storage device 102 in the positioning unit 2, and the map data and building data stored in the storage device 102 in the map building database 1, so that the CPU 103 generates a three-dimensional model. This is realized by constructing and storing in the storage device 102.

建造物特定部7は、注目方向受取部4において記憶装置102に格納された注目方向角、形状認識部5において記憶装置102に格納された形状的特徴情報、モデル構築部6において記憶装置102に格納された立体モデルを用いて、CPU103が建造物を特定して記憶装置102に格納することで実現する。   The building specifying unit 7 stores the attention direction angle stored in the storage device 102 in the attention direction receiving unit 4, the geometric feature information stored in the storage device 102 in the shape recognition unit 5, and the storage unit 102 in the model construction unit 6. It implement | achieves because CPU103 specifies a building and stores it in the memory | storage device 102 using the stored solid model.

案内情報取得部8は、建造物特定部7において記憶装置102に格納された建造物に対応する案内情報を、地図建造物データベース1において記憶装置102に格納された建造物データからCPU103が選択し、記憶装置102の別領域に格納することで実現する。   In the guide information acquisition unit 8, the CPU 103 selects the guide information corresponding to the building stored in the storage device 102 in the building specifying unit 7 from the building data stored in the storage device 102 in the map building database 1. This is realized by storing in another area of the storage device 102.

表示部9は、案内情報取得部8において記憶装置102に格納された案内情報を用いてCPU103が作成した案内映像および案内音声を、マイコンインタフェース103が仲介して映像出力装置108および音響出力装置109に出力することで実現する。   The display unit 9 uses the guidance information stored in the storage device 102 in the guidance information acquisition unit 8 and the guidance video and guidance voice created by the CPU 103, and the microcomputer interface 103 mediates the video output device 108 and the acoustic output device 109. This is realized by outputting to.

次に、このように構成されたナビゲーション装置の建造物の特定方法及び建造物特定部7の動作について説明する。建造物の特定には、先ず、車載カメラで自車周辺を撮像し、それを表示装置に示し、ユーザは表示画像内で注目する或る建造物を指定する。次に、建造物特定部7は、実空間内に在ってユーザにより指定された建造物の現実の二次元画像及びそれを元に形状認識部5が抽出した形状的特徴情報と、地図建造物データベース1からモデル構築部6が作成した立体モデル(仮想空間)内の各建造物の仮想の二次元画像とを比較し、現実の画像に一番近い仮想空間内の建造物を選んで、その建造物をユーザにより指定された建造物と特定する。その動作について、図3に示すフローチャートを用いて説明する。   Next, the building specifying method of the navigation apparatus configured as described above and the operation of the building specifying unit 7 will be described. In order to specify a building, first, an on-vehicle camera captures an image of the periphery of the vehicle, shows it on a display device, and the user designates a certain building of interest in the display image. Next, the building specifying unit 7 is a real two-dimensional image of the building specified by the user in the real space, the shape feature information extracted by the shape recognition unit 5 based on the two-dimensional image, and the map building Compare the virtual two-dimensional image of each building in the three-dimensional model (virtual space) created by the model building unit 6 from the object database 1 and select the building in the virtual space closest to the real image, The building is identified as the building designated by the user. The operation will be described with reference to the flowchart shown in FIG.

先ず、ステップ71では、立体モデル内の周辺領域内の全ての建造物について評価値を算出したかどうかを判定する。ここでの評価値とは、ユーザが指定した建造物である可能性を数値化したものである。評価値を算出していない建造物が残っていた場合は、それらの建造物のうちの1つを選択してステップ72に進む。全ての建造物の評価値を算出していた場合は、ステップ74に進む。   First, in step 71, it is determined whether or not evaluation values have been calculated for all buildings in the surrounding area in the three-dimensional model. The evaluation value here is a numerical value of the possibility that the building is designated by the user. If there is still a building for which an evaluation value has not been calculated, one of those buildings is selected and the process proceeds to step 72. If the evaluation values of all buildings have been calculated, the process proceeds to step 74.

ステップ72では、ステップ71で選択した建造物を基準とした投影画像(仮想の二次元画像)を作成する(図4、5参照)。ここで投影画像は、注目方向角に選択建造物が存在した場合に自車位置から見えると考えられる画像を、立体モデルを元に作成したものである。つまり、実空間内の注目方向角と仮想空間内の選択建造物の方向角とが同じになる様に作成した画像である。あるいは、実写画面で指定された建造物への方向と、立体モデル内の選択該建造物への方向とが同じになる様に、立体モデル全体を移動して作成した画像でもある。なお、選択建造物には幅があるため、選択建造物への方向としては、例えば、原点から選択建造物の中心とするとか、立体モデル全体を移動して画像を作成する際に選択建造物の中で一番移動量が少なくなる場所とする方法などがある。   In step 72, a projection image (virtual two-dimensional image) based on the building selected in step 71 is created (see FIGS. 4 and 5). Here, the projection image is created based on a three-dimensional model, which is an image that can be seen from the vehicle position when the selected building exists at the direction angle of interest. That is, the image is created so that the attention direction angle in the real space is the same as the direction angle of the selected building in the virtual space. Alternatively, it is also an image created by moving the entire three-dimensional model so that the direction to the building designated on the live-action screen is the same as the direction to the selected building in the three-dimensional model. Since the selected building has a width, the direction to the selected building is, for example, the center of the selected building from the origin, or the selected building when moving the entire 3D model to create an image. There is a method to make the place where the amount of movement is the smallest among them.

投影画像は、例えば以下のようにして作成する。立体モデルにおいては原点が自車位置であるので、投影画像の投影中心を立体モデルの原点とする。次に、注目方向角と選択建造物の方向角とを一致させるように投影画像の投影方向を決定する。つまり、実空間内の自車位置から指定された建造物への方向(=注目方向ベクトル)と車両が向いている方向とでなす角(=注目方向角)が、仮想空間内(立体モデル)の原点から選択建造物への方向と投影方向とでなす角(=選択建造物の方向角)と一致するように投影方向を決定する。このようにして決定した投影中心と投影方向を用いて透視変換を行う。透視変換によって得た画像に対してカメラパラメータを用いた変換を適用し、投影画像として用いる。   The projection image is created as follows, for example. Since the origin is the vehicle position in the stereo model, the projection center of the projection image is set as the origin of the stereo model. Next, the projection direction of the projection image is determined so that the direction angle of interest matches the direction angle of the selected building. That is, the angle (= attention direction angle) formed by the direction from the own vehicle position in the real space to the designated building (= attention direction vector) and the direction in which the vehicle is facing (= three-dimensional model) in the virtual space The projection direction is determined so as to coincide with the angle formed by the direction from the origin to the selected building and the projection direction (= the direction angle of the selected building). The perspective transformation is performed using the projection center and the projection direction thus determined. A transformation using camera parameters is applied to an image obtained by perspective transformation and used as a projection image.

ステップ72aでは、ステップ72で作成した投影画像を用いて、ステップ71で選択した建造物の可視度を算出する。ここで可視度は、自車の位置姿勢から選択建造物が見えるべき大きさが大きいほど値が大きくなるパラメータである。可視度は、例えば投影画像における選択建造物の面積を用いる。   In step 72a, the visibility of the building selected in step 71 is calculated using the projection image created in step 72. Here, the visibility is a parameter whose value increases as the size of the selected building that can be seen from the position and orientation of the host vehicle increases. For the visibility, for example, the area of the selected building in the projection image is used.

ステップ72bでは、ステップ72で作成した投影画像を用いて、ステップ71で選択した建造物の方向一致度を算出する。ここで方向一致度は、自車の位置姿勢から選択建造物が見えるべき方向角と、注目方向角が近いほど値が大きくなるパラメータである。あるいは、投影画像を作成する際に、立体モデル全体を移動させた移動角度から算出されるものである。方向一致度は、例えば立体モデルの奥行き方向(=車両が向いている方向)と方向が一致するベクトルとステップ72における投影方向と方向が一致するベクトルとの内積を用いる。ただし、ここで用いるベクトルは長さを正規化しておくこととする。   In step 72b, the degree of direction coincidence of the building selected in step 71 is calculated using the projection image created in step 72. Here, the degree of direction coincidence is a parameter whose value increases as the direction angle at which the selected building should be seen from the position and orientation of the vehicle and the attention direction angle are closer. Alternatively, it is calculated from the movement angle obtained by moving the entire three-dimensional model when creating the projection image. As the degree of direction coincidence, for example, an inner product of a vector whose direction coincides with the depth direction (= direction in which the vehicle faces) of the three-dimensional model and a vector whose direction coincides with the projection direction in step 72 is used. However, the length of the vector used here is normalized.

ステップ72cでは、ステップ72で作成した投影画像を用いて、ステップ71で選択した建造物の形状類似度を算出する。ここで形状類似度は、自車の位置姿勢から見えるべき景色における選択建造物の形状的特徴情報と、実際に撮影した画像が似ているほど値が大きくなるパラメータである。形状類似度は、例えば、投影画像(仮想の二次元画像)から抽出した形状的特徴情報と、現実の二次元画像から形状認識部5で抽出した形状的特徴情報とを照合し比較する。形状的特徴情報としてエッジを用いる場合、形状認識部5で抽出した各エッジについて、投影画像上で最も近いエッジを探索してその距離を求める。各エッジについて求めた距離の総和を求め、エッジ数で割った値の逆数を形状類似度とすればよい。ここで用いるエッジを垂直方向のものに限定するなどし、不要なエッジによるノイズを除去してもよい。また注目方向点(注目方向角に対応する画像上の点)と各エッジとの位置関係を考慮して計算してもよい。   In step 72c, the shape similarity of the building selected in step 71 is calculated using the projection image created in step 72. Here, the shape similarity is a parameter whose value increases as the shape feature information of the selected building in the scenery that should be seen from the position and orientation of the host vehicle is similar to the actually captured image. For the shape similarity, for example, the shape feature information extracted from the projection image (virtual two-dimensional image) and the shape feature information extracted by the shape recognition unit 5 from the actual two-dimensional image are collated and compared. When an edge is used as the shape feature information, for each edge extracted by the shape recognition unit 5, the nearest edge on the projection image is searched and the distance is obtained. The sum of the distances obtained for each edge is obtained, and the reciprocal of the value divided by the number of edges may be used as the shape similarity. The edges used here may be limited to those in the vertical direction, and noise due to unnecessary edges may be removed. The calculation may be performed in consideration of the positional relationship between the attention direction point (the point on the image corresponding to the attention direction angle) and each edge.

ステップ73では、ステップ72aからステップ72cで算出した各パラメータを用いて、ステップ71で選択した建造物の評価値を算出する。評価値としては、例えば全パラメータの和を用いる。ここで、ユーザの性格や走行状況に合わせて各パラメータに対する重み係数を設定し、重み付けしたパラメータの和を評価値としてもよい。例えば、大きく見えている建造物に注目しやすい傾向があるユーザが操作する場合は可視度に対する重み係数を大きく設定する、GPS衛星の電波が受信できず測位精度が低い場合は方向一致度に対する重み係数を小さくするなどとする。ここで、ユーザの性格に応じた重み設定は、複数のユーザの使用状況を調査して平均的な設定を初期設定としてもよいし、実際に使用するユーザの使用状況を解析することで各ユーザに最適な設定を求めてもよい。また、評価値の計算式は各パラメータの線形結合でなくてもよい。例えば、方向一致度が低い場合に可視度の影響は小さいと考えられるため、これら2つのパラメータの積と形状類似度との和を評価値とするなどとしてもよい。   In step 73, the evaluation value of the building selected in step 71 is calculated using each parameter calculated in steps 72a to 72c. As the evaluation value, for example, the sum of all parameters is used. Here, a weighting coefficient for each parameter may be set in accordance with the user's personality and driving situation, and the sum of the weighted parameters may be used as the evaluation value. For example, when a user who tends to focus on a building that looks large is operated, a weighting factor for visibility is set to a large value. When GPS satellite radio waves cannot be received and positioning accuracy is low, a weight for direction matching is set. Suppose that the coefficient is reduced. Here, the weight setting according to the user's personality may be performed by investigating the usage status of a plurality of users and setting an average setting as an initial setting, or by analyzing the usage status of the user actually used. The optimum setting may be obtained. Also, the evaluation value calculation formula need not be a linear combination of the parameters. For example, since the influence of visibility is considered to be small when the degree of direction coincidence is low, the sum of the product of these two parameters and the shape similarity may be used as the evaluation value.

ステップ74では、ステップ71からステップ73で求めた各建造物の評価値を比較して、評価値が最も高い建造物をユーザが指定した注目建造物として特定する。ここで評価値が上位となった複数の建造物について、その評価値に大きな差がない場合、それらの建造物の自車位置からの距離、建造物の施設種類あるいは建造物の知名度などを用いて一つに特定する。施設種類は、地図建造物データベース1において各建造物に関連付けて保持されているものとする。ユーザが通常は注目しないと考えられるコンビニエンスストア、スーパーなどの施設種類は優先度を低く設定し、ユーザが注目する可能性が高い観光施設、駅などの施設種類の優先度を高く設定しておく。この設定に従って、候補となる建造物を比較すればよい。この際に、走行状況によって施設種類に設定された優先度を調整してもよい。例えば、ガソリンが少なくなってきた場合はガソリンスタンドの優先度を高くする、飲食店に立ち寄った直後は飲食店の優先度を低くするなどとする。こうして設定された優先度に従い、ユーザが注目しないと考えられる施設種類に属する建造物は、注目建造物の候補から除外する。また知名度を用いる場合、例えばその建造物の名称を外部ネットワーク上で検索し、そのヒット数を指標とすればよい。   In step 74, the evaluation values of the buildings obtained in steps 71 to 73 are compared, and the building having the highest evaluation value is specified as the target building designated by the user. If there is no significant difference in the evaluation values for multiple buildings with higher evaluation values here, use the distance from the vehicle position of those buildings, the type of building facilities, or the name of the building. Specific. The facility type is assumed to be stored in the map building database 1 in association with each building. Convenience stores, supermarkets, and other facility types that users would not normally pay attention to should be set to a low priority, and tourist facilities, stations, and other facility types that users are likely to focus on should be set to a high priority. . The candidate buildings may be compared according to this setting. At this time, the priority set for the facility type may be adjusted according to the traveling state. For example, the priority of the gas station is increased when the gasoline is low, and the priority of the restaurant is decreased immediately after stopping at the restaurant. In accordance with the priority set in this way, a building belonging to a facility type that is considered not to be noticed by the user is excluded from the candidates for the building of interest. Further, when using the name recognition, for example, the name of the building is searched on the external network, and the number of hits may be used as an index.

図6は以上に述べたパラメータ計算の一例について概要を示すものである。図6における実写画像は、画像処理部3で取得した実写画像を簡略化したものの一例である。また形状的特徴情報は、実写画像の一例から形状的特徴情報を認識した結果を図示したものである。図中の丸印は注目方向点(注目方向角に対応する画像上の点)を示している。平面地図は、例示した立体モデルを上方から平面的に図示したものである。地図中の四角形は建造物を、三角形は自車位置を、三角形から伸びる破線は自車位置(原点)からの注目方向ベクトルを示している。投影画像a〜cは、原点からそれぞれ平面地図上のA〜Cに対応する建造物(選択建造物)への方向と注目方向ベクトルが重なるように立体モデル全体を移動した投影画像である。あるいは、実空間内の注目方向角と仮想空間内のA〜Cに対応する建造物(選択建造物)の方向角とが同じになる様に投影方向を設定して作成した画像でもある。   FIG. 6 shows an outline of an example of the parameter calculation described above. The photographed image in FIG. 6 is an example of a simplified photograph of the photographed image acquired by the image processing unit 3. The shape feature information is a result of recognizing the shape feature information from an example of a photographed image. Circles in the figure indicate attention direction points (points on the image corresponding to attention direction angles). The planar map is a plan view of the exemplified solid model from above. A square in the map indicates a building, a triangle indicates a vehicle position, and a broken line extending from the triangle indicates a direction vector of interest from the vehicle position (origin). The projection images a to c are projection images obtained by moving the entire three-dimensional model so that the directions from the origin to the buildings corresponding to A to C on the planar map (selected buildings) and the attention direction vector overlap each other. Alternatively, it is an image created by setting the projection direction so that the attention direction angle in the real space and the direction angle of the building (selected building) corresponding to A to C in the virtual space are the same.

この例では、ユーザが指定した建造物はBであるが、奥行き方向を投影方向とした投影画像では注目方向ベクトルと建造物Aが重なる。特に、建造物AやBが階数情報のみで、正確な高さ情報が無い時など建造物データの精度が低かったり、ビルの谷間等のためGPSによる位置測定精度が低下し地図データの精度が低いと、建造物AとBの投影画像の高さ情報や位置情報が曖昧となる為、立体モデルと注目方向角との照合だけでは建造物を誤って特定してしまう場合がある。そのため、現実に撮像した実写画像から抽出した形状的特徴情報を考慮する必要がある。高さ情報や位置情報が曖昧でも、形状的特徴情報として例えば注目方向点から左右の垂直方向のエッジまでの距離を用いると、建造物AとBでは建物の幅が異なるため区別できる様になる。その結果、投影画像aは立体モデルの奥行き方向と投影方向とが一致しているため方向一致度は高いが、形状類似度は中程度であると判定する。投影画像bの方向一致度はaより少し低いが、形状類似度はaより高いと判定する。投影画像cの方向一致度はきわめて低く、形状類似度も低いと判定する。これらの判定結果を数値化し、評価関数のパラメータとして、建造物を特定する。   In this example, the building designated by the user is B, but in the projection image with the depth direction as the projection direction, the attention direction vector and the building A overlap. In particular, when the buildings A and B are only floor information and there is no accurate height information, the accuracy of the building data is low. If it is low, the height information and position information of the projection images of the buildings A and B become ambiguous, and the building may be erroneously specified only by matching the three-dimensional model with the direction angle of interest. For this reason, it is necessary to consider the shape feature information extracted from the actual photographed image. Even if the height information and the position information are ambiguous, for example, if the distance from the attention direction point to the left and right vertical edges is used as the shape feature information, the building A and B can be distinguished because the width of the building is different. . As a result, the projection image a is determined to have a high degree of direction coincidence because the depth direction of the stereo model and the projection direction coincide with each other, but the shape similarity is medium. Although the direction coincidence degree of the projected image b is slightly lower than a, it is determined that the shape similarity is higher than a. It is determined that the direction coincidence of the projected image c is extremely low and the shape similarity is also low. These determination results are digitized and the building is specified as a parameter of the evaluation function.

このように構成されたナビゲーション装置によれば、画像取得部3および注目方向受取部4を備えたことにより、表示画面上においてユーザが注目する建造物を簡便に指定することができる。また、測位部と、地図建造物データベースと、モデル構築部と建造物特定部とを備えたため、現在位置周辺の立体モデルを構築し、これと実写画像を照合するので、建造物の特定精度が向上する。さらに、形状認識部5を備えたことにより、地図および建造物の立体形状に関する情報が十分で無い場合や自車の位置姿勢を高精度に測定できない場合でも、現実に撮像した実写画像から抽出した形状的特徴情報を照合するので、建造物の特定精度を向上させることができる。これらの結果、建造物の情報を簡便に取得でき、ユーザの負担を軽減させることができる。   According to the navigation device configured as described above, the image acquisition unit 3 and the attention direction receiving unit 4 are provided, so that the building on which the user pays attention can be easily specified on the display screen. In addition, because it has a positioning unit, a map building database, a model building unit, and a building specifying unit, it builds a three-dimensional model around the current position and collates this with a live-action image. improves. Furthermore, by providing the shape recognizing unit 5, even if the information regarding the three-dimensional shape of the map and the building is not sufficient or the position and orientation of the own vehicle cannot be measured with high accuracy, it is extracted from the actual photographed image. Since the geometric feature information is collated, it is possible to improve the identification accuracy of the building. As a result, building information can be easily acquired, and the burden on the user can be reduced.

実施の形態2.
実施の形態2では、ビルの谷間等のためGPSによる現在位置精度が十分でなかったり、地図建造物データベース1の建造物が階数情報のみで、正確な高さ情報が無い時など建造物の精度が十分でなかったり誤差があるときの建造物の特定手法を示す。図7は、この発明を実施するための実施の形態2におけるナビゲーション装置を示すシステム構成図である。図において、地図建造物データベース1、測位部2、画像取得部3、注目方向受取部4、形状認識部5、案内情報取得部8および表示部9は、先の実施の形態1と同じ働きをする。
Embodiment 2. FIG.
In Embodiment 2, the accuracy of the building is not sufficient, such as when the current position accuracy by GPS is not sufficient due to the valley of the building, or when the building of the map building database 1 is only the floor information and there is no accurate height information. The method of identifying a building when there is not enough or there is an error. FIG. 7 is a system configuration diagram showing the navigation apparatus in the second embodiment for carrying out the present invention. In the figure, the map building database 1, the positioning unit 2, the image acquisition unit 3, the attention direction receiving unit 4, the shape recognition unit 5, the guidance information acquisition unit 8 and the display unit 9 have the same functions as those of the first embodiment. To do.

走行状況取得部10は、測位精度に関わる自車の走行状況を車両および各種センサから受け取る。走行状況としては、例えばハンドルの切り方、ブレーキおよびアクセルの強さ、GPS電波の受信状況、車両の振動などがある。   The traveling state acquisition unit 10 receives the traveling state of the host vehicle related to positioning accuracy from the vehicle and various sensors. Examples of the running situation include how to turn the steering wheel, the strength of the brake and accelerator, the reception situation of GPS radio waves, and the vibration of the vehicle.

モデル構築部6aは、実施の形態1のモデル構築部6と同様の方法で自車周辺領域の立体モデルを構築する。そして地図建造物データベースが持つ建造物の立体形状情報の精度、走行状況取得部10が取得した自車の走行状況を用いて、立体モデルに誤差範囲を付加する。誤差範囲は、以下のような方法で設定する。建造物は、立体形状情報の精度および詳細度に応じてモデル形状の誤差範囲を設定する。例えば高さ情報として階数しか持っていない場合、その階数に応じた高さの範囲を設定する。原点位置および奥行き方向は、測位精度に応じて誤差範囲を設定する。例えばGPS電波の受信状況が悪いと自車の位置の推定値がずれる可能性が高いので、原点位置の誤差範囲を大きく設定する。また、ハンドルを急に切った瞬間は自車姿勢の推定値がずれる可能性が高いので、奥行き方向の誤差範囲を大きく設定する。   The model construction unit 6a constructs a three-dimensional model of the vehicle surrounding area by the same method as the model construction unit 6 of the first embodiment. Then, an error range is added to the three-dimensional model using the accuracy of the three-dimensional shape information of the building possessed by the map building database and the traveling state of the host vehicle acquired by the traveling state acquisition unit 10. The error range is set by the following method. The building sets an error range of the model shape in accordance with the accuracy and detail level of the solid shape information. For example, when the height information has only the floor number, the height range corresponding to the floor number is set. For the origin position and the depth direction, an error range is set according to the positioning accuracy. For example, if the GPS radio wave reception condition is poor, the estimated value of the position of the own vehicle is likely to shift, so the error range of the origin position is set large. In addition, since the estimated value of the vehicle posture is likely to be shifted at the moment when the steering wheel is suddenly turned, the error range in the depth direction is set to be large.

図2で本発明の実施の形態2を実現するハードウェア構成を説明する。地図建造物データベース1、測位部2、画像取得部3、注目方向受取部4、形状認識部5、モデル構築部6a、建造物特定部7a、案内情報取得部8、表示部9は実施の形態1と同様のハードウェア構成で実現する。   A hardware configuration for realizing the second embodiment of the present invention will be described with reference to FIG. The map building database 1, the positioning unit 2, the image acquisition unit 3, the attention direction receiving unit 4, the shape recognition unit 5, the model construction unit 6a, the building identification unit 7a, the guidance information acquisition unit 8, and the display unit 9 are embodiments. 1 is realized with the same hardware configuration as in FIG.

走行状況取得部10は、車両インタフェース105が車両から受け取った走行状況、GPSレシーバ106がGPS衛星から電波を受け取って計算した自車位置、ジャイロセンサ107が検出した車両の角速度を、マイコンインタフェース103が仲介して記憶装置102に格納することで実現する。   The travel status acquisition unit 10 includes a travel status received by the vehicle interface 105 from the vehicle, a vehicle position calculated by the GPS receiver 106 receiving a radio wave from a GPS satellite, and a vehicle angular velocity detected by the gyro sensor 107. This is realized by mediating and storing in the storage device 102.

このように構成されたナビゲーション装置の建造物測定部7aの動作について、図8に示すフローチャートを用いて説明する。建造物特定部7aは、実施の形態1における建造物特定部7と同様の方法で注目建造物を特定するが、その際に立体モデルに付加された誤差範囲を考慮する。ステップ71、72、72a〜72c、73、74は、実施の形態1の同じ番号のステップと同様の動作をする。   The operation of the building measuring unit 7a of the navigation device configured as described above will be described with reference to the flowchart shown in FIG. The building specifying unit 7a specifies the building of interest by the same method as the building specifying unit 7 in the first embodiment, but considers the error range added to the three-dimensional model at that time. Steps 71, 72, 72 a to 72 c, 73, 74 perform the same operations as the steps with the same numbers in the first embodiment.

ステップ71aでは、誤差範囲の全ての条件下で評価値の算出を行ったかどうかを判定する。誤差範囲として例えば高さの範囲が設定されていた場合、立体モデルの各建造物の高さとして誤差範囲内の別の値を適用し、立体モデルを変形する。こうして変形した立体モデルの上で全ての建造物の評価値を再計算するために、建造物を1つ選択してステップ72に進む。ここで、一度適用した値は用いず、範囲内の全ての値を適用していた場合は、ステップ74に進む。また誤差範囲として複数のパラメータが設定されていた場合、その全ての組み合わせを適用する。   In step 71a, it is determined whether or not the evaluation value has been calculated under all conditions in the error range. For example, when a height range is set as the error range, another value within the error range is applied as the height of each building of the stereo model, and the stereo model is deformed. In order to recalculate the evaluation values of all the buildings on the three-dimensional model thus deformed, one building is selected and the process proceeds to step 72. Here, if all the values in the range are applied without using the value once applied, the process proceeds to step 74. If a plurality of parameters are set as the error range, all combinations thereof are applied.

ステップ73では、実施の形態1におけるステップ73と同様の方法を用いてステップ71で選択した建造物の評価値を算出する。ただしその際に、既に別の条件下で選択建造物の評価値を算出していた場合、大きい方の評価値を採用する。また、採用された方の評価値を与えた条件を記録しておく。   In step 73, the evaluation value of the building selected in step 71 is calculated using the same method as in step 73 in the first embodiment. However, at that time, if the evaluation value of the selected building has already been calculated under another condition, the larger evaluation value is adopted. In addition, the condition that gave the evaluation value of the adopted one is recorded.

ステップ74では、実施の形態1おけるステップ74と同様の方法を用いて指定された建造物を特定する。ここで、特定した建造物の評価値を与えた条件下で原点位置および奥行き方向が測位部2で得た自車位置姿勢と異なる場合、この値を測位部2にフィードバックすることで測位精度を向上させてもよい。   In step 74, the designated building is specified using the same method as in step 74 in the first embodiment. Here, when the origin position and the depth direction are different from the vehicle position / posture obtained by the positioning unit 2 under the condition where the evaluation value of the specified building is given, the positioning accuracy is improved by feeding back these values to the positioning unit 2. It may be improved.

なお、ここでは走行状況取得部10が車両の測位誤差を求め、モデル構築部6aが原点位置や奥行き方向の誤差を立体モデルに付加している。しかし、走行状況取得部10が無くても、モデル構築部6aは立体モデルの建造物に誤差範囲を付加し、建造物特定部7aが建造物の特定をすることができる。   Here, the traveling state acquisition unit 10 obtains a positioning error of the vehicle, and the model construction unit 6a adds an error in the origin position and the depth direction to the three-dimensional model. However, even without the traveling state acquisition unit 10, the model construction unit 6a adds an error range to the building of the three-dimensional model, and the building identification unit 7a can identify the building.

このように構成されたナビゲーション装置によれば、モデル構築部6aで誤差を考慮した立体モデルを構築することにより、地図情報および建造物情報に誤差がある場合でも、建造物の特定精度を高くすることができる。また、走行状況取得部10を設けたことにより、自車位置姿勢の誤差も考慮して、誤差を付加した立体モデルを構築するため、より建造物の特定精度を高くすることができる。   According to the navigation device configured in this manner, the model construction unit 6a constructs a three-dimensional model in consideration of errors, thereby increasing the accuracy of building identification even when there is an error in the map information and the building information. be able to. In addition, since the travel condition acquisition unit 10 is provided, a three-dimensional model to which an error is added is constructed in consideration of the error of the own vehicle position and orientation, and thus the accuracy of specifying the building can be further increased.

実施の形態3.
ここでは、建造物の色や模様といった属性類似度も考慮し、指定された建造物の特定精度を向上させる手法について述べる。図9は本発明の実施の形態3によるナビゲーション装置を示すシステム構成図である。図9における、地図建造物データベース1a、測位部2、画像取得部3、注目方向受取部4、形状認識部5、案内情報取得部8および表示部9は、先の実施の形態1と同じ働きをする。
Embodiment 3 FIG.
Here, a method for improving the specified accuracy of a designated building in consideration of attribute similarity such as the color and pattern of the building will be described. FIG. 9 is a system configuration diagram showing a navigation apparatus according to Embodiment 3 of the present invention. The map building database 1a, the positioning unit 2, the image acquisition unit 3, the attention direction receiving unit 4, the shape recognition unit 5, the guidance information acquisition unit 8 and the display unit 9 in FIG. 9 have the same functions as those of the first embodiment. do.

モデル構築部6bは、実施の形態1におけるモデル構築部6と同様の方法で自車周辺領域の立体モデルを構築する。そして構築した立体モデルの各点に対し、地図建造物データベース1aが持つ属性情報を関連付ける。建造物の属性情報とは例えば色、テクスチャ、材質などであり、それらの情報を地図建造物データベース1aが持っているものとする。   The model construction unit 6b constructs a three-dimensional model of the vehicle surrounding area by the same method as the model construction unit 6 in the first embodiment. And the attribute information which the map building database 1a has is linked | related with each point of the constructed stereo model. The attribute information of the building is, for example, color, texture, material, and the like, and it is assumed that the map building database 1a has such information.

属性認識部11は、画像取得部3によって取得した実写画像を用いて周辺建造物の属性情報を抽出する。ここで抽出する属性情報は、地図建造物データベース1aが持っているものと同様のものとする。建造物の属性は、画像取得部3で取得した画像から輝度値などを用いて平面抽出し、さらに抽出した平面に対してテクスチャ解析などを行うことで求める。平面抽出およびテクスチャ解析の方法としては、例えば「画像処理入門」ISBN4−7898−1834−9、P.50−62に記載された方法を用いる。   The attribute recognizing unit 11 extracts attribute information of the surrounding building using the photographed image acquired by the image acquiring unit 3. The attribute information extracted here is the same as that possessed by the map building database 1a. The attribute of the building is obtained by extracting a plane from the image acquired by the image acquisition unit 3 using a luminance value or the like, and further performing texture analysis or the like on the extracted plane. As methods of plane extraction and texture analysis, for example, “Introduction to Image Processing” ISBN 4-7898-1834-9, P.I. The method described in 50-62 is used.

図2で本発明の実施の形態3を実現するハードウェア構成を説明する。地図建造物データベース1a、測位部2、画像取得部3、注目方向受取部4、形状認識部5、モデル構築部6b、建造物特定部7b、案内情報取得部8、表示部9は実施の形態1と同様のハードウェア構成で実現する。属性認識部11は、画像取得部3において記憶装置102に格納された画像を用いて、CPU103が属性情報を抽出して記憶装置102に格納することで実現する。   A hardware configuration for realizing the third embodiment of the present invention will be described with reference to FIG. The map building database 1a, the positioning unit 2, the image acquisition unit 3, the attention direction receiving unit 4, the shape recognition unit 5, the model construction unit 6b, the building identification unit 7b, the guidance information acquisition unit 8, and the display unit 9 are the embodiments. 1 is realized with the same hardware configuration as in FIG. The attribute recognition unit 11 is realized by the CPU 103 using the image stored in the storage device 102 in the image acquisition unit 3 to extract attribute information and store it in the storage device 102.

このように構成されたナビゲーション装置の建造物測定部7bの動作について、図10に示すフローチャートを用いて説明する。建造物特定部7bは、実施の形態1における建造物特定部7と同様の方法で注目建造物を特定するが、その際に属性認識部11で抽出した属性情報を考慮する。ステップ71、72、72a〜72c、73、74は実施の形態1における同じ番号のステップと同様の動作をする。   The operation of the building measuring unit 7b of the navigation apparatus configured as described above will be described with reference to the flowchart shown in FIG. The building specifying unit 7b specifies the building of interest by the same method as the building specifying unit 7 in the first embodiment, but considers the attribute information extracted by the attribute recognizing unit 11 at that time. Steps 71, 72, 72 a to 72 c, 73, 74 operate in the same manner as the steps with the same numbers in the first embodiment.

ステップ72dでは、ステップ72で作成した投影画像を用いて、ステップ71で選択した建造物の属性類似度を算出する。ここで属性類似度は、自車の位置姿勢から見えるべき景色における選択建造物の属性情報と実際に撮影した画像が似ているほど値が大きくなるパラメータである。属性類似度は、例えば仮想空間内の選択建造物の投影画像から抽出した属性情報と、属性認識部11で抽出した実空間内の指定された建造物の属性情報とを比較する。属性情報として色を用いる場合、属性認識部11で抽出した実写画像中の各画素の輝度値と投影画像中の対応する画素の輝度値との差を求める。各画素について求めた輝度値の差の総和を求め、画素数で割った値の逆数を属性類似度とすればよい。   In step 72d, the attribute similarity of the building selected in step 71 is calculated using the projection image created in step 72. Here, the attribute similarity is a parameter whose value increases as the attribute information of the selected building in the scenery to be seen from the position and orientation of the host vehicle is similar to the actually captured image. For the attribute similarity, for example, the attribute information extracted from the projection image of the selected building in the virtual space is compared with the attribute information of the designated building in the real space extracted by the attribute recognition unit 11. When color is used as the attribute information, the difference between the luminance value of each pixel in the live-action image extracted by the attribute recognition unit 11 and the luminance value of the corresponding pixel in the projection image is obtained. What is necessary is just to obtain | require the sum total of the difference of the luminance value calculated | required about each pixel, and let the reciprocal number of the value divided by the pixel number be attribute similarity.

なお、夕暮れ等状況によって建造物の色が変化する場合は、例えば色差を用いるとよい。色差を求める式としては、例えばCIE1976L*a*b*の色差式を用いる。画像中で隣接する建造物に対してこの式を適用して得られる値と、立体モデル中で隣接する建造物に対してこの式を適用して得られる値とを比較し、これが近ければ類似度が高いと判定する。また、隣接する建造物との色差ではなく、画像全体の色を平均したものとの色差を求めるようにしてもよい。   In addition, when the color of a building changes with conditions, such as dusk, it is good to use a color difference, for example. As a formula for obtaining the color difference, for example, a color difference formula of CIE 1976 L * a * b * is used. Compare the value obtained by applying this formula to the adjacent building in the image with the value obtained by applying this formula to the adjacent building in the 3D model. It is determined that the degree is high. Moreover, you may make it obtain | require the color difference with what averaged the color of the whole image instead of the color difference with an adjacent building.

ステップ74では、実施の形態1におけるステップ74と同様の方法を用いて指定された建造物を特定する。   In step 74, the designated building is specified using the same method as in step 74 in the first embodiment.

このように構成されたナビゲーション装置によれば、属性情報を関連付けた立体モデルと属性認識部11を設けたことにより、建造物特定部7bで属性情報を考慮した評価関数によって建造物を特定できるため、自車位置姿勢、地図情報および建造物情報の誤差がある場合でも、建造物の特定精度を高くすることができる。また、状況によって建造物の属性情報が変化しても適切に建造物を特定する事ができる。   According to the navigation device configured in this manner, the building identifying unit 7b can identify the building by the evaluation function considering the attribute information by providing the attribute recognition unit 11 and the three-dimensional model associated with the attribute information. Even when there is an error in the vehicle position and orientation, the map information, and the building information, the building identification accuracy can be increased. Moreover, even if the attribute information of the building changes depending on the situation, the building can be specified appropriately.

実施の形態4.
ここでは、地面の起伏を認識する事で立体モデルの精度を向上させ、指定された建造物の特定精度を向上させる手法について述べる。図11は本発明の実施の形態4によるナビゲーション装置を示すシステム構成図である。この図における、地図建造物データベース1、測位部2、画像取得部3、注目方向受取部4、形状認識部5、建造物特定部7、案内情報取得部8および表示部9は、先の実施の形態1と同じ働きをする。図11において、地図建造物データベース1が地図の詳細な標高情報を持っていないと、モデル構築部6cで構築する立体モデルが不正確なものとなり、建造物特定部7による建造物特定精度が低くなる。
Embodiment 4 FIG.
Here, a technique for improving the accuracy of the three-dimensional model by recognizing the undulations of the ground and improving the specified accuracy of the designated building will be described. FIG. 11 is a system configuration diagram showing a navigation apparatus according to Embodiment 4 of the present invention. In this figure, the map building database 1, positioning unit 2, image acquisition unit 3, attention direction receiving unit 4, shape recognition unit 5, building identification unit 7, guidance information acquisition unit 8 and display unit 9 Works the same as Form 1. In FIG. 11, if the map building database 1 does not have detailed elevation information of the map, the three-dimensional model constructed by the model construction unit 6c becomes inaccurate, and the building identification accuracy by the building identification unit 7 is low. Become.

起伏認識部12は、画像取得部3から取得した実写画像から、自車周辺の地面の起伏を認識する。自車周辺の起伏は、例えば実写画像から道路面を抽出して消失点を求め、その消失点の画像上の位置から自車姿勢に対する周辺道路の傾斜を求める。消失点の決定方法としては、例えば「画像処理入門」ISBN4−7898−1834−9、P.50−62に記載された方法を用いる。   The undulation recognition unit 12 recognizes the undulation of the ground around the own vehicle from the photographed image acquired from the image acquisition unit 3. For the undulations around the own vehicle, for example, the vanishing point is obtained by extracting the road surface from the photographed image, and the inclination of the surrounding road with respect to the own vehicle posture is obtained from the position of the vanishing point on the image. As a method for determining the vanishing point, for example, “Introduction to Image Processing” ISBN 4-7898-1834-9, P.I. The method described in 50-62 is used.

モデル構築部6cは、測位部2から取得した自車位置姿勢を用い、自車位置を原点として自車姿勢の方向を奥行き方向とした周辺領域を設定する。そして、地図建造物データベース1から周辺領域に位置する建造物の立体形状情報を取得する。また、起伏認識部11から周辺起伏を取得する。取得した建造物の立体形状情報に含まれる敷地形状を用いて、その建造物が面している道路上の地点の地図上の位置を計算する。具体的には、建造物の敷地に隣接する道路のうちで自車に最も近い道路に対して、敷地の中心から垂線を引く。その垂線と道路の交点が、求める地点となる。そして、周辺起伏を用いて、自車位置とその地点の標高差を計算し、建造物の立体形状情報と合わせて立体モデルを構築すればよい。その後の建造物の特定は実施の形態1と同様に行う。   The model construction unit 6c uses the host vehicle position / posture acquired from the positioning unit 2 and sets a peripheral region with the host vehicle position as the origin and the direction of the host vehicle posture as the depth direction. Then, the three-dimensional shape information of the building located in the peripheral region is acquired from the map building database 1. Further, the surrounding relief is obtained from the relief recognition unit 11. Using the site shape included in the acquired three-dimensional shape information of the building, the position on the map of the point on the road that the building faces is calculated. Specifically, a perpendicular line is drawn from the center of the site with respect to the road closest to the vehicle among the roads adjacent to the site of the building. The intersection of the perpendicular and the road becomes the desired point. Then, the elevation difference between the vehicle position and the point is calculated using the surrounding undulations, and a three-dimensional model may be constructed together with the three-dimensional shape information of the building. Subsequent building identification is performed in the same manner as in the first embodiment.

図2で本発明の実施の形態4を実現するハードウェア構成を説明する。地図建造物データベース1、測位部2、画像取得部3、注目方向受取部4、形状認識部5、モデル構築部6c、建造物特定部7、案内情報取得部8、表示部9は実施の形態1と同様のハードウェア構成で実現する。起伏認識部12は、画像取得部3において記憶装置102に格納された画像を用いて、CPU103が周辺起伏を計算して記憶装置102に格納することで実現する。   A hardware configuration for realizing the fourth embodiment of the present invention will be described with reference to FIG. The map building database 1, the positioning unit 2, the image acquisition unit 3, the attention direction receiving unit 4, the shape recognition unit 5, the model construction unit 6c, the building identification unit 7, the guidance information acquisition unit 8, and the display unit 9 are embodiments. 1 is realized with the same hardware configuration as in FIG. The undulation recognition unit 12 is realized by the CPU 103 using the image stored in the storage device 102 in the image acquisition unit 3 to calculate the peripheral undulation and store it in the storage device 102.

このように構成されたナビゲーション装置によれば、起伏認識部12を設けたので、モデル構築部6cで高精度な立体モデルを構築することができ、地図情報に標高情報が含まれていない場合や不十分な場合でも、建造物の特定精度を高くすることができる。   According to the navigation device configured as described above, since the undulation recognition unit 12 is provided, the model construction unit 6c can construct a highly accurate three-dimensional model, and the map information includes no elevation information. Even when it is insufficient, it is possible to increase the accuracy of building identification.

実施の形態5.
運転者は、運転状況によってはナビゲーション装置を操作できずに、建造物を行き過ぎてしまい、適切な情報が得られない事がある。ここでは、車両の位置姿勢と実写画像を保存することにより、余裕のある時などに過去の画像から建造物を特定できるようにするものについて述べる。図12は本発明の実施の形態5によるナビゲーション装置を示すシステム構成図である。この図における、地図建造物データベース1、測位部2、画像取得部3、建造物特定部7、案内情報取得部8および表示部9は、先の実施の形態1と同じ働きをする。
Embodiment 5 FIG.
Depending on the driving situation, the driver may not be able to operate the navigation device, and may go too far over the building, thus failing to obtain appropriate information. Here, a description will be given of what enables a building to be identified from past images by saving the position and orientation of a vehicle and a live-action image when there is room. FIG. 12 is a system configuration diagram showing a navigation apparatus according to Embodiment 5 of the present invention. In this figure, the map building database 1, the positioning unit 2, the image acquisition unit 3, the building identification unit 7, the guidance information acquisition unit 8 and the display unit 9 perform the same functions as those in the first embodiment.

保存部13は、測位部2から取得した自車の位置姿勢と画像取得部3から取得した実写画像を取得した時刻と関連付けて保存する。そして、保存した実写画像を再生してユーザに選択させ、注目方向受取部4および形状認識部5にその画像を渡す。さらに、その画像と同じ時刻に関連付けられた自車位置姿勢をモデル構築部6に渡す。ここで、本手法での利用において適切な画像のみを保存するようにしてもよい。不適切な画像としては、例えば明るすぎる画像、暗すぎる画像、ぶれている画像、先行車両によって周辺の建造物が見えない画像、現在地点から遠い地点の画像などがある。保存する画像を減らすことにより、メモリ使用量を抑制するとともに、画像の検索性を向上させることができる。また、画像の検索性を向上させる方法として、交差点を通過した時点などを区切りとして、保存する画像を階層化する方法を取ってもよい。   The storage unit 13 stores the position and orientation of the host vehicle acquired from the positioning unit 2 and the actual captured image acquired from the image acquisition unit 3 in association with the acquired time. Then, the stored real image is played back and selected by the user, and the image is transferred to the attention direction receiving unit 4 and the shape recognition unit 5. Further, the vehicle position / posture associated with the same time as the image is passed to the model construction unit 6. Here, only an image suitable for use in the present method may be stored. Examples of inappropriate images include images that are too bright, images that are too dark, images that are blurred, images in which surrounding buildings are not visible due to the preceding vehicle, and images that are far from the current location. By reducing the number of images to be saved, the memory usage can be suppressed and the searchability of the images can be improved. Further, as a method for improving the searchability of the image, a method of hierarchizing the images to be stored may be taken with the time point of passing through the intersection as a break.

注目方向受取部4および形状認識部5は、保存部13から取得した実写画像を用いて、実施の形態1における注目方向受取部4および形状認識部5と同様の働きをする。モデル構築部6は、保存部13から取得した自車位置姿勢を用いて、実施の形態1におけるモデル構築部6と同様の働きをする。   The attention direction receiving unit 4 and the shape recognizing unit 5 function in the same manner as the attention direction receiving unit 4 and the shape recognizing unit 5 in the first embodiment, using the captured image acquired from the storage unit 13. The model building unit 6 functions in the same manner as the model building unit 6 in the first embodiment using the own vehicle position / posture acquired from the storage unit 13.

図2で本発明の実施の形態5を実現するハードウェア構成を説明する。地図建造物データベース1、測位部2、画像取得部3、注目方向受取部4、形状認識部5、モデル構築部6、建造物特定部7、案内情報取得部8、表示部9は実施の形態1と同様のハードウェア構成で実現する。保存部13は、画像取得部3において記憶装置102に格納された画像および測位部2において記憶領域102に格納された自車位置姿勢を、十分な大きさで確保された記憶装置102の別領域に格納することで実現する。   A hardware configuration for realizing the fifth embodiment of the present invention will be described with reference to FIG. The map building database 1, the positioning unit 2, the image acquisition unit 3, the attention direction receiving unit 4, the shape recognition unit 5, the model construction unit 6, the building identification unit 7, the guidance information acquisition unit 8, and the display unit 9 are embodiments. 1 is realized with the same hardware configuration as in FIG. The storage unit 13 is a separate region of the storage device 102 in which the image stored in the storage device 102 in the image acquisition unit 3 and the own vehicle position and orientation stored in the storage region 102 in the positioning unit 2 are secured with a sufficient size. This is realized by storing in.

このように構成されたナビゲーション装置によれば、保存部13を設けたことにより、ユーザが過去の画像から建造物を指定できるため、ユーザが運転状況などに応じて安全かつ効果的に建造物の情報を取得することができ、ユーザの負担を軽減させることができる。   According to the navigation device configured as described above, since the storage unit 13 is provided, the user can designate a building from a past image. Therefore, the user can safely and effectively edit the building according to the driving situation. Information can be acquired and the burden on the user can be reduced.

この発明の実施の形態1を示すナビゲーション装置のシステム構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a system block diagram of the navigation apparatus which shows Embodiment 1 of this invention. この発明の実施の形態1〜5を示すナビゲーション装置の実現方法を示すハードウェア構成図の一例である。It is an example of the hardware block diagram which shows the implementation | achievement method of the navigation apparatus which shows Embodiment 1-5 of this invention. この発明の実施の形態1を示す建造物特定部7の処理のフローチャートである。It is a flowchart of a process of the building specific | specification part 7 which shows Embodiment 1 of this invention. この発明の実施の形態1を示すナビゲーション装置の説明図である。It is explanatory drawing of the navigation apparatus which shows Embodiment 1 of this invention. この発明の実施の形態1を示すナビゲーション装置の説明図である。It is explanatory drawing of the navigation apparatus which shows Embodiment 1 of this invention. この発明の実施の形態1を示す建造物特定部7が評価値を計算する際のイメージを示す概要図である。It is a schematic diagram which shows the image at the time of the building specific | specification part 7 which shows Embodiment 1 of this invention calculating an evaluation value. この発明の実施の形態2を示すナビゲーション装置を示す構成図である。It is a block diagram which shows the navigation apparatus which shows Embodiment 2 of this invention. この発明の実施の形態2を示す建造物特定部7aの処理のフローチャートである。It is a flowchart of a process of the building specific | specification part 7a which shows Embodiment 2 of this invention. この発明の実施の形態3を示すナビゲーション装置を示す構成図である。It is a block diagram which shows the navigation apparatus which shows Embodiment 3 of this invention. この発明の実施の形態3を示す建造物特定部7bの処理のフローチャートである。It is a flowchart of the process of the building specific | specification part 7b which shows Embodiment 3 of this invention. この発明の実施の形態4を示すナビゲーション装置を示す構成図である。It is a block diagram which shows the navigation apparatus which shows Embodiment 4 of this invention. この発明の実施の形態5を示すナビゲーション装置を示す構成図である。It is a block diagram which shows the navigation apparatus which shows Embodiment 5 of this invention.

符号の説明Explanation of symbols

1、1a 地図建造物データベース
2 測位部
3 画像取得部
4 注目方向受取部
5 形状認識部
6、6a、6b、6c モデル構築部
7、7a、7b 建造物特定部
8 案内情報取得部
9 表示部
10 走行状況取得部
11 属性認識部
12 起伏認識部
13 保存部
101 CPU
102 記憶装置
103 マイコンインタフェース
104 外部機器インタフェース
105 車両インタフェース
106 GPSレシーバ
107 ジャイロセンサ
108 映像出力装置
109 音響出力装置
110 HMI装置
111 カメラ
DESCRIPTION OF SYMBOLS 1, 1a Map building database 2 Positioning part 3 Image acquisition part 4 Attention direction receiving part 5 Shape recognition part 6, 6a, 6b, 6c Model construction part 7, 7a, 7b Building specification part 8 Guidance information acquisition part 9 Display part DESCRIPTION OF SYMBOLS 10 Running condition acquisition part 11 Attribute recognition part 12 Unevenness recognition part 13 Storage part 101 CPU
102 Storage Device 103 Microcomputer Interface 104 External Device Interface 105 Vehicle Interface 106 GPS Receiver 107 Gyro Sensor 108 Video Output Device 109 Sound Output Device 110 HMI Device 111 Camera

Claims (6)

車両の現在位置を求める測位部と、
地図及び建造物情報を記憶した地図建造物データベースと、
前記測位部からの現在位置情報と前記地図建造物データベースからの地図及び建造物情報から現在位置周辺の立体モデルを構築するモデル構築部と、
現在位置の周辺を撮像し実写画像を取得する画像取得部と、
前記画像取得部からの実写画像を画面に表示する表示装置において、指定された建造物の画面上の位置情報を受取り、現在位置に対する前記指定された建造物への方向を求める注目方向受取部と、
前記画像取得部からの実写画像から周辺建造物の形状的特徴情報を抽出する形状認識部と、
前記モデル構築部からの立体モデルと前記注目方向受取部からの方向と前記形状認識部からの形状的特徴情報を用いて表示画面上において指定された建造物が立体モデルの中のどの建造物であるかを特定する建造物特定部と、
前記建造物特定部で特定された建造物の案内情報を前記地図建造物データベースから取得する案内情報取得部と、
前記案内情報取得部からの案内情報を音声又は映像の少なくとも1つで出力する表示部とを備えたナビゲーション装置。
A positioning unit for determining the current position of the vehicle;
A map building database that stores map and building information;
A model building unit for building a three-dimensional model around the current position from the current position information from the positioning unit and the map and building information from the map building database;
An image acquisition unit that captures the vicinity of the current position and acquires a real image;
In a display device that displays a live-action image from the image acquisition unit on a screen, an attention direction receiving unit that receives position information on a screen of a designated building and obtains a direction to the designated building with respect to a current position; ,
A shape recognizing unit that extracts shape characteristic information of a surrounding building from a photographed image from the image acquiring unit;
The building specified on the display screen using the three-dimensional model from the model building unit, the direction from the attention direction receiving unit, and the geometric feature information from the shape recognition unit is any building in the three-dimensional model. A building identification part that identifies whether there is,
A guide information acquisition unit for acquiring the guide information of the building specified by the building specifying unit from the map building database;
A navigation device comprising: a display unit that outputs the guidance information from the guidance information acquisition unit in at least one of audio and video.
建造物特定部は、表示画面上において指定された建造物への方向と立体モデル内の各建造物への方向とが同じになる様に前記立体モデルを移動して作成した仮想画像を元に、
前記仮想画像内の前記各建造物の大きさから算出される可視度、
前記立体モデルの移動角度から算出される方向一致度、
形状認識部からの前記指定された建造物の形状的特徴情報と前記仮想画像内の前記各建造物の形状的特徴情報とを照合して算出される形状類似度のうち少なくとも一つによる評価値を求めて、
前記評価値の最も高いものを前記指定された建造物と特定する請求項1記載のナビゲーション装置。
Based on the virtual image created by moving the 3D model so that the direction to the building specified on the display screen is the same as the direction to each building in the 3D model ,
Visibility calculated from the size of each building in the virtual image,
Direction coincidence calculated from the movement angle of the three-dimensional model;
An evaluation value based on at least one of the shape similarities calculated by comparing the shape feature information of the designated building from the shape recognition unit and the shape feature information of each building in the virtual image In search of
The navigation device according to claim 1, wherein the highest evaluation value is specified as the designated building.
建造物特定部は、モデル構築部からの誤差範囲を設定した立体モデルを用いて、指定された建造物を特定する請求項1記載のナビゲーション装置。 The navigation apparatus according to claim 1, wherein the building specifying unit specifies a designated building using a three-dimensional model in which an error range from the model building unit is set. 地図建造物データベースの建造物情報は、位置、敷地形状、階数、色彩及び模様を含み、
画像取得部からの実写画像から建造物の色彩及び模様を抽出する属性認識部を更に備え、
建造物特定部は、表示画面上において指定された建造物への方向と色彩及び模様情報が関連付けられた立体モデル内の各建造物への方向とが同じになる様に前記立体モデルを移動して作成した仮想画像を元に、
前記属性認識部からの色彩及び模様情報と前記仮想画像からの色彩及び模様情報とを照合して算出される属性類似度、
前記仮想画像内の前記各建造物の大きさから算出される可視度、
前記立体モデルの移動角度から算出される方向一致度、
形状認識部からの前記指定された建造物の形状的特徴情報と前記仮想画像内の前記各建造物の形状的特徴情報とを照合して算出される形状類似度のうち少なくとも一つによる評価値を求めて、
前記評価値の最も高いものを前記指定された建造物と特定する請求項1記載のナビゲーション装置。
The building information in the map building database includes location, site shape, number of floors, color and pattern,
An attribute recognizing unit for extracting the color and pattern of the building from the live-action image from the image acquiring unit;
The building specifying unit moves the 3D model so that the direction to the building specified on the display screen is the same as the direction to each building in the 3D model associated with the color and pattern information. Based on the virtual image created
Attribute similarity calculated by comparing color and pattern information from the attribute recognition unit with color and pattern information from the virtual image,
Visibility calculated from the size of each building in the virtual image,
Direction coincidence calculated from the movement angle of the three-dimensional model;
An evaluation value based on at least one of the shape similarities calculated by comparing the shape feature information of the designated building from the shape recognition unit and the shape feature information of each building in the virtual image In search of
The navigation device according to claim 1, wherein the highest evaluation value is specified as the designated building.
画像取得部からの実写画像から車両周辺の起伏を求める起伏認識部を更に備え、
モデル構築部は、測位部からの現在位置情報と地図建造物データベースからの地図及び建造物情報と前記起伏認識部からの起伏情報から現在位置周辺の立体モデルを構築し、
建造物特定部は、前記モデル構築部からの立体モデルと注目方向受取部からの方向と形状認識部からの形状的特徴情報を用いて表示画面上において指定された建造物が立体モデルの中のどの建造物であるかを特定する請求項1記載のナビゲーション装置。
Further comprising a undulation recognition unit for obtaining the undulations around the vehicle from the actual image from the image acquisition unit,
The model construction unit constructs a three-dimensional model around the current position from the current position information from the positioning unit and the map and building information from the map building database and the undulation information from the undulation recognition unit,
The building specifying unit uses the 3D model from the model building unit, the direction from the target direction receiving unit, and the shape feature information from the shape recognition unit to identify the building specified on the display screen in the 3D model. The navigation apparatus according to claim 1, wherein the navigation apparatus identifies which building.
測位部と画像取得部の情報を保存する保存部を更に備えた請求項1記載のナビゲーション装置。 The navigation apparatus according to claim 1, further comprising a storage unit that stores information on the positioning unit and the image acquisition unit.
JP2008073442A 2008-03-21 2008-03-21 Navigation device Pending JP2009229180A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008073442A JP2009229180A (en) 2008-03-21 2008-03-21 Navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008073442A JP2009229180A (en) 2008-03-21 2008-03-21 Navigation device

Publications (1)

Publication Number Publication Date
JP2009229180A true JP2009229180A (en) 2009-10-08

Family

ID=41244761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008073442A Pending JP2009229180A (en) 2008-03-21 2008-03-21 Navigation device

Country Status (1)

Country Link
JP (1) JP2009229180A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4856291B1 (en) * 2011-01-26 2012-01-18 パイオニア株式会社 Display device and control method
JP2013214913A (en) * 2012-04-04 2013-10-17 Nikon Corp Display device, display method, and display program
JP2017515101A (en) * 2014-05-08 2017-06-08 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Apparatus and method for providing information data relating to vehicle periphery objects of a vehicle contained in a video image stream
JP2019160227A (en) * 2018-03-16 2019-09-19 株式会社Lifull Information providing system, server device, and information providing method
CN112348886A (en) * 2019-08-09 2021-02-09 华为技术有限公司 Visual positioning method, terminal and server
CN113581256A (en) * 2021-09-02 2021-11-02 浙江众合科技股份有限公司 BIM and GIS technology-based train autonomous positioning method and system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007080060A (en) * 2005-09-15 2007-03-29 Matsushita Electric Ind Co Ltd Object specification device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007080060A (en) * 2005-09-15 2007-03-29 Matsushita Electric Ind Co Ltd Object specification device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4856291B1 (en) * 2011-01-26 2012-01-18 パイオニア株式会社 Display device and control method
JP2013214913A (en) * 2012-04-04 2013-10-17 Nikon Corp Display device, display method, and display program
JP2017515101A (en) * 2014-05-08 2017-06-08 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Apparatus and method for providing information data relating to vehicle periphery objects of a vehicle contained in a video image stream
JP2019160227A (en) * 2018-03-16 2019-09-19 株式会社Lifull Information providing system, server device, and information providing method
CN112348886A (en) * 2019-08-09 2021-02-09 华为技术有限公司 Visual positioning method, terminal and server
CN113581256A (en) * 2021-09-02 2021-11-02 浙江众合科技股份有限公司 BIM and GIS technology-based train autonomous positioning method and system

Similar Documents

Publication Publication Date Title
JP6763448B2 (en) Visually enhanced navigation
JP5901779B2 (en) How to move data from image database map service into assist system
JP5062498B2 (en) Reference data generation system and position positioning system for landscape matching
JP2020500767A (en) Automatic vehicle parking system and method
CN109791052A (en) For generate and using locating reference datum method and system
JP2018084573A (en) Robust and efficient algorithm for vehicle positioning and infrastructure
JP2011529569A (en) Computer apparatus and method for displaying navigation data in three dimensions
JP5760696B2 (en) Image recognition device
JP2011511281A (en) Map matching method with objects detected by sensors
JP2010511212A (en) Method and apparatus for identifying and locating planar objects in an image
CN103890606A (en) Methods and systems for creating maps with radar-optical imaging fusion
KR20070057561A (en) Apparatus, system, and method for mapping information
US11454502B2 (en) Map feature identification using motion data and surfel data
JPWO2017072955A1 (en) Parking assistance device and parking assistance method
JP2009229180A (en) Navigation device
US20200109962A1 (en) Method and system for generating navigation data for a geographical location
EP3665586A1 (en) Method, apparatus and computer program product for disambiguation of points-of-interest in a field of view
US11361490B2 (en) Attention guidance for ground control labeling in street view imagery
EP2988097B1 (en) Driving support system, method, and program
WO2017199369A1 (en) Physical object recognition device, physical object recognition method, and program
JP2019117214A (en) Object data structure
JP2012189477A (en) Route display device, method and program
JP2019117432A (en) Display control device
JP2019117052A (en) Display control device
JP2011179920A (en) Display control device, display control method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120110