JPWO2005038402A1 - Navigation device - Google Patents

Navigation device Download PDF

Info

Publication number
JPWO2005038402A1
JPWO2005038402A1 JP2005514748A JP2005514748A JPWO2005038402A1 JP WO2005038402 A1 JPWO2005038402 A1 JP WO2005038402A1 JP 2005514748 A JP2005514748 A JP 2005514748A JP 2005514748 A JP2005514748 A JP 2005514748A JP WO2005038402 A1 JPWO2005038402 A1 JP WO2005038402A1
Authority
JP
Japan
Prior art keywords
camera
feature point
dimensional
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005514748A
Other languages
Japanese (ja)
Other versions
JP4273119B2 (en
Inventor
岩根 和郎
和郎 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JPWO2005038402A1 publication Critical patent/JPWO2005038402A1/en
Application granted granted Critical
Publication of JP4273119B2 publication Critical patent/JP4273119B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments

Abstract

誤差数cmの範囲で移動体の現在位置を示すことができるナビゲーションシステムを提供する。 ナビゲーション装置100は、車両等の移動体に備えられたカメラにより得られる現実の映像に基づき、当該移動体から観察される範囲における映像的な特徴点の三次元座標を含む所定の三次元情報を予め生成する特徴点三次元地図生成装置110と、その所定の三次元情報を記録した記録媒体120と、移動体に備えられたカメラにより得られる現実の映像を、記録媒体120に記録された所定の三次元情報と比較し、現実の映像と一致する三次元座標上の地点と方向を求め、移動体に備えられたカメラの三次元座標上の位置,速度,加速度,視点方向,3軸回転姿勢,3軸回転速度,3軸回転加速度等の所定項目を出力,表示する地点検索ナビゲーション装置130とを備えている。Provided is a navigation system that can indicate a current position of a moving body within an error of several centimeters. The navigation device 100 obtains predetermined three-dimensional information including three-dimensional coordinates of video feature points in a range observed from the moving body based on a real image obtained by a camera provided on the moving body such as a vehicle. A feature point 3D map generation apparatus 110 to be generated in advance, a recording medium 120 on which the predetermined 3D information is recorded, and a real image obtained by a camera provided on the moving body are recorded on the recording medium 120. Compared with the 3D information of the camera, the position and direction on the 3D coordinates that match the actual image are obtained, and the position, speed, acceleration, viewpoint direction, and 3-axis rotation of the camera provided in the moving body And a point search navigation device 130 for outputting and displaying predetermined items such as posture, triaxial rotational speed, triaxial rotational acceleration, and the like.

Description

本発明は、車両や船舶,航空機等の移動体の進行方向や現在状況等をガイドするためのナビゲーション装置に関する。特に、本発明は、走行,航行する移動体の現在位置を三次元の空間内に探索して、移動体の進行方向や車両姿勢等とともに三次元地図上に表示することにより、移動する移動体の現在状況を高精度に出力,表示することができるナビゲーション装置に関する。  The present invention relates to a navigation device for guiding a traveling direction, a current situation, and the like of a moving body such as a vehicle, a ship, and an aircraft. In particular, the present invention searches for a current position of a moving body that travels and sails in a three-dimensional space and displays it on a three-dimensional map together with the traveling direction of the moving body, the vehicle posture, and the like, thereby moving the moving body. The present invention relates to a navigation device that can output and display the current status of the system with high accuracy.

一般に、車両等の移動をナビゲートするナビゲーション装置としては、GPS測地衛星を利用したカーナビゲーションシステムが知られている(例えば、特許文献1−3参照。)。
GPSナビゲーションシステムは、複数の測地衛星から発せられる時刻と位置データを、車両に設置した受信装置で読み取り、各衛星からの電波到達時間の差から受信地点の三次元座標を演算により求め、車両等の現在位置を表示するものである。このようなGPSナビゲーションシステムによれば、全地球的な範囲で受信地点の三次元位置を計測することができる。
In general, a car navigation system using a GPS geodetic satellite is known as a navigation device for navigating the movement of a vehicle or the like (see, for example, Patent Documents 1-3).
The GPS navigation system reads the time and position data emitted from a plurality of geodetic satellites with a receiving device installed in the vehicle, calculates the three-dimensional coordinates of the receiving point from the difference in radio wave arrival time from each satellite, The current position of is displayed. According to such a GPS navigation system, the three-dimensional position of the reception point can be measured in a global range.

ここで、GPSナビゲーションシステムで得られる位置精度としては、従来は、電離層における電波の反射や屈折等の影響があり、誤差が50〜300メートルというところであった。
近年は、緯度・経度・高度の既知の点を利用して電波到達時間の誤差を計測し、それを修正信号として送信して受信地点の誤差を修正する方法が付加されるようになり、誤差は十数メートル程度まで縮小されるようになった。
Here, as the position accuracy obtained by the GPS navigation system, conventionally, there is an influence of radio wave reflection and refraction in the ionosphere, and the error is 50 to 300 meters.
In recent years, a method has been added to measure the error of radio wave arrival time using known points of latitude, longitude, and altitude, and to transmit it as a correction signal to correct the error at the receiving point. Has been reduced to about a dozen meters.

特開平11−304513号JP-A-11-304513 特開2001−255157号JP 2001-255157 A 特開2002−357430号JP 2002-357430 A

しかしながら、このように位置精度の誤差が数十メートルの範囲にある従来のナビゲーションシステムでは、誤差が大きすぎて自動運転等には適用できなかった。例えば、道路上で車両の自動運転を実現するためには、道路上の車両位置精度を数cm程度の誤差にまで高める必要があり、この精度は測量の精度に近く、従来のナビゲーションシステムを利用する限り、いかなる方法であっても、数cmの精度で、しかも、リアルタイムに連続的な位置計測をして、それを出力するようなことは不可能であった。
また、自動運転に限らず、例えば、自動車の車庫入れや、航空機の離着陸時、ロボットのナビゲーションなどに用いる場合にも、数cm程度の位置精度をリアルタイムに取得することが必要であり、このようなナビゲーションシステムは現在まで実現されていない。
However, in the conventional navigation system in which the positional accuracy error is in the range of several tens of meters as described above, the error is too large to be applied to automatic driving or the like. For example, in order to realize automatic driving of a vehicle on a road, it is necessary to increase the vehicle position accuracy on the road to an error of about several centimeters. This accuracy is close to the accuracy of surveying and uses a conventional navigation system. As long as this is done, it is impossible to measure the position continuously in real time with a precision of several centimeters and output it.
In addition to automatic driving, it is necessary to obtain a positional accuracy of about several centimeters in real time even when used for, for example, car garage entry, aircraft takeoff and landing, robot navigation, etc. No navigation system has been realized so far.

そこで、本願発明者は、鋭意研究の結果、移動体に搭載したカメラで撮影される動画映像の複数のフレーム画像から充分な数の特徴点を自動検出し、各フレーム間で特徴点を自動追跡し、多数の特徴点について重複演算してカメラ位置と回転角を高精度に求めることができ、そのカメラ位置情報により、移動体の三次元位置座標を高精度に表示し得ることに想到した。  Therefore, as a result of earnest research, the inventor of the present application automatically detects a sufficient number of feature points from a plurality of frame images of a moving image captured by a camera mounted on a moving body, and automatically tracks the feature points between frames. Then, it has been conceived that the camera position and the rotation angle can be obtained with high accuracy by overlapping calculation for a large number of feature points, and the three-dimensional position coordinates of the moving object can be displayed with high accuracy by the camera position information.

すなわち、本発明は、従来の技術が有する問題を解決するために提案されたものであり、画像処理技術を用いて、移動体の移動経路について予め特徴点の三次元座標を精度良く計測しておき、その三次元座標と、現実の移動体の移動時に撮影されるカメラ映像を対比することにより、移動体のカメラ位置を示す三次元座標をGPSシステムより高精度に求め得ることができ、誤差数cmの範囲で移動体の現在位置を示すことができるナビゲーション装置の提供を目的とする。  That is, the present invention has been proposed in order to solve the problems of the prior art, and by using an image processing technique, the three-dimensional coordinates of the feature points are accurately measured in advance for the moving path of the moving object. In addition, by comparing the three-dimensional coordinates with the camera image taken when the actual moving body moves, the three-dimensional coordinates indicating the camera position of the moving body can be obtained with high accuracy from the GPS system, and the error It is an object of the present invention to provide a navigation device that can indicate the current position of a moving body within a range of several centimeters.

上記目的を達成するため、本発明のナビゲーション装置は、ナビゲーション対象となる移動体から観察される範囲における映像的な特徴点を三次元座標で記録した記録媒体と、ナビゲーション対象となる移動体に備えられたカメラにより得られる現実の映像を、記録媒体を再生して得られる映像的な特徴点の三次元座標と比較し、現実の映像と一致する三次元座標上の地点と方向を求め、移動体に備えられたカメラの三次元座標上の位置、速度、加速度、視点方向、3軸回転姿勢、3軸回転速度、3軸回転加速度を含む所定項目のうち、いずれか又はそれらを組み合わせた複数の項目を出力する地点検索ナビゲーション装置とを備える構成としてある。  In order to achieve the above object, a navigation device according to the present invention includes a recording medium in which video feature points in a range observed from a moving object to be navigated are recorded in three-dimensional coordinates, and a moving object to be navigated. Compare the 3D coordinates of the video feature points obtained by reproducing the recording medium with the actual video obtained by the camera, find the point and direction on the 3D coordinates that match the actual video, and move 3D coordinate position, speed, acceleration, viewpoint direction, 3-axis rotation posture, 3-axis rotation speed, 3-axis rotation acceleration of the camera provided on the body, or any combination thereof And a point search navigation device that outputs the item.

また、本発明のナビゲーション装置は、記録媒体に記録される情報が、移動体から観察される範囲における映像的な特徴点の種類とその三次元座標と、映像的な特徴点を含む小領域の二次元画像の三次元配置とその三次元座標と、映像的な特徴点を含む対象物の形状とその三次元座標と、映像的な特徴点以外の移動体の移動に必要な周辺画像,CG等の形状と三次元座標と、移動体が移動する道路,車両走行路,又は予定航路等の画像,CGとその三次元形状及びその三次元座標とを含み、これら各情報は、いずれか又はそれらの組み合わせ又はそれら全部、又はそれらの属性情報を含んで、三次元地図とともに記録される構成としてある。  In addition, the navigation device of the present invention provides information recorded on a recording medium in a small area including a type of video feature point, its three-dimensional coordinates, and a video feature point in a range observed from a moving body. Three-dimensional arrangement of two-dimensional images, their three-dimensional coordinates, shapes of objects including video feature points, their three-dimensional coordinates, and peripheral images necessary for movement of moving objects other than video feature points, CG The shape and three-dimensional coordinates, etc., an image of a road on which the moving body moves, a vehicle traveling path, a planned route, etc., CG, its three-dimensional shape, and its three-dimensional coordinates, A combination thereof, all of them, or their attribute information is recorded together with the three-dimensional map.

また、本発明のナビゲーション装置は、地点探索ナビゲーション装置が、記録媒体を再生する特徴点3D地図再生部と、移動体の概略の現在位置を指定し、初期設定時の探索範囲を限定する概略現在位置指定部と、記録媒体に記録された三次元地図から、移動体の現在地周辺の複数の特徴点を読み出し、現在地の探索目標として指定する現在地周辺特徴点指定部と、ナビゲーション対象となる移動体に備えられたカメラから当該移動体周囲の映像を取得するカメラ映像取得部と、カメラ映像取得部で取得された映像を記録する映像一時記録部と、映像一時記録部に記録された映像内に、探索目標と同一物となるべき特徴点の候補を探し出す映像内特徴点探索部と、映像内特徴点探索部で得られた特徴点の候補と、現在地周辺の探索目標とを比較照合して同一物としての対応関係を求め、候補の中から所定数の対応点を決定し、決定された対応点の三次元座標を記録媒体から受け取る映像内特徴点対応部と、決定された対応点とその三次元座標を用いて、移動体の現時点の状況を示すカメラ位置,方向,姿勢等の三次元データを演算により決定するカメラ座標演算部と、カメラ座標演算部で決定された三次元データの組み合わせ又はそのすべてを、単独で又は記録媒体に記録された地図、映像、属性等の情報とともに画面上に表示する現在地点表示部とを備える構成としてある。  In the navigation device of the present invention, the point search navigation device designates the feature point 3D map reproduction unit for reproducing the recording medium and the approximate current position of the moving object, and the approximate current for limiting the search range at the initial setting. A location specifying unit, a current location surrounding feature point designating unit that reads out a plurality of feature points around the current location of the moving object from a three-dimensional map recorded on a recording medium, and designates it as a search target for the current location, and a moving object that is a navigation target In the video recorded in the video recording unit, a camera video acquisition unit that acquires the video around the moving body from the camera provided in the camera, a video temporary recording unit that records the video acquired by the camera video acquisition unit, The feature point search unit in the image for finding candidate feature points that should be the same as the search target is compared with the feature point candidate obtained in the feature point search unit in the image and the search target around the current location. The corresponding relationship as the same object is obtained by collation, a predetermined number of corresponding points are determined from the candidates, and the in-video feature point corresponding unit that receives the three-dimensional coordinates of the determined corresponding points from the recording medium is determined. Using the corresponding points and their three-dimensional coordinates, the camera coordinate calculation unit that determines the three-dimensional data such as the camera position, direction, and posture indicating the current state of the moving object by calculation, and the tertiary determined by the camera coordinate calculation unit The present invention includes a current location display unit that displays a combination of original data or all of them on a screen alone or together with information such as a map, a video, and an attribute recorded on a recording medium.

また、本発明のナビゲーション装置は、記録媒体生成用の移動体に備えられたカメラにより得られる現実の映像に基づき、当該移動体から観察される範囲における映像的な特徴点を三次元座標で記録した、記録媒体に記録すべき情報を生成する特徴点三次元地図生成装置を備える構成としてある。  In addition, the navigation device of the present invention records video feature points in a range observed from a moving body in three-dimensional coordinates based on an actual image obtained by a camera provided in the moving body for generating a recording medium. In addition, a feature point three-dimensional map generation device that generates information to be recorded on the recording medium is provided.

また、本発明のナビゲーション装置は、特徴点三次元地図生成装置が、記録媒体生成用の移動体に備えられたカメラから当該移動体の周囲画像を取得するカメラ映像取得部と、カメラ映像取得部で取得された画像を記録する映像記録部と、映像記憶部に記録された画像データから、所定数の特徴点を自動抽出する特徴点抽出部と、特徴点抽出部で抽出された特徴点について、各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部と、特徴点対応処理部で対応関係が求められた特徴点の三次元位置座標を求めるとともに、当該三次元位置座標から各フレーム画像に対応したカメラベクトルを求める特徴点・カメラベクトル演算部と、特徴点・カメラベクトル演算部において求められる各特徴点の三次元位置座標とカメラベクトルの分布が最小になるように統計処理し、誤差の最小化処理を施した特徴点の三次元座標とカメラベクトルを自動的に決定する誤差最小化部と、誤差最小化部で誤差の最小化処理が施されたカメラベクトルと特徴点又はその特徴点を含む小領域の画像の三次元形状とその三次元座標及びその分布を、ナビゲーション対象となる移動体の通路とともに三次元地図として配列し、特徴点を含む対象物等とともに記録媒体に記録する3D地図生成記録部とを備える構成としてある。  Further, the navigation device of the present invention includes a camera video acquisition unit in which the feature point 3D map generation device acquires a surrounding image of the mobile body from a camera provided in the mobile body for recording medium generation, and a camera video acquisition unit A video recording unit that records the image acquired in Step 1, a feature point extraction unit that automatically extracts a predetermined number of feature points from the image data recorded in the video storage unit, and a feature point extracted by the feature point extraction unit A feature point correspondence processing unit that automatically tracks within each frame image to obtain a correspondence relationship between the frame images, and obtains a three-dimensional position coordinate of the feature point for which the correspondence relationship is obtained by the feature point correspondence processing unit, A feature point / camera vector calculation unit for obtaining a camera vector corresponding to each frame image from the three-dimensional position coordinates, and a three-dimensional position coordinate of each feature point obtained by the feature point / camera vector calculation unit Error minimizing unit that automatically determines the 3D coordinates of the feature points and the camera vector that have been subjected to statistical processing to minimize the distribution of the camera vector and the error minimizing process, and the error minimizing unit The three-dimensional shape and the three-dimensional coordinates of the image of the camera vector and the feature point or the small region including the feature point and the distribution thereof as a three-dimensional map together with the path of the moving object to be navigated A 3D map generation / recording unit that is arranged and recorded on a recording medium together with an object or the like including a feature point is provided.

また、本発明のナビゲーション装置は、ナビゲーション対象となる移動体に備えられたカメラにより得られる現実の映像に基づき、当該移動体から観察される範囲における映像的な特徴点を三次元座標で生成するとともに、当該三次元座標からカメラベクトルを生成し、生成された三次元座標に基づいて三次元地図を生成しつつ、特徴点の三次元分布及び当該移動体に備えられたカメラの三次元座標上の位置、速度、加速度、視点方向、3軸回転姿勢、3軸回転速度、3軸回転加速度を含む所定項目のうち、いずれか又はそれらを組み合わせた複数の項目を出力する特徴点三次元地図生成表示装置を備える構成としてある。  In addition, the navigation device of the present invention generates, based on an actual image obtained by a camera provided in a moving body to be a navigation target, a video feature point in a range observed from the moving body in three-dimensional coordinates. In addition, while generating a camera vector from the three-dimensional coordinates and generating a three-dimensional map based on the generated three-dimensional coordinates, the three-dimensional distribution of feature points and the three-dimensional coordinates of the camera provided in the moving body Feature point 3D map generation that outputs any one or a combination of predetermined items including position, speed, acceleration, viewpoint direction, 3-axis rotation posture, 3-axis rotation speed, and 3-axis rotation acceleration A configuration including a display device is provided.

そして、本発明の特徴点三次元地図生成表示装置は、移動体に備えられたカメラから当該移動体の周囲画像を取得するカメラ映像取得部と、カメラ映像取得部で取得された画像を記録する映像記録部と、映像記憶部に記録された画像データから、所定数の特徴点を自動抽出する特徴点抽出部と、特徴点抽出部で抽出された特徴点について、各フレーム画像内で自動追跡してフレー厶画像間での対応関係を求める特徴点対応処理部と、特徴点対応処理部で対応関係が求められた特徴点の三次元位置座標を求めるとともに、当該三次元位置座標から各フレーム画像に対応したカメラベクトルを求める特徴点・カメラベクトル演算部と、特徴点・カメラベクトル演算部において求められる各特徴点の三次元位置座標とカメラベクトルの分布が最小になるように統計処理し、誤差の最小化処理を施した特徴点の三次元座標とカメラベクトルを自動的に決定する誤差最小化部と、誤差最小化部で誤差の最小化処理が施されたカメラベクトルと特徴点又はその特徴点を含む小領域の画像の三次元形状とその三次元座標及びその分布を、ナビゲーション対象となる移動体の移動軌跡又は必要に応じて移動予定路とともに三次元地図として配列し、特徴点を含む対象物等とともに表示する3D地図生成表示部とを備える構成としてある。  The feature point 3D map generation / display apparatus of the present invention records a camera video acquisition unit that acquires a surrounding image of the moving body from a camera provided in the moving body, and an image acquired by the camera video acquisition unit. A video recording unit, a feature point extraction unit that automatically extracts a predetermined number of feature points from image data recorded in the video storage unit, and feature points extracted by the feature point extraction unit are automatically tracked in each frame image And a feature point correspondence processing unit for obtaining a correspondence relationship between frame images, and obtaining a three-dimensional position coordinate of the feature point for which the correspondence relationship has been obtained by the feature point correspondence processing unit. The feature point / camera vector calculation unit for obtaining the camera vector corresponding to the image, and the three-dimensional position coordinates and camera vector distribution of each feature point obtained by the feature point / camera vector calculation unit are minimized. Error minimization unit that automatically determines the three-dimensional coordinates and camera vectors of the feature points that have been subjected to statistical processing and error minimization processing, and error minimization processing was performed by the error minimization unit A three-dimensional map of the three-dimensional shape of a camera vector and a feature point or a small area image including the feature point, its three-dimensional coordinates, and its distribution, along with the movement trajectory of the mobile object to be navigated or, if necessary, the planned movement path And a 3D map generation / display unit for displaying together with an object including a feature point.

また、本発明のナビゲーション装置は、特徴点・カメラベクトル演算部が、カメラベクトル及び特徴点の三次元座標演算に用いる任意の二つのフレーム画像Fn及びFn+m(m=フレーム間隔)を単位画像として、所望の特徴点の三次元座標とカメラベクトルを求める単位演算を繰り返し、二つのフレーム画像Fn及びFn+mの間のフレーム画像については、簡素化した演算によりカメラベクトル及び特徴点の三次元座標を求め、誤差最小化部は、画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルと特徴点の三次元座標の誤差が最小になるようにスケール調整して統合し、最終の三次元座標を決定する構成としてある。  In the navigation device of the present invention, the feature point / camera vector calculation unit uses any two frame images Fn and Fn + m (m = frame interval) used for the three-dimensional coordinate calculation of the camera vector and the feature point as unit images. The unit calculation for obtaining the three-dimensional coordinates of the desired feature point and the camera vector is repeated, and for the frame image between the two frame images Fn and Fn + m, the three-dimensional coordinates of the camera vector and the feature point are obtained by a simplified calculation. The error minimizing unit scales so that the error between the three-dimensional coordinates of each camera vector and the feature point obtained by calculating a plurality of times for the same feature point is minimized as n advances continuously with the progress of the image. The final three-dimensional coordinate is determined by adjusting and integrating.

また、本発明の特徴点・カメラベクトル演算部は、フレーム間隔mを、カメラから特徴点までの距離に応じて、カメラから特徴点までの距離が大きいほどmが大きくなるように設定して単位演算を行う構成としてある。  In addition, the feature point / camera vector calculation unit of the present invention sets the frame interval m in accordance with the distance from the camera to the feature point such that m increases as the distance from the camera to the feature point increases. It is configured to perform calculation.

また、本発明の特徴点・カメラベクトル演算部は、求められたカメラベクトル又は特徴点の三次元座標の誤差の分布が大きい特徴点を削除し、必要が有れば他の特徴点について再演算を行い、三次元座標演算の精度を上げる構成としてある。  Further, the feature point / camera vector calculation unit of the present invention deletes a feature point having a large error distribution of the obtained camera vector or feature point in three-dimensional coordinates, and recalculates another feature point if necessary. To increase the accuracy of the three-dimensional coordinate calculation.

また、本発明のナビゲーション装置は、記録媒体と地点探索ナビゲーション装置が離間して備えられ、基地局又は他の移動体に備えられた記録媒体に記録された所定の三次元情報が、通信回線を介して一又は二以上の地点探索ナビゲーション装置に送信される構成としてある。  In the navigation device of the present invention, the recording medium and the point search navigation device are provided separately from each other, and predetermined three-dimensional information recorded in the recording medium provided in the base station or other mobile object is transmitted through the communication line. Via one or two or more point search navigation devices.

また、本発明のナビゲーション装置は、地点探索ナビゲーション装置が、GPSによって得られた緯度経度高度データにより、概略現在位置指定部による移動体の概略の現在位置を指定する構成としてある。  Further, the navigation device of the present invention is configured such that the point search navigation device designates the approximate current position of the moving body by the approximate current position designation unit based on the latitude and longitude altitude data obtained by GPS.

また、本発明の地点探索ナビゲーション装置は、カメラ座標演算部で得られた現時点の移動体状況を示すカメラ位置,方向,姿勢等の三次元データを、緯度経度高度に変換してGPSを補正する補正信号として出力し、映像的特徴点が得られない場合にGPSから位置データを得るための補助信号とする構成としてある。  In addition, the point search navigation device of the present invention corrects the GPS by converting the three-dimensional data such as the camera position, direction, and posture indicating the current moving body status obtained by the camera coordinate calculation unit into the latitude and longitude altitude. The correction signal is output as an auxiliary signal for obtaining position data from GPS when a video feature point cannot be obtained.

そして、本発明のナビゲーション装置は、ナビゲーション対象となる移動体が、自動車,航空機,船舶,人,ロボット,重機,宇宙船,深海探査船,移動部分を持つ機械等である構成としてある。  The navigation device of the present invention is configured such that the moving object to be navigated is an automobile, an aircraft, a ship, a person, a robot, a heavy machine, a spacecraft, a deep sea exploration ship, a machine having a moving part, or the like.

以上のような本発明のナビゲーション装置によれば、車両等の移動体に搭載されたカメラで撮影される動画映像の複数のフレー厶画像から充分な数の特徴点を自動検出し、各フレーム間で特徴点を自動追跡することにより、多数の特徴点について重複演算して、カメラベクトル(カメラ位置と回転角)と特徴点の三次元位置座標を高精度に求めることができる。
そして、得られた特徴点の三次元座標を予め記録媒体に格納し、その三次元座標を現実に移動する移動体から撮影されたカメラ映像と対比することで、あるいは、カメラから得られた映像から、リアルタイムにカメラ位置の三次元座標を直接生成し、現在のカメラ位置を示す高精度な三次元情報を得ることができ、これによって、移動体のナビゲーションシステムとして用いることができる。
According to the navigation apparatus of the present invention as described above, a sufficient number of feature points are automatically detected from a plurality of frame images of a moving image captured by a camera mounted on a moving body such as a vehicle, and each frame is detected. By automatically tracking feature points, a large number of feature points can be overlapped and the camera vector (camera position and rotation angle) and the three-dimensional position coordinates of the feature points can be obtained with high accuracy.
Then, the three-dimensional coordinates of the obtained feature points are stored in advance in a recording medium, and the three-dimensional coordinates are compared with a camera image taken from a moving body that actually moves, or an image obtained from the camera From the above, it is possible to directly generate the three-dimensional coordinates of the camera position in real time and obtain highly accurate three-dimensional information indicating the current camera position, thereby being used as a navigation system for a mobile object.

具体的には、本発明のナビゲーション装置では、車両等の移動体の現在地点座標をGPSより高い精度でリアルタイムに取得するために、画像処理技術を用いて、画像内の複数の特徴有る点に着目し、前もって特徴点の三次元座標を精度良く計測しておく。そして、その特徴点を三次元座標に記述した地図(3D地図)を記録媒体に格納し、移動体側でその記録媒体を再生することで、特徴点の三次元座標を読み出すことができる。さらに、移動体の現在地点で得られたカメラ画像から映像内の特徴点を抽出し、その特徴点の方向と、記録媒体に予め記録された三次元座標が既知である特徴点の方向とを比較して、複数の特徴点の方向が一致する地点の座標を演算により求めることで、カメラ位置を示す三次元座標、すなわち、現在の移動体の位置を示す三次元座標を得ることができる。
また、記録媒体を備えず、移動体のカメラで取得した映像から、その場で特徴点を自動抽出し、自動追跡し、三次元地図と比較することなく、直接三次元座標を取得し、直接カメラ位置を求めることもできる。
Specifically, in the navigation device of the present invention, in order to obtain the current position coordinates of a moving body such as a vehicle in real time with higher accuracy than GPS, the image processing technique is used to obtain a plurality of features in the image. Pay attention and measure the three-dimensional coordinates of the feature points in advance with high accuracy. Then, a map (3D map) in which the feature points are described in three-dimensional coordinates is stored in a recording medium, and the recording medium is reproduced on the mobile body side, whereby the three-dimensional coordinates of the feature points can be read out. Further, the feature point in the video is extracted from the camera image obtained at the current location of the moving object, and the direction of the feature point and the direction of the feature point whose three-dimensional coordinates recorded in advance on the recording medium are known. In comparison, by obtaining the coordinates of points where the directions of a plurality of feature points coincide with each other, three-dimensional coordinates indicating the camera position, that is, three-dimensional coordinates indicating the current position of the moving body can be obtained.
Also, it is not equipped with a recording medium, and feature points are automatically extracted and tracked automatically from the video acquired by the camera of the moving body, and 3D coordinates are obtained directly without comparing with 3D maps. The camera position can also be obtained.

これにより、走行する車両等の移動体の現在位置が、カメラ映像から直接的に、あるいは、予め生成,記録された三次元地図によって正確に示されることになり、従来のGPSシステムでは不可能であった、誤差範囲が数cm程度の高精度なナビゲーションシステムを実現することができる。
なお、記録媒体に記録しておくべき(又はリアルタイムで生成する)特徴点の三次元座標を示す3D地図を生成するには、予め、走行が予想される道路及びその周辺を撮影し、記録し、それらの映像の中に複数の特徴点を自動あるいは手動で抽出し、それら特徴点を画像内に復数点求め、それらが動画像の各フレーム内で移動する軌跡を追跡して、エピポーラ幾何学により線形連立方程式を解くことで、各特徴点の三次元地図を生成することができる。
As a result, the current position of a moving object such as a traveling vehicle is accurately indicated directly from a camera image or by a three-dimensional map generated and recorded in advance, which is impossible with a conventional GPS system. A highly accurate navigation system with an error range of about several centimeters can be realized.
In order to generate a 3D map indicating the three-dimensional coordinates of feature points to be recorded on a recording medium (or generated in real time), a road that is expected to travel and its surroundings are photographed and recorded in advance. Extracting multiple feature points from these images automatically or manually, finding these feature points in the image, tracking the trajectory of each feature moving in each frame of the video, and epipolar geometry It is possible to generate a three-dimensional map of each feature point by solving linear simultaneous equations by science.

[図1]本発明の第一実施形態に係るナビゲーション装置の概略構成を示すブロック図である。
[図2]本発明の第一実施形態に係る特徴点三次元地図生成装置の概略構成を示すブロック図である。
[図3]本発明の第一実施形態に係る地点探索ナビゲーション装置の概略構成を示すブロック図である。
[図4]本発明の第一実施形態に係るナビゲーション装置における記録媒体に記録された三次元座標とカメラ映像の対応関係を模式的に示す説明図である。
[図5]本発明の第一実施形態に係る特徴点三次元地図生成装置における具体的なカメラベクトルの検出方法を示す説明図である。
[図6]本発明の第一実施形態に係る特徴点三次元地図生成装置における具体的なカメラベクトルの検出方法を示す説明図である。
[図7]本発明の第一実施形態に係る特徴点三次元地図生成装置における具体的なカメラベクトルの検出方法を示す説明図である。
[図8]本発明の第一実施形態に係る特徴点三次元地図生成装置によるカメラベクトルの検出方法における望ましい特徴点の指定態様を示す説明図である。
[図9]本発明の第一実施形態に係る特徴点三次元地図生成装置により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。
[図10]本発明の第一実施形態に係る特徴点三次元地図生成装置により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。
[図11]本発明の第一実施形態に係る特徴点三次元地図生成装置により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。
[図12]本発明の第一実施形態に係る特徴点三次元地図生成装置において、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行う場合を示す説明図である。
[図13]本発明の第一実施形態に係るナビゲーション装置に備えられる揺れ成分検出部における揺れ成分検出の具体例を示す説明図である。
[図14]本発明の第一実施形態に係る揺れ成分検出部で検出される揺れ成分に基づいて補正される安定化画像の一例を示す説明図である。
[図15]本発明の第一実施形態に係る揺れ成分検出部で検出される揺れ成分に基づいて補正されるカメラベクトルの軌跡を示すグラフである。
[図16]本発明の第一実施形態に係る特徴点三次元地図生成装置で求められたカメラベクトルの軌跡を生成された三次元地図中に表示した場合の図である。
[図17]本発明の第一実施形態に係るナビゲーション装置で生成,表示される三次元形状(三次元地図)の表示例を示す説明図である。
[図18]本発明の第一実施形態に係る特徴点三次元地図生成装置における三次元地図の生成方法を示す説明図である。
[図19]本発明の第一実施形態に係る特徴点三次元地図生成装置における三次元地図の更新方法を示す説明図である。
[図20]本発明の第一実施形態に係る特徴点三次元地図生成装置で生成される三次元地図の一例を示す図であり、(a)は三次元地図で表される道路の断面図であり、(b)は(a)に示す道路の三次元地図の一例で道路上空から撮影した投影図であり、(c)は(b)に示す三次元地図において三次元座標を取得するために使用されるオペレータ部品を示す図である。
[図21]図20に示す道路の立体図であり、道路標識のオペレータ部品(CG部品)が合成された図を示している。
[図22]図21に示すCV映像中に手動により対象物の属性を取得し登録する場合を説明する図であり、(a)はCV映像、(b)CV映像中に任意の点と直線を指定した状態、(b)は指定された点と直線を登録することにより生成・表示された三次元地図を示している。
[図23]本発明の第一実施形態に係るナビゲーション装置全体の動作の概要の一例を示す説明図である。
[図24]本発明の第一実施形態に係るナビゲーション装置全体の動作の概要の他の一例を示す説明図である。
[図25]本発明の第一実施形態に係るナビゲーション装置全体の動作の概要の他の一例を示す説明図である。
[図26]本発明の第一実施形態に係るナビゲーション装置全体の動作の概要の他の一例を示す説明図である。
[図27]本発明の第二実施形態に係るナビゲーション装置に付加されるオプション装置の概略構成を示すブロック図である。
[図28]本発明の第三実施形態に係るナビゲーション装置の概略構成を示すブロック図である。
[図29]本発明の第三実施形態に係るナビゲーション装置の他の実施形態の概略構成を示すブロック図である。
[図30]本発明の第四実施形態に係るナビゲーション装置の概略構成を示すブロック図である。
[図31]本発明の第一〜第四実施形態に係るナビゲーション装置を組み合わせた場合の概略構成を示すブロック図である。
[図32]本発明の第四実施形態におけるリアルタイムナビゲーション方法により生成,表示される特徴点の三次元座標と移動体の現在位置を示す説明図である。
[図33]本発明の第四実施形態におけるリアルタイムナビゲーション方法により生成,表示される特徴点の三次元座標と移動体の現在位置を示す説明図である。
[図34]本発明の第四実施形態に係るナビゲーション装置の具体的な構成を示すブロック図である。
[図35]本発明の第四実施形態に係るナビゲーション装置における処理動作の内容を示すブロック図である。
[図36]本発明の第四実施形態に係るナビゲーション装置を利用した具体例を模式的に示す説明図である。
FIG. 1 is a block diagram showing a schematic configuration of a navigation device according to a first embodiment of the present invention.
FIG. 2 is a block diagram showing a schematic configuration of a feature point three-dimensional map generation apparatus according to the first embodiment of the present invention.
FIG. 3 is a block diagram showing a schematic configuration of the point search navigation device according to the first embodiment of the present invention.
FIG. 4 is an explanatory view schematically showing the correspondence between the three-dimensional coordinates recorded on the recording medium and the camera image in the navigation device according to the first embodiment of the present invention.
FIG. 5 is an explanatory diagram showing a specific camera vector detection method in the feature point three-dimensional map generation device according to the first embodiment of the present invention.
FIG. 6 is an explanatory diagram showing a specific camera vector detection method in the feature point three-dimensional map generation device according to the first embodiment of the present invention.
[FIG. 7] It is explanatory drawing which shows the specific detection method of a camera vector in the feature point three-dimensional map production | generation apparatus which concerns on 1st embodiment of this invention.
[FIG. 8] It is explanatory drawing which shows the designation | designated aspect of the desirable feature point in the detection method of the camera vector by the feature point 3D map production | generation apparatus concerning 1st embodiment of this invention.
FIG. 9 is a graph showing an example of 3D coordinates and camera vectors of feature points obtained by the feature point 3D map generation apparatus according to the first embodiment of the present invention.
FIG. 10 is a graph showing an example of three-dimensional coordinates of feature points and camera vectors obtained by the feature point three-dimensional map generating apparatus according to the first embodiment of the present invention.
FIG. 11 is a graph showing an example of 3D coordinates and camera vectors of feature points obtained by the feature point 3D map generation apparatus according to the first embodiment of the present invention.
FIG. 12 is an explanatory diagram showing a case where a plurality of feature points are set according to the distance of the feature points from the camera and a plurality of calculations are repeatedly performed in the feature point three-dimensional map generation device according to the first embodiment of the present invention It is.
FIG. 13 is an explanatory diagram showing a specific example of shaking component detection in a shaking component detection unit provided in the navigation device according to the first embodiment of the present invention.
FIG. 14 is an explanatory diagram showing an example of a stabilized image that is corrected based on the shaking component detected by the shaking component detection unit according to the first embodiment of the present invention.
FIG. 15 is a graph showing a trajectory of a camera vector that is corrected based on a shake component detected by a shake component detection unit according to the first embodiment of the present invention.
FIG. 16 is a diagram when the trajectory of the camera vector obtained by the feature point 3D map generation device according to the first embodiment of the present invention is displayed in the generated 3D map.
FIG. 17 is an explanatory view showing a display example of a three-dimensional shape (three-dimensional map) generated and displayed by the navigation device according to the first embodiment of the present invention.
FIG. 18 is an explanatory diagram showing a 3D map generation method in the feature point 3D map generation apparatus according to the first embodiment of the present invention.
FIG. 19 is an explanatory diagram showing a 3D map update method in the feature point 3D map generation apparatus according to the first embodiment of the present invention.
FIG. 20 is a view showing an example of a three-dimensional map generated by the feature point three-dimensional map generating apparatus according to the first embodiment of the present invention, and (a) is a cross-sectional view of a road represented by the three-dimensional map. (B) is an example of a three-dimensional map of the road shown in (a), which is a projected image taken from above the road, and (c) is for acquiring three-dimensional coordinates in the three-dimensional map shown in (b). It is a figure which shows the operator components used for.
[FIG. 21] A three-dimensional view of the road shown in FIG. 20, in which a road sign operator part (CG part) is synthesized.
[FIG. 22] It is a figure explaining the case where the attribute of a target object is manually acquired and registered in the CV video shown in FIG. 21, (a) is CV video, (b) Arbitrary point and straight line in CV video. (B) shows a three-dimensional map generated and displayed by registering the designated points and straight lines.
FIG. 23 is an explanatory diagram showing an example of an outline of the operation of the entire navigation device according to the first embodiment of the present invention.
[FIG. 24] It is explanatory drawing which shows another example of the outline | summary of operation | movement of the whole navigation apparatus concerning 1st embodiment of this invention.
FIG. 25 is an explanatory diagram showing another example of the outline of the operation of the entire navigation device according to the first embodiment of the present invention.
FIG. 26 is an explanatory diagram showing another example of the outline of the operation of the entire navigation device according to the first embodiment of the present invention.
FIG. 27 is a block diagram showing a schematic configuration of an optional device added to the navigation device according to the second embodiment of the present invention.
FIG. 28 is a block diagram showing a schematic configuration of a navigation device according to a third embodiment of the present invention.
FIG. 29 is a block diagram showing a schematic configuration of another embodiment of the navigation device according to the third embodiment of the present invention.
FIG. 30 is a block diagram showing a schematic configuration of a navigation device according to a fourth embodiment of the present invention.
FIG. 31 is a block diagram showing a schematic configuration when the navigation devices according to the first to fourth embodiments of the present invention are combined.
FIG. 32 is an explanatory diagram showing the three-dimensional coordinates of feature points generated and displayed by the real-time navigation method according to the fourth embodiment of the present invention and the current position of the moving object.
[FIG. 33] It is explanatory drawing which shows the three-dimensional coordinate of the feature point produced | generated and displayed by the real-time navigation method in 4th embodiment of this invention, and the present position of a moving body.
FIG. 34 is a block diagram showing a specific configuration of the navigation device according to the fourth embodiment of the present invention.
FIG. 35 is a block diagram showing the contents of processing operations in the navigation device according to the fourth embodiment of the present invention.
FIG. 36 is an explanatory view schematically showing a specific example using the navigation device according to the fourth embodiment of the present invention.

以下、本発明に係るナビゲーション装置の好ましい実施形態について、図面を参照しつつ説明する。
ここで、以下に示す本発明のナビゲーション装置は、プログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラ厶は、コンピュータの各構成要素に指令を送り、以下に示すような所定の処理や機能、例えば、特徴点の自動抽出,抽出した特徴点の自動追跡,特徴点の三次元座標の算出,カメラベクトルの演算等を行わせる。このように、本発明のナビゲーション装置における各処理や手段は、プログラムとコンピュータとが協働した具体的手段によって実現されるようになっている。
なお、プログラムの全部又は一部は、例えば、磁気ディスク,光ディスク,半導体メモリ,その他任意のコンピュータで読取り可能な記録媒体により提供され、記録媒体から読み出されたプログラ厶がコンピュータにインストールされて実行される。また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
Hereinafter, a preferred embodiment of a navigation device according to the present invention will be described with reference to the drawings.
Here, the navigation apparatus of the present invention described below is realized by processing, means, and functions executed by a computer in accordance with instructions of a program (software). The program sends a command to each component of the computer, and performs predetermined processing and functions as shown below, such as automatic extraction of feature points, automatic tracking of extracted feature points, calculation of three-dimensional coordinates of feature points, The camera vector is calculated. Thus, each process and means in the navigation apparatus of the present invention are realized by specific means in which the program and the computer cooperate.
Note that all or part of the program is provided by, for example, a magnetic disk, optical disk, semiconductor memory, or any other computer-readable recording medium, and a program read from the recording medium is installed in the computer and executed. Is done. The program can also be loaded and executed directly on a computer through a communication line without using a recording medium.

[第一実施形態]
まず、図1〜図26を参照して、本発明に係るナビゲーション装置の第一実施形態について説明する。
[基本構成]
図1は、本発明の第一実施形態に係るナビゲーション装置の概略構成を示すブロック図である。
同図に示す本実施形態に係るナビゲーション装置100は、特徴点三次元地図生成装置110と、記録媒体120と、地点探索ナビゲーション装置130とを備えている。
[First embodiment]
First, a first embodiment of a navigation device according to the present invention will be described with reference to FIGS.
[Basic configuration]
FIG. 1 is a block diagram showing a schematic configuration of a navigation device according to the first embodiment of the present invention.
A navigation device 100 according to this embodiment shown in the figure includes a feature point three-dimensional map generation device 110, a recording medium 120, and a point search navigation device 130.

車両や航空機,船舶等の移動体の現在地点座標をGPSより高い精度でリアルタイムに取得できるようにするために、本実施形態では、画像処理技術を用いて、画像内の複数の特徴有る点に着目し、特徴点三次元地図生成装置110を使用して前もって特徴点の三次元座標を精度良く計測し、その特徴点を三次元座標に記述した地図(3D地図)を生成する。生成した3D地図は、例えばDVDやハードディスク,CDなどの記録媒体120に記録する。
そして、本ナビゲーション装置を使用するナビゲーション対象となる車両等の移動体側では、地点探索ナビゲーション装置130により、実際に移動する移動体に備えられたカメラで得られた現在地点のカメラ画像から映像内の特徴点を抽出し、その特徴点の方向と、記録媒体に予め記録された三次元座標が既知である特徴点の方向とを比較して、複数の特徴点の方向が一致する地点の座標を演算により求める。
これによって、移動体に備えられたカメラ位置を示す三次元座標、すなわち、現在の移動体の位置を示す三次元座標を得ることができる。
なお、本ナビゲーション装置によってナビゲートされる移動体としては、例えば、自動車,船舶,航空機,ロボット,移動する機械,移動する人等があり、また、その用途等に応じて、重機(重工業用機械),深海探査船、移動部分を持つ機械、さらには宇宙船等も含まれる。
In this embodiment, in order to be able to acquire the current position coordinates of a moving object such as a vehicle, an aircraft, a ship, etc. in real time with higher accuracy than GPS, the image processing technique is used in this embodiment to have a plurality of features in the image. Paying attention, the feature point three-dimensional map generation device 110 is used to accurately measure the three-dimensional coordinates of the feature points in advance, and a map (3D map) describing the feature points in the three-dimensional coordinates is generated. The generated 3D map is recorded on a recording medium 120 such as a DVD, a hard disk, or a CD.
Then, on the side of a mobile object such as a vehicle to be navigated using this navigation device, the point search navigation device 130 uses the camera image of the current location obtained by the camera provided on the mobile body that actually moves to within the video. The feature point is extracted, and the direction of the feature point is compared with the direction of the feature point whose three-dimensional coordinates recorded in advance on the recording medium are known. Calculate by calculation.
Accordingly, it is possible to obtain three-dimensional coordinates indicating the camera position provided in the moving body, that is, three-dimensional coordinates indicating the current position of the moving body.
Note that examples of the moving body navigated by the navigation device include automobiles, ships, aircraft, robots, moving machines, moving people, and the like. ), Deep-sea exploration vessels, machines with moving parts, and even spacecraft.

具体的には、ナビゲーション対象となる移動体では、地点探索ナビゲーション装置130によって、記録媒体120から読み出された複数の映像的な特徴点の三次元座標を持つ画像を、走行車両や航空機等に取り付けたカメラから得られる映像内に探索し、対応関係を求める。カメラから得られた二次元映像内に、記録媒体120から得られる三次元地図として記述された複数の特徴点との対応点を画像認識で求める。
次に、各対応点の方向が両者で一致する地点を、記録媒体中の三次元地図の中に探索し、演算で求める。その位置がカメラの現在地点、すなわち、移動体の現在地点となる。そして、記録媒体120に記録された三次元地図中に、カメラを搭載した車両の三次元的現在位置、速度、加速度、方向、回転速度、回転加速度、をリアルタイムで表示できることになる。
Specifically, in a mobile object that is a navigation target, an image having three-dimensional coordinates of a plurality of video feature points read from the recording medium 120 by the point search navigation device 130 is displayed on a traveling vehicle, an aircraft, or the like. Search in the video obtained from the attached camera and find the correspondence. Corresponding points with a plurality of feature points described as a three-dimensional map obtained from the recording medium 120 are obtained by image recognition in the two-dimensional video obtained from the camera.
Next, a point where the directions of the corresponding points coincide with each other is searched for in a three-dimensional map in the recording medium and obtained by calculation. The position becomes the current position of the camera, that is, the current position of the moving object. Then, in the three-dimensional map recorded in the recording medium 120, the three-dimensional current position, speed, acceleration, direction, rotational speed, and rotational acceleration of the vehicle equipped with the camera can be displayed in real time.

このようにして、本実施形態のナビゲーション装置では、予め生成,記録された三次元座標によって移動体の現在位置が正確に示されることになり、従来のGPSシステムでは不可能であった、誤差範囲が数cm程度の高精度なナビゲーションシステムを実現することができる。
また、本実施形態では、特徴点の三次元座標を示す3D地図を記録媒体に記録することで、量産し、配布できるようになる。これにより、本ナビゲーション装置の利用者、その記録媒体を取得し、それを再生することで、特徴点の三次元座標を読み出すことが可能となる。
記録媒体に記録しておくべき特徴点の三次元座標を示す3D地図を生成するには、予め、3D地図生成用車両等に搭載したカメラで走行が予想される道路及びその周辺を撮影し、記録し、特徴点三次元地図生成装置110によって、それらの映像の中に複数の特徴点を自動あるいは手動で抽出し、それら特徴点を画像内に複数点求め、それらが動画像の各フレーム内で移動する軌跡を追跡して、エピポーラ幾何学により線形連立方程式を解くことで、カメラ位置と各特徴点の三次元座標を示す三次元地図(3D地図)を生成することができる。
In this way, in the navigation device of the present embodiment, the current position of the moving object is accurately indicated by the three-dimensional coordinates generated and recorded in advance, and an error range that is impossible with the conventional GPS system. Can realize a highly accurate navigation system of about several centimeters.
In this embodiment, a 3D map indicating the three-dimensional coordinates of feature points is recorded on a recording medium, so that mass production and distribution can be performed. Thereby, it becomes possible to read out the three-dimensional coordinates of the feature points by acquiring the user of the navigation device and the recording medium and reproducing it.
In order to generate a 3D map indicating the three-dimensional coordinates of the feature points to be recorded on the recording medium, the road and its surroundings that are expected to travel are photographed in advance with a camera mounted on a vehicle for 3D map generation, etc. A plurality of feature points are automatically or manually extracted from the video by the feature point 3D map generation device 110, and a plurality of the feature points are obtained in the image, and they are included in each frame of the moving image. By tracking the trajectory that moves and solving the linear simultaneous equations by epipolar geometry, a three-dimensional map (3D map) showing the camera position and the three-dimensional coordinates of each feature point can be generated.

ここで、3D地図を精度良く生成するには、画像内の映像的な特徴点を検出し、その移動を追跡する技術を用いることが好ましい。特徴点の検出を自動化し、追跡も自動化することで、手作業による作業を大幅に省略することができる。
画像内の特徴点から三次元座標とカメラ位置(カメラベクトル)を求めるには、例えば、同時に6〜7点以上の特徴点があるように、特徴点を画像内で追跡する。そして、それらの特徴点に対してエピポーラ幾何学を用い、特徴点の三次元座標とカメラ位置を演算により求めることができるが、6〜7点程度の特徴点では、得られる特徴点やカメラの位置精度は不十分なものとなる。
Here, in order to generate a 3D map with high accuracy, it is preferable to use a technique of detecting a video feature point in an image and tracking its movement. By automating the detection of feature points and automating tracking, manual work can be greatly omitted.
In order to obtain the three-dimensional coordinates and the camera position (camera vector) from the feature points in the image, for example, the feature points are tracked in the image so that there are 6 to 7 or more feature points at the same time. Then, using epipolar geometry for these feature points, the three-dimensional coordinates of the feature points and the camera position can be obtained by calculation. The position accuracy is insufficient.

そこで、本実施形態では、後述するように、抽出,追跡する特徴点の数を十分に多くし、また、十分なフレーム数を用いることで多重視差を取得し、有り余る特徴点とフレーム数を得るようにしてある。有り余る特徴点と有り余るフレーム数による多重視差を用い、統計処理を施して、重複する演算を繰り返し、カメラ位置の誤差分布を求め、そこから統計処理により、精度の高いカメラ位置を求めるようにする。このようにすることで、各フレームのカメラ位置は高精度で求められ、カメラ位置が高精度で求められれば、その後は、視差から三次元座標を求める技術で、画像内の全画素についての三次元座標が得られるようになる。
3D地図生成の詳細については更に後述する。
なお、記録媒体に記録すべき3D地図生成用の移動体としては、例えば、自動車,船舶,航空機,ロボット,移動する機械,移動する人等が含まれる。
Therefore, in this embodiment, as will be described later, the number of feature points to be extracted and tracked is sufficiently increased, and multiple parallaxes are acquired by using a sufficient number of frames, and the excess feature points and the number of frames are determined. To get. Using multiple parallaxes with excess feature points and excess frames, statistical processing is performed, repeated calculation is repeated, the error distribution of the camera position is obtained, and then the camera position with high accuracy is obtained by statistical processing therefrom. . In this way, the camera position of each frame can be obtained with high accuracy, and if the camera position is obtained with high accuracy, then the third order for all pixels in the image can be obtained with a technique for obtaining three-dimensional coordinates from the parallax. Original coordinates can be obtained.
Details of 3D map generation will be described later.
Note that the moving body for generating the 3D map to be recorded on the recording medium includes, for example, an automobile, a ship, an aircraft, a robot, a moving machine, a moving person, and the like.

このように、本実施形態のナビゲーション装置100は、3D地図自体は予め特徴点三次元地図生成装置110で生成され、生成された3D地図が記録媒体120に記録され、それを地点探索ナビゲーション装置130が備えられた車両等の移動体側で再生することにより、現実の映像と3D地図を比較して地点を探索できるようになっている。従って、利用者側では、記録媒体120のみを入手(購入)し、地点探索ナビゲーション装置136を搭載した車両で再生,使用することができ、容易かつ安価に本ナビゲーション装置100を利用することができる。
その意味で、特徴点三次元地図生成装置110は、利用者側に備えられる必要はなく、記録媒体120及び地点探索ナビゲーション装置130とは分離して設けることができる。また、所定の3D地図を生成して記録媒体120に記録できれば、特徴点三次元地図生成装置110以外の構成によって3D地図を生成,記録することも可能である。
As described above, in the navigation device 100 according to the present embodiment, the 3D map itself is generated in advance by the feature point 3D map generation device 110, and the generated 3D map is recorded in the recording medium 120, which is then used as the point search navigation device 130. By playing on the side of a moving body such as a vehicle equipped with a vehicle, it is possible to search for a spot by comparing an actual image with a 3D map. Therefore, on the user side, only the recording medium 120 can be obtained (purchased), and can be reproduced and used by a vehicle equipped with the point search navigation device 136, and the navigation device 100 can be used easily and inexpensively. .
In this sense, the feature point 3D map generation device 110 does not need to be provided on the user side, and can be provided separately from the recording medium 120 and the point search navigation device 130. In addition, if a predetermined 3D map can be generated and recorded in the recording medium 120, it is also possible to generate and record a 3D map by a configuration other than the feature point 3D map generation device 110.

[具体的構成]
以下、より具体的に、本実施形態のナビゲーション装置100を構成する特徴点三次元地図生成装置110と記録媒体120及び地点探索ナビゲーション装置130について説明する。
[特徴点三次元地図生成装置]
図2は、本実施形態に係る特徴点三次元地図生成装置110の概略構成を示すブロック図である。
特徴点三次元地図生成装置110は、車両等の移動体に備えられたカメラにより得られる現実の映像に基づき、移動体から観察される範囲における映像的な特徴点の三次元座標を含む所定の三次元情報を生成する。
[Specific configuration]
Hereinafter, the feature point three-dimensional map generation device 110, the recording medium 120, and the point search navigation device 130 that constitute the navigation device 100 of the present embodiment will be described more specifically.
[Feature point 3D map generator]
FIG. 2 is a block diagram showing a schematic configuration of the feature point three-dimensional map generation apparatus 110 according to the present embodiment.
The feature point 3D map generation apparatus 110 is based on a real image obtained by a camera provided in a moving body such as a vehicle, and includes predetermined 3D coordinates including video-like feature points in a range observed from the moving body. Generate 3D information.

具体的には、図2に示すように、カメラ映像取得部111,映像記録部112,特徴点抽出部113,特徴点対応処理部114,特徴点・カメラベクトル演算部115,誤差最小化部116,揺れ成分検出部117,絶対座標取得部118及び3D地図生成記録部119を備えている。
カメラ映像取得部111は、移動する車両の車載カメラ等の移動体に備えられるカメラから移動体の周囲画像を取得する。
映像記録部112は、カメラ映像取得部111において取得した画像を記録する。
特徴点抽出部113は、において、記録した画像の中に、特徴点となるべき小領域画像を手動又は自動により指定し抽出する。
Specifically, as shown in FIG. 2, a camera image acquisition unit 111, a video recording unit 112, a feature point extraction unit 113, a feature point correspondence processing unit 114, a feature point / camera vector calculation unit 115, and an error minimization unit 116. , A shake component detection unit 117, an absolute coordinate acquisition unit 118, and a 3D map generation recording unit 119.
The camera image acquisition unit 111 acquires a surrounding image of the moving body from a camera provided in the moving body such as an in-vehicle camera of the moving vehicle.
The video recording unit 112 records the image acquired by the camera video acquisition unit 111.
The feature point extraction unit 113 manually and automatically specifies and extracts a small area image to be a feature point from the recorded image.

特徴点対応処理部114は、自動抽出された特徴点を、各フレーム間で各フレーム画像内において自動的に追跡することで、その対応関係を自動的に求める。
特徴点・カメラベクトル演算部115は、対応関係が求められた特徴点の三次元位置座標を求め、その三次元位置座標から各フレーム画像に対応したカメラベクトルを演算で自動的に求める。
誤差最小化部116は、複数の重複演算により、各カメラベクトルと各特徴点の位置の分布が最小になるように統計処理をし、さらに誤差の大きい特徴点を検出して、それを削除することで、全体の誤差を最小化処理する。
The feature point correspondence processing unit 114 automatically obtains the correspondence relationship by automatically tracking the feature points automatically extracted in each frame image between the frames.
The feature point / camera vector computing unit 115 obtains the three-dimensional position coordinates of the feature point for which the correspondence relationship is obtained, and automatically obtains the camera vector corresponding to each frame image from the three-dimensional position coordinates.
The error minimizing unit 116 performs statistical processing so that the distribution of the positions of the camera vectors and the feature points is minimized by performing a plurality of overlap operations, detects feature points having a larger error, and deletes them. Thus, the entire error is minimized.

揺れ成分検出部117は、特徴点・カメラベクトル演算部115において得られたカメラベクトル(カメラの三次元位置座標及び3軸回転座標)から、あらかじめ予定された車両位置(カメラ位置と一対一に対応)と車両回転姿勢(カメラ姿勢と一対一に対応)である予定カメラベクトルとのズレ成分を抽出する。そして、予定カメラベクトルと現時点でのカメラベクトルとの差から、若しくは評価時点でのカメラベクトルとの差から、位置ズレ成分信号及び回転ズレ成分信号を生成し、これらズレ成分信号のすべて、若しくは一部及びそれらの選択と組み合わせによる値を、目的に沿った適切な評価すべき座標系に変換して、カメラ(カメラが固定される車両等の固定物)の揺れを評価し、出力し、さらに、必要が有れば表示することができる。この揺れ成分検出の詳細については後述する。  The shake component detection unit 117 has a one-to-one correspondence with a predetermined vehicle position (camera position) from the camera vector (three-dimensional position coordinates and three-axis rotation coordinates of the camera) obtained by the feature point / camera vector calculation unit 115. ) And a scheduled camera vector which is a vehicle rotation posture (corresponding to the camera posture on a one-to-one basis). Then, a positional deviation component signal and a rotational deviation component signal are generated from the difference between the scheduled camera vector and the current camera vector or the difference between the camera vector at the time of evaluation and all or one of these deviation component signals is generated. The values of the parts and their selection and combination are converted into a coordinate system to be evaluated appropriately according to the purpose, and the shaking of the camera (a fixed object such as a vehicle to which the camera is fixed) is evaluated and output. If necessary, it can be displayed. Details of this shaking component detection will be described later.

そして、求められたカメラベクトルとその揺れ成分に基づいて、ビデオ映像等の動画撮影において取得された画像のカメラの揺れに起因する不規則なブレ等を補正し、ブレのある画像からブレのない画像を生成することができる(画像安定化処理)。また、得られるカメラベクトルとその揺れ成分に基づいて、カメラ自身の位置と姿勢を駆動制御して、画像安定化処理と同様に、画像を安定化させることができる(位置姿勢安定化処理)。
さらに、得られたカメラベクトルに基づいて、画像内に指定した対象物を実写座標系で計測してその三次元座標を求め、三次元座標が求められた指定対象物が、常に画枠の中心位置(又は任意の所定位置)に表示されるように、画像表示又はカメラ(カメラが固定される固定物)の位置及び姿勢を制御することができる(目的対象物ロックオン処理)。このとき、ロックオン制御される対象画像は、揺れ成分を含んだままのオリジナル画像でもよく、また、画像安定化処理され安定化された画像であっても良い。
Then, based on the obtained camera vector and its shake component, irregular blurring caused by camera shake of an image acquired in moving image shooting such as a video image is corrected, and there is no blurring from a blurry image. An image can be generated (image stabilization processing). Further, based on the obtained camera vector and its shake component, the position and orientation of the camera itself can be driven and controlled, and the image can be stabilized as in the image stabilization processing (position and orientation stabilization processing).
Furthermore, based on the obtained camera vector, the object specified in the image is measured in the live-action coordinate system to obtain its three-dimensional coordinates, and the specified object for which the three-dimensional coordinates are obtained is always the center of the image frame. Image display or the position and orientation of a camera (a fixed object to which the camera is fixed) can be controlled so as to be displayed at a position (or any predetermined position) (target object lock-on process). At this time, the target image to be subjected to lock-on control may be an original image that includes a shaking component, or may be an image that has been stabilized by image stabilization processing.

絶対座標取得部118は、予め定めた所定の基準点の既知の絶対座標から、求められた三次元相対座標を絶対座標系に変換し、特徴点のすべての点、又は必要な所定の点について絶対座標を与える。
なお、緯度経度等の絶対座標を必要としないときは、長さの基準を示す長さ基準点により、各画像で長さ校正をし、スケール合わせができて、正しいスケールの座標を取得できる。この場合には、特徴点・カメラベクトル演算部115は、長さ基準点の両端の三次元座標を求め、得られた三次元座標から長さ基準点の2点間の距離を演算により求める。そして、誤差最小化部116において、特徴点・カメラベクトル演算部115で演算により得られた長さ基準点の2点間の距離が、長さ基準点の既知の長さと一致するように、重複演算を繰り返し、統計処理する。
勿論、座標基準点と長さ基準点を同時に用いることもでき、その場合には、更に精度を向上させることができる。
The absolute coordinate acquisition unit 118 converts the obtained three-dimensional relative coordinates into the absolute coordinate system from the known absolute coordinates of a predetermined reference point determined in advance, and for all points of the feature points or necessary predetermined points Gives absolute coordinates.
When absolute coordinates such as latitude and longitude are not required, the length can be calibrated with each image using the length reference point indicating the length reference, the scale can be adjusted, and the correct scale coordinates can be obtained. In this case, the feature point / camera vector calculation unit 115 calculates the three-dimensional coordinates at both ends of the length reference point, and calculates the distance between the two points of the length reference point from the obtained three-dimensional coordinates. Then, in the error minimizing unit 116, the distance between two points of the length reference point obtained by the calculation by the feature point / camera vector calculating unit 115 is overlapped so as to match the known length of the length reference point. Repeat the calculation and perform statistical processing.
Of course, the coordinate reference point and the length reference point can be used simultaneously, and in that case, the accuracy can be further improved.

ここで、基準点は、後述するように、三次元相対座標を絶対座標に変換する際の基準となる点であり、予め、任意の方法により既知の基準座標(三次元絶対座標)が計測される点(座標基準点)である。また、基準点は、三次元絶対座標が既知の基準点とともに、又は三次元絶対座標が既知の基準点に換えて、長さが既知の基準点(長さ基準点)を含むことができる。
長さ基準点とは、2点以上の点からなり、2点間の距離を既知のものとして扱う基準点であり、例えば、長さ基準点の間隔を1メートルというように設定し、画像内に1メートルの棒等を多数映るように設置することで得られる。そして、各画像に少なくとも一つの長さ基準点が重複するように撮影する。このような長さ基準点を設けることで、長さ基準点の既知の長さを基準として、後述するように、画像毎にスケールのキャリブレーションができ、精度を大幅に向上させることができる。
Here, as will be described later, the reference point is a point used as a reference when converting the three-dimensional relative coordinate into the absolute coordinate, and a known reference coordinate (three-dimensional absolute coordinate) is measured in advance by an arbitrary method. Point (coordinate reference point). Further, the reference point can include a reference point (length reference point) having a known length together with a reference point having a known three-dimensional absolute coordinate, or in place of a reference point having a known three-dimensional absolute coordinate.
The length reference point is a reference point that consists of two or more points and treats the distance between the two points as a known one. For example, the distance between the length reference points is set to 1 meter, It can be obtained by installing a large number of 1-meter bars. Then, photographing is performed so that at least one length reference point overlaps each image. By providing such a length reference point, the scale can be calibrated for each image with reference to the known length of the length reference point, and the accuracy can be greatly improved.

長さ基準点は、座標基準点を複数設定するのと同様と捉えることもできるが、「長さ」である長さ基準点を多数設定することは、「点」である座標基凖点を多数設定するよりも有効である。すなわち、座標基準点は全計測範囲に2点のみ設定すれば絶対座標に変換でき、また、座標基準点がすべての画像から観察されるとは限らず、さらに、複数の座標基準点を設定するよりも複数の長さ基準点を設ける方が費用や手間の点で有利となる。従って、例えば全計測範囲において、座標基準点は2点のみとし、長さの基準を示す所定長(例えば1メートル)の棒を計測範囲に多数、しかもランダムに設置するだけで、本発明に係る自動測量を実施でき、計測作業の手間も費用も大幅に削減することができる。
なお、基準点(座標基準点又は長さ基準点)についての三次元座標や長さの測量はどのような方法であってもよく、例えば、三角法等の従来公知の測量方法によって絶対座標や長さを取得しておくことができる。
The length reference point can be considered to be the same as setting multiple coordinate reference points, but setting a large number of length reference points that are “lengths” means that the coordinate reference points that are “points” are It is more effective than setting a large number. That is, if only two coordinate reference points are set in the entire measurement range, they can be converted into absolute coordinates, and the coordinate reference points are not always observed from all images, and a plurality of coordinate reference points are set. It is more advantageous in terms of cost and labor to provide a plurality of length reference points. Therefore, for example, in the entire measurement range, only two coordinate reference points are provided, and a large number of bars having a predetermined length (for example, 1 meter) indicating the reference of the length are arranged in the measurement range and at random, the present invention is applied. Automatic surveying can be carried out, and the labor and cost of measurement work can be greatly reduced.
Note that any method may be used for measuring the three-dimensional coordinates and the length of the reference point (coordinate reference point or length reference point). For example, absolute coordinates or You can get the length.

3D地図生成記録部119は、誤差の最小化処理を施したカメラベクトルと特徴点、又はその特徴点を含む小領域の画像の三次元形状と、その三次元座標と、その分布を、車両等の移動体の通路(走行路,航路等)とともに三次元地図として配列し、特徴点を含む対象物等とともに、記録媒体120に記録する。  The 3D map generation / recording unit 119 determines the three-dimensional shape, the three-dimensional coordinates, and the distribution of the camera vector and the feature point that have been subjected to the error minimization process, or the small region image including the feature point, the vehicle, etc. Are arranged as a three-dimensional map together with the path of the moving body (traveling route, navigation route, etc.) and recorded on the recording medium 120 together with the object including the feature points.

以上のような特徴点三次元地図生成装置110では、後述するように、エピポーラ幾何により、2フレーム画像から複数点の対応点を求めることで、記録媒体120に記録すべき特徴点の三次元地図を生成する。本実施形態では、対応点の三次元座標が演算可能なエピポーラ幾何学を用いるとともに、さらに、対応点を自動検出すること、7点程度の対応点と二フレーム画像があれば足りる演算を、すべてのフレームにわたって演算して統計処理することにより誤差を最小にすることにより、高精度な3D地図を生成している。すなわち、特徴点の数やフレームの数等の充分に多数の情報を用いて、各特徴点の誤差を縮小にし、エラーを含む特徴点を削除して精度の高い特徴点三次元地図を生成するようにしてある。  In the feature point three-dimensional map generation apparatus 110 as described above, a three-dimensional map of feature points to be recorded on the recording medium 120 is obtained by obtaining a plurality of corresponding points from a two-frame image by epipolar geometry, as will be described later. Is generated. In the present embodiment, epipolar geometry capable of calculating the three-dimensional coordinates of corresponding points is used, and furthermore, the corresponding points are automatically detected, and all calculations that are sufficient if there are about seven corresponding points and two-frame images are all required. A high-precision 3D map is generated by minimizing errors by calculating and statistically processing over the frames. That is, using a sufficiently large amount of information such as the number of feature points and the number of frames, the error of each feature point is reduced, and the feature point including the error is deleted to generate a highly accurate feature point three-dimensional map. It is like that.

[記録媒体]
図3は、本実施形態に係る記録媒体120及び地点探索ナビゲーション装置130の概略構成を示すブロック図である。
記録媒体120は、DVDやハードディスク,CDなどのデータを記録可能な媒体からなり、特徴点三次元地図生成装置110で生成された三次元地図情報を含む所定の情報が記録,格納されている。
記録媒体120に記録される情報としては、(1)移動体から観察可能な映像的な特徴点の特徴の種類とその三次元座標(三次元地図)、(2)映像的な特徴点を含む小領域の二次元画像の三次元配置とその三次元座標、(3)映像的な特徴点を含む対象物の形状(二次元又は三次元形状)とその三次元座標、(4)必ずしも特徴点ではないが、走行、航行に必要な周辺画像やCG等の形状(二次元又は三次元形状)と三次元座標、(5)移動体の移動路、例えば、道路、車両走行路、予定航路などの画像、CG及びその形状(二次元又は三次元形状)と、その三次元座標、などがある。そして、これらの情報のいずれか、又はそれらの組み合わせ、又はその全部を、必要に応じてそれらの属性を含む形で、三次元地図とともに記録されるようになっている。
[recoding media]
FIG. 3 is a block diagram showing a schematic configuration of the recording medium 120 and the point search navigation device 130 according to the present embodiment.
The recording medium 120 is a medium that can record data such as a DVD, a hard disk, and a CD, and stores predetermined information including 3D map information generated by the feature point 3D map generation apparatus 110.
The information recorded on the recording medium 120 includes (1) the types of features of video-like feature points that can be observed from a moving body and their three-dimensional coordinates (three-dimensional maps), and (2) the video-like feature points. 3D arrangement and 3D coordinates of 2D image of small area, (3) Shape of object (2D or 3D shape) including video feature points and 3D coordinates, (4) Feature points It is not, but the shape (two-dimensional or three-dimensional shape) and three-dimensional coordinates such as peripheral images and CG necessary for traveling and navigation, (5) moving path of the moving body, for example, road, vehicle traveling path, scheduled navigation path, etc. Image, CG and its shape (two-dimensional or three-dimensional shape), and its three-dimensional coordinates. And any one of these information, those combinations, or all of them is recorded with a three-dimensional map in the form including those attributes as needed.

このように、記録媒体120には、移動体から観察可能な特徴点が記述されるが、その特徴点の周囲の小領域の画像を含めて記録することで、移動体の現地点映像と地図上の特徴点の対応がとり易くなり好ましい。
また、後述するように、地点探索ナビゲーション装置130において演算の結果求められるのは三次元座標であり、抽出される特徴点は人間の視覚から見た特徴点である必要はないが、利用者に理解し易い情報を出力するために、車両走行路の地図や周辺の建築物等が記録されることが望ましい。
さらに、現在地点の認識には直接関係しない情報であっても、利用者の走行等を助ける情報として、例えば、交通標識や道路表示等の画像やCGとその属性が記録されることで、より理解し易く、操作し易くなり好ましい。
As described above, the feature points that can be observed from the moving object are described in the recording medium 120. By recording including the image of the small area around the feature point, the local point video and the map of the moving object are recorded. The above feature points can be easily handled, which is preferable.
Further, as will be described later, the point search navigation device 130 obtains the three-dimensional coordinates as a result of the calculation, and the extracted feature points do not need to be the feature points seen from human vision. In order to output easy-to-understand information, it is desirable to record a map of the vehicle traveling path, surrounding buildings, and the like.
Furthermore, even if the information is not directly related to the recognition of the current location, as information that assists the user's travel etc., for example, images such as traffic signs and road displays, CG and its attributes are recorded, It is preferable because it is easy to understand and easy to operate.

[地点探索ナビゲーション装置]
地点探索ナビゲーション装置130は、車両等の移動体側に設置される装置であり、移動体に備えられたカメラにより得られる現実の映像を、記録媒体120に記録された所定の三次元情報と比較し、現実の映像と一致する三次元座標上の地点と方向を求める。これによって、移動体に備えられたカメラの三次元座標上の位置、速度、加速度、視点方向、3軸回転姿勢、3軸回転速度、3軸回転加速度を含む所定項目のうち、いずれか又はそれらを組み合わせた複数の項目を出力する。
具体的には、図3に示すように、特徴点3D地図再生部131,概略現在位置指定部132,現在地周辺特徴点指定部133,カメラ映像取得部134,映像一時記録部135,映像内特徴点探索部136,映像内特徴点対応部137,カメラ座標演算部138,現在地点表示部139を備えている。
[Point search navigation device]
The point search navigation device 130 is a device installed on the side of a moving body such as a vehicle, and compares an actual image obtained by a camera provided on the moving body with predetermined three-dimensional information recorded on the recording medium 120. Find the point and direction on the 3D coordinates that match the actual video. Accordingly, any one of the predetermined items including the position, speed, acceleration, viewpoint direction, three-axis rotation posture, three-axis rotation speed, and three-axis rotation acceleration of the camera provided on the moving body on the three-dimensional coordinates Output multiple items that are combined.
Specifically, as shown in FIG. 3, a feature point 3D map reproduction unit 131, an approximate current position designation unit 132, a current location surrounding feature point designation unit 133, a camera image acquisition unit 134, a video temporary recording unit 135, an in-video feature A point search unit 136, an in-video feature point correspondence unit 137, a camera coordinate calculation unit 138, and a current location display unit 139 are provided.

特徴点3D地図再生部131は、記録媒体120を再生し、記録されている所定の三次元情報を読み出す。上述したように、記録媒体120は、DVDやCDとして提供されるので、利用者は自己の車両等に備えられたナビゲーションシステムに記録媒体120を装填し、再生する。特徴点3D地図再生部131では、記録媒体120に記録されている特徴点3D地図を再生する。再生された3D地図には、特徴点の三次元座標と、その属性が記述されている。
概略現在位置指定部132は、移動体の概略の現在位置を何らかの手段で決定して指定し、初期設定時の探索範囲を限定する。この現在位置の指定は、例えば利用者が手入力に指定することもでき、また、GPSによって得られた緯度経度高度データによって移動体の概略の現在位置を指定することもできる。移動体の概略位置情報を指定,入力することにより、現在地点周辺の特徴点を探すのに大きな手がかりとなる。そして、そのための手段としてGPSを利用することができる。GPSは本発明のナビゲーション装置100と比較して精度が悪いが、概略位置の情報としては適当な精度を持つといえ、概略位置情報の指定手段としては有効に利用できる。
The feature point 3D map reproduction unit 131 reproduces the recording medium 120 and reads predetermined three-dimensional information recorded. As described above, since the recording medium 120 is provided as a DVD or a CD, the user loads the recording medium 120 on a navigation system provided in his / her vehicle or the like and reproduces it. The feature point 3D map playback unit 131 plays back the feature point 3D map recorded on the recording medium 120. The reproduced 3D map describes the three-dimensional coordinates of the feature points and their attributes.
The approximate current position designation unit 132 determines and designates the approximate current position of the moving body by some means, and limits the search range at the time of initial setting. The designation of the current position can be designated manually by the user, for example, or the approximate current position of the moving object can be designated by latitude and longitude altitude data obtained by GPS. By specifying and inputting the approximate position information of the moving body, it becomes a big clue to search for feature points around the current location. And GPS can be utilized as a means for that. Although GPS is less accurate than the navigation device 100 of the present invention, it can be said that it has adequate accuracy as approximate position information, and can be effectively used as a means for specifying approximate position information.

現在地周辺特徴点指定部133は、記録媒体120の3D地図から現在地周辺の複数の特徴点を読み出し、それを現在地の探索目標として指定し、映像内特徴点探索部136に出力する。概略現在位置指定部132の指定により概略位置が分かるので、現在地周辺特徴点指示部133では、記録媒体120から現在地周辺の特徴点データ取り込み、それらの特徴点を三次元座標として配分する。
カメラ映像取得部134は、特徴点三次元地図生成装置110のカメラ映像取得部111と同様、車載カメラにより、移動する車両の車載カメラ等の移動体に備えられるカメラから移動体の周囲画像を取得する。
映像一時記録部135は、特徴点三次元地図生成装置110の映像記録部112と同様、カメラ映像取得部134において取得した画像を記録する。
The current location surrounding feature point designating unit 133 reads a plurality of feature points around the current location from the 3D map of the recording medium 120, designates them as search targets for the current location, and outputs them to the in-video feature point search unit 136. Since the approximate position is known by the specification of the approximate current position specifying unit 132, the current location surrounding feature point instruction unit 133 takes in the feature point data around the current location from the recording medium 120, and distributes these feature points as three-dimensional coordinates.
Similar to the camera image acquisition unit 111 of the feature point 3D map generation device 110, the camera image acquisition unit 134 acquires an ambient image of the moving object from the camera provided in the moving object such as the in-vehicle camera of the moving vehicle by the in-vehicle camera. To do.
Similar to the video recording unit 112 of the feature point 3D map generation apparatus 110, the video temporary recording unit 135 records the image acquired by the camera video acquisition unit 134.

映像内特徴点探索部136は、映像一時記録部135に記録された映像内に、現在地周辺特徴点指定部133で指定された探索目標と同一物となるべき特徴点の候補をいくつか探し出す。
映像内特徴点対応部137は、映像内特徴点探索部136で探索された特徴点の候補と現在地点周辺の探索目標とを比較照合して一致点を探し出し、同一物としての対応関係を求める。そして、対応関係が求められた候補の中から演算に十分な数の対応点を決定する。
ここで、記録媒体120に記録された三次元座標とカメラ映像の一致点を求めるには、例えば、マッチングや相関等の画像処理技術により行える。
図4に、記録媒体120に記録された三次元座標とカメラ映像の対応関係を二次元的に示す。同図において、●はカメラ映像と三次元座標の対応が取れた特徴点であり、×は対応が取れなかった特徴点を示している。
The in-video feature point search unit 136 searches the video recorded in the video temporary recording unit 135 for several feature point candidates that should be the same as the search target specified by the current location peripheral feature point specification unit 133.
The in-video feature point correspondence unit 137 compares and matches the feature point candidates searched by the in-video feature point search unit 136 with the search target around the current location to find a matching point, and obtains the correspondence as the same object. . Then, a sufficient number of corresponding points for the calculation are determined from the candidates for which the correspondence relationship is obtained.
Here, in order to obtain the coincidence point between the three-dimensional coordinates recorded on the recording medium 120 and the camera video, for example, image processing techniques such as matching and correlation can be used.
FIG. 4 shows two-dimensionally the correspondence between the three-dimensional coordinates recorded on the recording medium 120 and the camera image. In the figure, ● represents a feature point in which the correspondence between the camera image and the three-dimensional coordinates was taken, and x represents a feature point in which the correspondence was not taken.

カメラ座標演算部138は、決定された対応点の三次元座標を記録媒体120から受け取り、決定された対応点とその三次元座標を用いて、現時点の車両状況を示すカメラ位置、方向、姿勢等の三次元データを演算して決定する。記録媒体120に記録されている多数の特徴点と、取り込んだ映像の特徴点の三次元配列が一致する地点が、求めるカメラ位置の三次元座標である。得られたカメラ位置の三次元座標、速度、加速度、回転姿勢等のデータを表示することで、ナビゲーションシステムが完了する。
すなわち、現在地点表示部139は、カメラ座標演算部138で求められら現時点の移動体の状況を示す三次元データのいくつかの項目、又はその組み合わせ項目を、単独で、あるいは地図、映像、属性等、記録媒体120に記録されている情報とともに、それらのうちのいくつか又は全部を目的の形式で走行地図,予定走行路等の地図上に表示する。
The camera coordinate calculation unit 138 receives the determined three-dimensional coordinates of the corresponding points from the recording medium 120, and uses the determined corresponding points and the three-dimensional coordinates to indicate the camera position, direction, posture, and the like indicating the current vehicle situation. The three-dimensional data is calculated and determined. A point where a large number of feature points recorded on the recording medium 120 and a three-dimensional array of feature points of the captured image coincide with each other is a three-dimensional coordinate of the camera position to be obtained. The navigation system is completed by displaying data such as the obtained three-dimensional coordinates of the camera position, speed, acceleration, and rotation posture.
In other words, the current location display unit 139 displays several items of 3D data obtained by the camera coordinate calculation unit 138 that indicate the current state of the moving body, or a combination item thereof alone, or a map, video, attribute In addition to the information recorded on the recording medium 120, some or all of them are displayed in a target format on a map such as a travel map and a planned travel route.

このように、地点探索ナビゲーション装置130では、記録媒体120に記録されている特徴点と、それに対応するリアルタイムで取り込んだ映像内の特徴点を複数個求めて、それらの観察方向が一致するような三次元地図上の視点を演算で求めることができる。
そして、記録媒体120には、特徴点の三次元情報以外に、地図や様々な情報が記録してあるので、それらの情報とともに表示することができる。
なお、本実施形態では、特に図示しないが、地点探索ナビゲーション装置130は、さらに、カメラ座標演算部138で決定された三次元データにより、本ナビゲーション装置を搭載する車両等の移動体を直接制御する制御装置を備えることができる。すなわち、本ナビゲーション装置で求められる高精度な位置情報に基づいて、車両等の移動体を自動制御することができ、自動運転システムを実現することができる。
In this way, the point search navigation device 130 obtains a plurality of feature points recorded in the recording medium 120 and corresponding feature points in the video captured in real time, and their observation directions match. The viewpoint on the three-dimensional map can be obtained by calculation.
In addition to the three-dimensional information of feature points, a map and various information are recorded on the recording medium 120, and can be displayed together with the information.
In the present embodiment, although not particularly illustrated, the point search navigation device 130 further directly controls a moving body such as a vehicle on which the navigation device is mounted based on the three-dimensional data determined by the camera coordinate calculation unit 138. A control device can be provided. That is, a moving body such as a vehicle can be automatically controlled based on highly accurate position information required by the navigation device, and an automatic driving system can be realized.

また、地点探索ナビゲーション装置130は、上述した特徴点三次元地図生成装置110の機能を付加することにより、記録媒体120のデータを更新するようにすることもできる。すなわち、地点探索ナビゲーション装置130において、利用者の車両等に搭載したカメラによる映像を蓄積し、複数のフレームにわたる記録媒体の特徴点やその特徴点を含む小領域画像との対応点を、カメラで取得した画像内で追跡し、特徴点三次元地図生成装置110と同様にして、複数のフレームにわたる記録媒体の特徴点、又はその特徴点を含む小領域画像と、カメラで取得した映像内の小領域の画像との対応関係から、既存の特徴点の移動等の座標更新データを演算で求め、その結果を次回からの特徴点として付加することが可能である。
あるいは、カメラによる映像から新たな特徴点を検出して、三次元座標に加えることで、次回からの特徴点として付加し、次回からの特徴点として付加することが可能である。
Further, the point search navigation device 130 can update the data of the recording medium 120 by adding the function of the feature point three-dimensional map generation device 110 described above. That is, in the point search navigation device 130, the video by the camera mounted on the user's vehicle or the like is accumulated, and the feature points of the recording medium over a plurality of frames and the corresponding points with the small area image including the feature points are captured by the camera. Similar to the feature point 3D map generation apparatus 110, the feature point of the recording medium over a plurality of frames, or a small area image including the feature point, and a small image in the video acquired by the camera are tracked in the acquired image. It is possible to obtain coordinate update data such as movement of an existing feature point by calculation from the correspondence with the image of the region, and add the result as a feature point from the next time.
Alternatively, a new feature point is detected from the video by the camera and added to the three-dimensional coordinates, so that it can be added as a feature point from the next time and added as a feature point from the next time.

このようにすると、利用者側に備えられる地点探索ナビゲーション装置130に、特徴点三次元地図生成装置110に相当する装置を備えることで、地図を作りながら探索をすることが可能となり、現地点探索と同時に、特徴点検出と三次元座標演算を同時に行い、記録し、記録媒体のデータを更新し、次回からのデータとして用いることができる。これにより、データ更新装置やリアルタイムナビゲーション装置を構成することができる。データ更新装置については図27を参照しつつ、また、リアルタイムナビゲーション装置については図30以下を参照しつつ、それぞれ後述する。  In this way, by providing the point search navigation device 130 provided on the user side with a device corresponding to the feature point 3D map generation device 110, it is possible to search while making a map, and to search for local points. At the same time, feature point detection and three-dimensional coordinate calculation can be simultaneously performed and recorded, and data on the recording medium can be updated and used as data from the next time. Thereby, a data update device and a real-time navigation device can be configured. The data update device will be described later with reference to FIG. 27, and the real-time navigation device will be described later with reference to FIG.

[カメラベクトル演算・3D地図生成方法]
次に、上述した本実施形態の特徴点三次元地図生成装置110(必要に応じて地点探索ナビゲーション装置130)におけるカメラベクトル演算及び三次元情報(3D地図)の生成方法について説明する。
複数の画像(動画又は連続静止画)の特徴点からカメラベクトルと特徴点の三次元情報を求めるにはいくつかの方法があるが、本実施形態の特徴点三次元地図生成装置110では、画像内に十分に多くの数の特徴点を自動抽出し、それを自動追跡することで、エピポーラ幾何学により、カメラの三次元ベクトル及び3軸回転ベクトルと特徴点の三次元座標を求めるようにしてある。特徴点を充分に多くとることにより、カメラベクトル情報が重複することになり、重複する情報から誤差を最小化させて、より精度の高いカメラベクトルと特徴点の三次元座標を求めることができる。
[Camera vector calculation and 3D map generation method]
Next, a camera vector calculation and 3D information (3D map) generation method in the feature point 3D map generation apparatus 110 (the point search navigation apparatus 130 as necessary) of the above-described embodiment will be described.
There are several methods for obtaining 3D information of camera vectors and feature points from feature points of a plurality of images (moving images or continuous still images). In the feature point 3D map generation apparatus 110 of this embodiment, A sufficiently large number of feature points are automatically extracted and automatically tracked, and the epipolar geometry is used to obtain the 3D vector of the camera, the 3 axis rotation vector, and the 3D coordinates of the feature points. is there. By taking a large number of feature points, camera vector information is duplicated, and errors can be minimized from the duplicated information to obtain more accurate camera vectors and feature point three-dimensional coordinates.

まず、車載カメラ等によって画像を取得し、フレーム間で対応関係にある十分に多くの点を用い、カメラベクトルを精度良く演算で求める。原理的には6点乃至7点の特徴点があれば三次元座標は求まるが、本実施形態では、例えば、100点程度の十分に多くの点を用いることで、解の分布を求め、その分布から統計処理により各ベクトルを求め、結果としてカメラベクトルを求める。
このようにして求められたカメラの三次元位置とカメラの3軸回転から、それを各フレーム画像にデータとして付加し、複数のフレーム画像から得られる複数の視差、即ち多重視差と、既に取得しているカメラの三次元位置から、対象物の特徴点の三次元座標を演算で求めることができる。
First, an image is acquired by an in-vehicle camera or the like, and a camera vector is obtained with high accuracy by using a sufficiently large number of points corresponding to each other between frames. In principle, if there are 6 to 7 feature points, the three-dimensional coordinates can be obtained, but in this embodiment, for example, a sufficiently large number of points such as about 100 points are used to obtain the distribution of the solution. Each vector is obtained from the distribution by statistical processing, and a camera vector is obtained as a result.
From the three-dimensional position of the camera thus obtained and the three-axis rotation of the camera, it is added as data to each frame image, and a plurality of parallaxes obtained from a plurality of frame images, ie, multiple parallaxes, have already been acquired. The three-dimensional coordinates of the feature points of the target object can be obtained by calculation from the three-dimensional position of the camera being operated.

なお、以上の処理は、車載カメラだけでなく、例えば、人が手に持ってカメラを自由に振り回して、対象物を撮影し、撮影後にその映像からカメラベクトルを演算で求め、カメラベクトルから、撮影した対象物の三次元形状を求めることができる。
そして、以上の処理を繰り返すことで、広範囲の三次元形状、即ち三次元地図(3D地図)が生成されることになる。
Note that the above processing is not limited to the on-vehicle camera, for example, a person freely shakes the camera in his / her hand to shoot an object, calculates a camera vector from the image after shooting, and from the camera vector, The three-dimensional shape of the photographed object can be obtained.
By repeating the above processing, a wide range of three-dimensional shapes, that is, a three-dimensional map (3D map) is generated.

[カメラベクトル演算]
カメラベクトルとは、カメラの持つ自由度のベクトルをいう。
一般に、静止した三次元物体は、位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度を持つ。従って、カメラベクトルは、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトルをいう。なお、カメラが移動する場合は、自由度に移動方向も入るが、これは上記の六個の自由度から微分して導き出すことができる。
このように、本実施形態の特徴点三次元地図生成装置110におけるカメラベクトルの検出は、カメラは各フレーム毎に六個の自由度の値をとり、各フレーム毎に異なる六個の自由度を決定することである。
[Camera vector calculation]
The camera vector is a vector of degrees of freedom possessed by the camera.
In general, a stationary three-dimensional object has six degrees of freedom of position coordinates (X, Y, Z) and rotation angles (Φx, Φy, Φz) of the respective coordinate axes. Therefore, the camera vector refers to a vector of six degrees of freedom of the camera position coordinates (X, Y, Z) and the rotation angles (Φx, Φy, Φz) of the respective coordinate axes. When the camera moves, the direction of movement also enters the degree of freedom, which can be derived by differentiation from the above six degrees of freedom.
As described above, the detection of the camera vector in the feature point 3D map generation apparatus 110 according to the present embodiment is such that the camera takes six degrees of freedom for each frame, and six different degrees of freedom for each frame. Is to decide.

以下、特徴点三次元地図生成装置110における、より具体的なカメラベクトルと特徴点の三次元座標の検出方法について、図5以下を参照しつつ説明する。
特徴点三次元地図生成装置110では、まず、特徴点抽出部113において、適切にサンプリングしたフレーム画像中に、特徴点となるべき点又は小領域画像を自動抽出し、特徴点対応処理部114で、複数のフレーム画像間で特徴点の対応関係を自動的に求める。具体的には、カメラベクトルの検出の基準となる、十分に必要な数以上の特徴点を求める。画像間の特徴点とその対応関係の一例を、図5〜図7に示す。図中「+」が自動抽出された特徴点であり、複数のフレーム画像間で対応関係が自動追跡される(図7に示す対応点1〜4参照)。
ここで、特徴点の抽出は、図8に示すように、各画像中に充分に多くの特徴点を指定,抽出することが望ましく(図8の○印参照)、例えば、100点程度の特徴点を抽出する。
Hereinafter, a more specific method of detecting the three-dimensional coordinates of the camera vector and the feature point in the feature point three-dimensional map generation apparatus 110 will be described with reference to FIG.
In the feature point three-dimensional map generation apparatus 110, first, the feature point extraction unit 113 automatically extracts a point or a small area image that should be a feature point from a frame image appropriately sampled. Then, the correspondence between feature points is automatically obtained between a plurality of frame images. Specifically, more than a sufficient number of feature points that are used as a reference for detecting a camera vector are obtained. An example of feature points between images and their corresponding relationships are shown in FIGS. In the figure, “+” is a feature point that is automatically extracted, and the correspondence is automatically tracked between a plurality of frame images (see correspondence points 1 to 4 shown in FIG. 7).
Here, for feature point extraction, as shown in FIG. 8, it is desirable to specify and extract a sufficiently large number of feature points in each image (see circles in FIG. 8). For example, about 100 feature points are extracted. Extract points.

続いて、特徴点・カメラベクトル演算部115で、抽出された特徴点の三次元座標が演算により求められ、その三次元座標に基づいてカメラベクトルが演算により求められる。具体的には、特徴点・カメラベクトル演算部115は、連続する各フレーム間に存在する、十分な数の特徴の位置と、移動するカメラ間の位置ベクトル、カメラの3軸回転ベクトル、各カメラ位置と特徴点をそれぞれ結んだベクトル等、各種三次元ベクトルの相対値を演算により連続的に算出する。
本実施形態では、カメラ映像として原則的に360度全周映像を使用し、360度全周映像のエピポーラ幾何からエピポーラ方程式を解くことによりカメラ運動(カメラ位置とカメラ回転)を計算するようになっている。
Subsequently, the feature point / camera vector calculation unit 115 calculates the three-dimensional coordinates of the extracted feature points, and calculates the camera vector based on the three-dimensional coordinates. Specifically, the feature point / camera vector calculation unit 115 includes a sufficient number of feature positions that exist between successive frames, a position vector between moving cameras, a three-axis rotation vector of the camera, and each camera. Relative values of various three-dimensional vectors such as vectors connecting positions and feature points are continuously calculated by calculation.
In this embodiment, in principle, a 360-degree all-round image is used as a camera image, and the camera motion (camera position and camera rotation) is calculated by solving the epipolar equation from the epipolar geometry of the 360-degree all-round image. ing.

360度全周映像は、例えば広角レンズや魚眼レンズ付きカメラや複数台のカメラ、あるいは回転カメラなどで撮影されるパノラマ映像や全方位映像,360度全周囲映像であり、通常のカメラで撮影される映像より広い範囲が示されるため、高精度なカメラベクトル演算をより簡易,迅速に算出することができ好ましい。なお、360度全周映像といっても、必ずしも4π全空間を含む映像のみでなく、360度全周の一部分をカメラベクトル演算用の映像として扱うこともできる。その意味では、通常のカメラで撮影される映像も、360度全周映像の一部と捉えることができ、本実施形態におけるような優れた効果は少ないものの、本質的に差異はなく、本発明の360度全周映像(4π映像)と同様に扱うことができる。  The 360-degree omnidirectional video is, for example, a panoramic image, an omnidirectional image, or a 360-degree omnidirectional image captured by a wide-angle lens, a camera with a fisheye lens, a plurality of cameras, or a rotating camera, and is captured by a normal camera. Since a wider range than the image is shown, it is preferable because highly accurate camera vector calculation can be calculated more easily and quickly. Note that the 360-degree all-round video is not necessarily a video including the entire 4π space, but a part of the 360-degree all-round can also be handled as a camera vector calculation video. In that sense, an image captured by a normal camera can also be regarded as a part of a 360-degree all-around image, and although there are few excellent effects as in the present embodiment, there is essentially no difference. 360 degree all-around video (4π video).

図7に示す画像1,2は、360度全周映像をメルカトール展開した画像であり、緯度φ、経度θとすると、画像1上の点は(θ1,φ1)、画像2上の点は(θ2,φ2)となる。そして、それぞれのカメラでの空間座標は、z1=(cosφ1cosθ1,cosφ1sinθ1,sinφ1)、z2=(cosφ2cosθ2,cosφ2sinθ2,sinφ2)である。カメラの移動ベクトルをt、カメラの回転行列をR、とすると、z1[t]×Rz2=0がエピポーラ方程式である。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
なお、図7は、特徴点三次元地図生成装置110における処理を理解し易くするために、1台または複数台のカメラで撮影した画像を合成した360度全周囲の球面画像を地図図法でいうメルカトール図法で展開したものを示しているが、実際の特徴点三次元地図生成装置110の処理では、必ずしもメルカトール図法による展開画像である必要はない。
Images 1 and 2 shown in FIG. 7 are images obtained by Mercator expansion of 360-degree all-round video. When latitude φ and longitude θ are given, points on image 1 are (θ1, φ1) and points on image 2 are ( θ2, φ2). The spatial coordinates of each camera are z1 = (cos φ1 cos θ1, cos φ1 sin θ1, sin φ1), z2 = (cos φ2 cos θ2, cos φ2 sin θ2, sin φ2). If the camera movement vector is t and the camera rotation matrix is R, z1 T [t] × Rz2 = 0 is the epipolar equation.
By providing a sufficient number of feature points, t and R can be calculated as a solution by the method of least squares by linear algebra calculation. This calculation is applied to a plurality of corresponding frames.
Note that FIG. 7 uses a map projection to describe a 360-degree all-round spherical image obtained by synthesizing images taken by one or a plurality of cameras in order to facilitate understanding of the processing in the feature point 3D map generation apparatus 110. Although the image developed by the Mercator projection is shown, the actual processing of the feature point three-dimensional map generation apparatus 110 does not necessarily need to be a developed image by the Mercator projection.

次に、誤差最小化部116では、各フレームに対応する複数のカメラ位置と複数の特徴点の数により、複数通り生じる演算方程式により、各特徴点に基づくベクトルを複数通り演算して求めて、各特徴点の位置及びカメラ位置の分布が最小になるように統計処理をして、最終的なベクトルを求める。例えば、複数フレームのカメラ位置、カメラ回転及び複数の特徴点について、Levenberg−Marquardt法により最小自乗法の最適解を推定し、誤差を収束してカメラ位置、カメラ回転行列、特徴点の座標を求める。
さらに、誤差の分布が大きい特徴点につては削除し、他の特徴点に基づいて再演算することで、各特徴点及びカメラ位置での演算の精度を上げるようにする。
このようにして、特徴点の位置とカメラベクトルを精度良く求めることができる。
Next, the error minimizing unit 116 calculates and calculates a plurality of vectors based on each feature point according to a plurality of calculation equations based on a plurality of camera positions corresponding to each frame and the number of feature points. Statistical processing is performed so that the distribution of the position of each feature point and the camera position is minimized to obtain a final vector. For example, the optimal solution of the least square method is estimated by the Levenberg-Marquardt method for a plurality of frames of camera positions, camera rotations, and a plurality of feature points, and the error is converged to obtain the camera position, camera rotation matrix, and feature point coordinates. .
Further, feature points having a large error distribution are deleted, and recalculation is performed based on other feature points, thereby improving the accuracy of computation at each feature point and camera position.
In this way, the position of the feature point and the camera vector can be obtained with high accuracy.

図9〜図11に、特徴点・カメラベクトル演算部115において得られる特徴点の三次元座標とカメラベクトルの例を示す。図9〜図11は、本実施形態におけるベクトル検出方法を示す説明図であり、移動するカメラによって取得された複数のフレーム画像によって得られるカメラ及び対象物の相対的な位置関係を示す図である。
図9では、図7の画像1,2に示した特徴点1〜4の三次元座標と、画像1と画像2の間で移動するカメラベクトルが示されている。
図10及び図11は、充分に多くの特徴点とフレーム画像により得られた特徴点の位置と移動するカメラの位置が示されている。同図中、グラフ中央に直線状に連続する○印がカメラ位置であり、その周囲に位置する○印が特徴点の位置と高さを示している。
9 to 11 show examples of the three-dimensional coordinates of feature points and camera vectors obtained by the feature point / camera vector calculation unit 115. 9 to 11 are explanatory diagrams showing the vector detection method in the present embodiment, and showing the relative positional relationship between the camera and the object obtained from a plurality of frame images acquired by the moving camera. .
FIG. 9 shows the three-dimensional coordinates of the feature points 1 to 4 shown in the images 1 and 2 in FIG. 7 and the camera vector that moves between the images 1 and 2.
10 and 11 show a sufficiently large number of feature points, the positions of the feature points obtained from the frame image, and the position of the moving camera. In the figure, a circle mark that continues in a straight line at the center of the graph is the camera position, and a circle mark located around the circle indicates the position and height of the feature point.

ここで、特徴点三次元地図生成装置110における演算は、より高精度な特徴点とカメラ位置の三次元情報を高速に得るために、図12に示すように、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行うようにする。
具体的には、ベクトル検出部は、画像内には映像的に特徴がある特徴点を自動検出し、各フレーム画像内に特徴点の対応点を求める際に、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、nとmを適切に設定した単位演算を繰り返す。
mはフレーム間隔であり、カメラから画像内の特徴点までの距離によって特徴点を複数段に分類し、カメラから特徴点までの距離が遠いほどmが大きくなるように設定し、カメラから特徴点までの距離が近いほどmが小さくなるように設定する。このようにするのは、カメラから特徴点までの距離が遠ければ遠いほど、画像間における位置の変化が少ないからである。
Here, the calculation in the feature point 3D map generation apparatus 110 is performed according to the distance from the camera to the feature point as shown in FIG. A plurality of feature points are set, and a plurality of calculations are repeated.
Specifically, the vector detection unit automatically detects a feature point that has a video feature in the image, and obtains a corresponding point of the feature point in each frame image. Focusing on the n + m-th two frame images Fn and Fn + m, unit calculation is performed, and unit calculation with n and m appropriately set is repeated.
m is the frame interval, and the feature points are classified into multiple stages according to the distance from the camera to the feature points in the image, and set so that m increases as the distance from the camera to the feature points increases. It is set so that m is smaller as the distance to is shorter. This is because the longer the distance from the camera to the feature point, the smaller the change in position between images.

そして、特徴点のm値による分類を、十分にオーバーラップさせながら、複数段階のmを設定し、画像の進行とともにnが連続的に進行するのにともなって、演算を連続的に進行させる。そして、nの進行とmの各段階で、同一特徴点について複数回重複演算を行う。
このようにして、フレーム画像FnとFn+mに着目した単位演算を行うことにより、m枚毎にサンプリングした各フレーム間(フレーム間は駒落ちしている)では、長時間かけて精密カメラベクトルを演算し、フレーム画像FnとFn+mの間のm枚のフレーム(最小単位フレーム)では、短時間処理で行える簡易演算とすることができる。
Then, while sufficiently overlapping the classification of the feature points by the m value, a plurality of stages of m are set, and as n progresses continuously with the progress of the image, the calculation proceeds continuously. Then, the overlap calculation is performed a plurality of times for the same feature point at each step of n and m.
In this way, by performing unit calculation focusing on the frame images Fn and Fn + m, a precise camera vector is calculated over a long time between frames sampled every m frames (frames are dropped). However, in the m frames (minimum unit frame) between the frame images Fn and Fn + m, a simple calculation that can be performed in a short time can be performed.

m枚毎の精密カメラベクトル演算に誤差がないとすれば、m枚のフレームのカメラベクトルの両端は、高精度演算をしたFnとFn+mのカメラベクトルと重なることになる。従って、FnとFn+mの中間のm枚の最小単位のフレームについては簡易演算で求め、簡易演算で求めたm枚の最小単位フレームのカメラベクトルの両端を、高精度演算で求めたFnとFn+mのカメラベクトルに一致するように、m枚の連続したカメラベクトルのスケール調整をすることができる。
これにより、誤差のない高精度のカメラベクトルを求めつつ、簡易演算を組み合わせることにより、演算処理を高速化することができるようになる。
If there is no error in the precision camera vector calculation for every m frames, both ends of the camera vector of the m frames overlap with Fn and Fn + m camera vectors that have been subjected to the high precision calculation. Accordingly, m minimum unit frames between Fn and Fn + m are obtained by a simple calculation, and both ends of the camera vector of the m minimum unit frames obtained by the simple calculation are Fn and Fn + m obtained by high precision calculation. Scale adjustment of m consecutive camera vectors can be made to match the camera vectors.
Thereby, it is possible to speed up the calculation process by combining simple calculations while obtaining a highly accurate camera vector without error.

ここで、簡易演算としては、精度に応じて種々の方法があるが、例えば、(1)高精度演算では100個以上の多くの特徴点を用いる場合に、簡易演算では最低限の10個程度の特徴点を用いる方法や、(2)同じ特徴点の数としても、特徴点とカメラ位置を同等に考えれば、そこには無数の三角形が成立し、その数だけの方程式が成立するため、その方程式の数を減らすことで、簡易演算とすることができる。これによって、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整する形で統合し、距離演算を行い、さらに、誤差の分布が大きい特徴点を削除し、必要に応じて他の特徴点について再演算することで、各特徴点及びカメラ位置での演算の精度を上げることができる。  Here, there are various methods for the simple calculation depending on the accuracy. For example, (1) When a large number of feature points of 100 or more are used in the high-precision calculation, the minimum number of simple calculation is about ten. (2) Even if the number of the same feature points is the same, if the feature points and the camera positions are considered equally, innumerable triangles are formed there, and equations corresponding to that number are formed. By reducing the number of equations, it can be simplified. In this way, integration is performed by adjusting the scale so that the error of each feature point and camera position is minimized, distance calculation is performed, and feature points with large error distribution are deleted, and other features are added as necessary. By recalculating the points, the calculation accuracy at each feature point and camera position can be improved.

また、このように高速な簡易演算を行うことにより、カメラベクトルのリアルタイム処理が可能となる。カメラベクトルのリアルタイム処理は、目的の精度をとれる最低のフレーム数と、自動抽出した最低の特徴点数で演算を行い、カメラベクトルの概略値をリアルタイムで求め、表示し、次に、画像が蓄積するにつれて、フレーム数を増加させ、特徴点の数を増加させ、より精度の高いカメラベクトル演算を行い、概略値を精度の高いカメラベクトル値に置き換えて表示することができる。  In addition, by performing high-speed simple calculation in this way, camera vector real-time processing becomes possible. In real-time processing of camera vectors, calculation is performed with the minimum number of frames that can achieve the target accuracy and the minimum number of feature points that are automatically extracted, the approximate value of the camera vector is obtained and displayed in real time, and then the image is accumulated. Accordingly, the number of frames can be increased, the number of feature points can be increased, camera vector calculation with higher accuracy can be performed, and approximate values can be replaced with camera vector values with higher accuracy for display.

さらに、より高精度のカメラベクトルを求めるために、三次元情報(三次元形状)の追跡を行うことが好ましい。具体的には、三次元情報の追跡とは、まず、特徴点・カメラベクトル演算部115,誤差最小化部116を経て得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで生成される画像の一部として得られる三次元情報(三次元形状)に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレーム間で連続的に追跡して三次元形状の自動追跡を行う。そして、自動追跡で得られた三次元情報の追跡結果から、高精度カメラベクトル演算部においてより高精度なカメラベクトルが求められる。  Furthermore, it is preferable to track three-dimensional information (three-dimensional shape) in order to obtain a more accurate camera vector. Specifically, the tracking of the three-dimensional information is performed by positioning the camera vector obtained through the feature point / camera vector calculation unit 115 and the error minimization unit 116 as an approximate camera vector, and is generated by a subsequent process. Based on the three-dimensional information (three-dimensional shape) obtained as part of the image, the partial three-dimensional information contained in multiple frame images is continuously tracked between adjacent frames to automatically track the three-dimensional shape. I do. Then, from the tracking result of the three-dimensional information obtained by automatic tracking, a highly accurate camera vector is obtained in the highly accurate camera vector calculation unit.

上述した特徴点抽出部113及び特徴点対応処理部114では、特徴点を複数のフレーム間画像内に自動追跡するが、特徴点が消失するなどして特徴点の追跡フレーム数に制限が出てくることがある。また、画像は二次元であり、追跡途中で形状が変化するために追跡精度にも一定の限界がある。そこで、特徴点追跡で得られるカメラベクトルを概略値と位置づけ、その後のプロセスで得られる三次元情報(三次元形状)を各フレーム画像上に追跡して、その軌跡から高精度カメラベクトルを求めることができる。このような三次元形状の追跡は、マッチング及び相関の精度を得やすく、三次元形状はフレーム画像によって、その三次元形状も大きさも変化しないので、多くのフレームに亘って追跡が可能であり、そのことでカメラベクトル演算の精度を向上させることができる。これは特徴点・カメラベクトル演算部115により概略のカメラベクトルが既知であり、三次元形状が既に分かっているから可能となるものである。  The feature point extraction unit 113 and the feature point correspondence processing unit 114 described above automatically track feature points in a plurality of inter-frame images, but the number of feature point tracking frames is limited due to disappearance of feature points. May come. In addition, since the image is two-dimensional and the shape changes during tracking, there is a certain limit in tracking accuracy. Therefore, the camera vector obtained by the feature point tracking is regarded as an approximate value, and the three-dimensional information (three-dimensional shape) obtained in the subsequent process is traced on each frame image, and a high-precision camera vector is obtained from the trajectory. Can do. Such tracking of the three-dimensional shape is easy to obtain the accuracy of matching and correlation, and since the three-dimensional shape does not change its size and size depending on the frame image, it can be tracked over many frames, This can improve the accuracy of the camera vector calculation. This is possible because the approximate camera vector is known by the feature point / camera vector calculation unit 115 and the three-dimensional shape is already known.

カメラベクトルが概略値の場合、非常に多くのフレームに亘る三次元座標の誤差は、特徴点追跡による各フレームに関係するフレームが少ないので、誤差が累積して長距離では次第に大きな誤差になるが、画像の一部分を切り取ったときの三次元形状の誤差は相対的に少なく、形状の変化と大きさに及ぼす影響はかなり少ないものとなる。このため、三次元形状での比較や追跡は、二次元形状追跡の時よりも極めて有利となる。追跡において、二次元形状での追跡の場合、複数のフレームにおける形状の変化と大きさの変化を避けられないまま追跡することになるので、誤差が大きかったり、対応点が見つからないなどの問題があったが、三次元形状での追跡においては形状の変化が極めて少なく、しかも原理的に大きさの変化もないので、正確な追跡が可能となる。  When the camera vector is an approximate value, the error of 3D coordinates over a very large number of frames is small because there are few frames related to each frame by feature point tracking. The error of the three-dimensional shape when a part of the image is cut is relatively small, and the influence on the change and size of the shape is considerably small. For this reason, the comparison and tracking in the three-dimensional shape is extremely advantageous over the two-dimensional shape tracking. In tracking, when tracking with 2D shape, tracking changes in shape and size in multiple frames are unavoidable, so there are problems such as large errors and missing corresponding points. However, in tracking with a three-dimensional shape, there is very little change in shape, and in principle there is no change in size, so accurate tracking is possible.

ここで、追跡の対象となる三次元形状データとしては、例えば、特徴点の三次元分布形状や、特徴点の三次元分布形状から求められるポリゴン面等がある。また、得られた三次元形状を、カメラ位置から二次元画像に変換して、二次元画像として追跡することも可能である。カメラベクトルの概略値が既知であることから、カメラ視点からの二次元画像に投影変換が可能であり、カメラ視点の移動による対象の形状変化にも追従することが可能となる。  Here, as the three-dimensional shape data to be tracked, there are, for example, a three-dimensional distribution shape of feature points, a polygon surface obtained from the three-dimensional distribution shape of feature points, and the like. It is also possible to convert the obtained three-dimensional shape from a camera position into a two-dimensional image and track it as a two-dimensional image. Since the approximate value of the camera vector is known, projection conversion can be performed on a two-dimensional image from the camera viewpoint, and it is also possible to follow a change in the shape of the object due to movement of the camera viewpoint.

[揺れ成分検出]
そして、以上のようにして求められたカメラベクトルは、揺れ成分検出部117において、あらかじめ予定されたカメラ位置とカメラ姿勢を示す予定カメラベクトルとのズレ成分が抽出される。
揺れ成分検出部117においては、例えば、車載カメラを搭載した車両位置(すなわちカメラ位置)X,Y,Zと、車両回転姿勢(すなわちカメラ姿勢)Φx,Φy,Φzによる揺れ成分であるδX,δY,δZ,δΦx,δΦy,δΦzのすべてが評価の対象となる。ここで、δX,δY,δZ,δΦx,δΦy,δΦzとは、必ずしも微分値や差分値ではなく、予定の位置及び予定の姿勢からのズレを意味する。多くの場合は微分値で代用することで揺れ成分は検出できるが、予定の位置と予定の姿勢が前もって決まっていれば、それとの差分がδX,δY,δZ,δΦx,δΦy,δΦzとなる。
[Swing component detection]
The camera component obtained as described above is extracted in the shake component detection unit 117 as a deviation component between the predetermined camera position and the scheduled camera vector indicating the camera posture.
In the shake component detection unit 117, for example, δX, δY, which are shake components due to vehicle positions (that is, camera positions) X, Y, Z and vehicle rotation postures (that is, camera postures) Φx, Φy, Φz on which an in-vehicle camera is mounted. , ΔZ, δΦx, δΦy, and δΦz are all subject to evaluation. Here, δX, δY, δZ, δΦx, δΦy, and δΦz do not necessarily mean differential values or difference values, but mean deviations from a predetermined position and a predetermined posture. In many cases, the vibration component can be detected by substituting with a differential value. However, if a predetermined position and a predetermined posture are determined in advance, the difference between them is δX, δY, δZ, δΦx, δΦy, and δΦz.

具体的には、軌道上を走行する電車等においては、予定カメラベクトルは走行時に計測される平均値に近いものであるが、航空機のように三次元空間を航行する場合は、予定カメラベクトルは走行時のものと平均で一致することはない。
揺れ成分出力としては、X,Y,Z,Φx,Φy,Φzと、δX,δY,δZ,δΦx,δΦy,δΦzの計12個のパラメータを出力することができる。
但し、いずれの揺れ評価を目的とするかによって、パラメータの数はこの中から選択的に組み合わせることができ、評価対象物に対応することができる。
Specifically, in a train traveling on a track, the scheduled camera vector is close to the average value measured during traveling, but when navigating in a three-dimensional space like an aircraft, On average, it does not agree with the one when driving.
As the shake component output, a total of 12 parameters of X, Y, Z, Φx, Φy, Φz and δX, δY, δZ, δΦx, δΦy, δΦz can be output.
However, depending on which shake evaluation is intended, the number of parameters can be selectively combined from these, and can correspond to the evaluation object.

すなわち、特徴点・カメラベクトル演算部115と揺れ成分検出部117からの出力を総合すると、X,Y,Zと、Φx,Φy,Φzと、δX,δY,δZと、δΦx,δΦy,δΦzの12のパラメータがあるが、通常の画像安定化処理にはδΦx,δΦy,δΦzの3つのパラメータのみでよい。一方、カメラを同時に複数用いているような場合には、画像の三次元位置の補正も可能となるので、δX,δY,δZのパラメータを用意しておく必要がある。また、通常、姿勢制御には、回転制御の場合にはδΦx,δΦy,δΦz、位置の制御を含むのであればこれに加えてδX,δY,δZの計六個のパラメータが必要となる。さらに、状況判断を含めれば特徴点三次元地図生成装置110からの出力であるX,Y,Zと、Φx,Φy,Φz
も含めて必要となる場合もあるので、得られる12個のパラメータの中から選択的に組み合わせて画像処理や姿勢制御に用いることができる。
なお、この12個の変数以外に、画像安定化や姿勢安定化に用いられる撮影条件による他の係数としては、カメラの基準姿勢として画像の画枠での揺れ幅制限などがある。
That is, when the outputs from the feature point / camera vector calculation unit 115 and the shake component detection unit 117 are combined, X, Y, Z, Φx, Φy, Φz, δX, δY, δZ, δΦx, δΦy, δΦz Although there are twelve parameters, only three parameters δΦx, δΦy, and δΦz are required for normal image stabilization processing. On the other hand, when a plurality of cameras are used at the same time, the three-dimensional position of the image can be corrected. Therefore, it is necessary to prepare parameters δX, δY, and δZ. In general, posture control requires six parameters in total including δX, δY, and δZ in addition to this if it includes control of δΦx, δΦy, δΦz, and position in the case of rotation control. Furthermore, if situation judgment is included, the output from the feature point 3D map generator 110 is X, Y, Z, and Φx, Φy, Φz.
Therefore, it can be selectively combined from the 12 obtained parameters and used for image processing and attitude control.
In addition to the twelve variables, other coefficients depending on the shooting conditions used for image stabilization and posture stabilization include a limitation on the swing width of the image frame as a reference posture of the camera.

図13に揺れ成分検出部117における揺れ成分検出の具体例を示す。同図に示す例は、車両にカメラを取り付けて走行し、その時に撮影した動画像から揺れ成分検出部117で揺れを検出する場合となっている。
同図において、太線矢印はカメラを取り付けた車両の進行方向を示しており、カメラの光軸を原点とするカメラの位置と姿勢をカメラ座標系(Xc,Yc,Zc)とし(同図に示す破線)、カメラが半固定状態で取り付けられた車両は車両座標系(Xt,Yt,Zt)とし(同図に示す実線)、常に車両進行方向に座標軸を変える座標系を回転世界座標系(Xwr,Ywr,Zwr)とし(同図に示す2点鎖線)、さらに、外界の静止系を表す座標系を世界座標系(Xw,Yw,Zw)とする(同図に示す1点鎖線)。そして、この四つの座標系の関係を求めて、評価に必要な座標系に変換して車両の揺れが表現されるようになっている。
FIG. 13 shows a specific example of shaking component detection in the shaking component detection unit 117. The example shown in the figure is a case where a camera is attached to a vehicle for traveling, and the shaking component detection unit 117 detects shaking from a moving image taken at that time.
In the figure, a thick arrow indicates the traveling direction of the vehicle to which the camera is attached, and the position and orientation of the camera with the optical axis of the camera as the origin is the camera coordinate system (Xc, Yc, Zc) (shown in the figure). A broken line is a vehicle coordinate system (Xt, Yt, Zt) that is mounted in a semi-fixed state (solid line shown in the figure), and a coordinate system that always changes the coordinate axis in the vehicle traveling direction is a rotating world coordinate system (Xwr , Ywr, Zwr) (two-dot chain line shown in the figure), and a coordinate system representing the static system of the outside world is a world coordinate system (Xw, Yw, Zw) (one-dot chain line shown in the figure). Then, the relationship between the four coordinate systems is obtained and converted into a coordinate system necessary for evaluation to express the vehicle shake.

特徴点・カメラベクトル演算部115で得られるカメラベクトルはカメラ座標系(Xc,Yc,Zc)そのものである。カメラ座標系は、一般に任意の方向で設定されるから、車両の揺れを検出するには、カメラ座標系を一旦車両座標系(Xt,Yt,Zt)に変換する。この変換は単なる回転変換であり、一般には半固定であり、一旦設定すれば、その後は計測を終了するまで変更はない。
車両進行方向を車両座標系(Xt,Yt,Zt)の3軸の一つに選択することで揺れを評価するのにふさわしい座標系とすることができる。
The camera vector obtained by the feature point / camera vector calculation unit 115 is the camera coordinate system (Xc, Yc, Zc) itself. Since the camera coordinate system is generally set in an arbitrary direction, the camera coordinate system is temporarily converted into a vehicle coordinate system (Xt, Yt, Zt) in order to detect vehicle shake. This conversion is a simple rotation conversion, and is generally semi-fixed. Once set, there is no change until the measurement is finished.
By selecting the vehicle traveling direction as one of the three axes of the vehicle coordinate system (Xt, Yt, Zt), a coordinate system suitable for evaluating the shaking can be obtained.

また、車両の移動の軌跡は静止座標系である世界座標系(Xw,Yw,Zw)で表現するのが適切である。速度を表現するには回転世界座標系(Xwr,Ywr,Zwr)で単純に表現することができるが、べクトルとして表現するには世界座標系(Xw,Yw,Zw)で表現するのがふさわしい。
揺れ評価にあたっては、揺れ評価に適した座標系で評価を行う。
揺れ信号は予定進路からのズレとして検出されるが、図13に示す例では、車両の平均進路を予定進路として揺れを評価している。そこで、世界座標系上でカメラの移動軌跡を求め、その平均進路を求め、これを予定進路とする。
Further, it is appropriate to express the trajectory of the vehicle movement in the world coordinate system (Xw, Yw, Zw) which is a stationary coordinate system. To express velocity, it can be expressed simply in the rotating world coordinate system (Xwr, Ywr, Zwr), but to express it as a vector, it is appropriate to express it in the world coordinate system (Xw, Yw, Zw). .
In shake evaluation, evaluation is performed in a coordinate system suitable for shake evaluation.
The shaking signal is detected as a deviation from the planned course, but in the example shown in FIG. 13, the shaking is evaluated using the average course of the vehicle as the planned course. Therefore, the movement trajectory of the camera is obtained on the world coordinate system, the average course is obtained, and this is set as the planned course.

本実施形態の揺れ成分検出部117では、姿勢の基準となるジャイロ等を用いることなく、画像データを取得するカメラのみで揺れ成分の検出が可能となっているが、カメラ1台の場合、得られるカメラベクトルは相対値となり、ジャイロ等の世界座標系との校正装置を持たないことから、誤差の蓄積が生じることになる。このため、常に車両に対する揺れを評価するために、平均鉛直水平方向を与える必要がある。そこで、カメラ設置時点において、カメラ座標系の1軸を車両に対する水平軸に合致させて設置すれば、それが基準となって、後にも水平姿勢の校正が容易にできることになる。これにより、カメラ座標系(Xc,Yc,Zc)は、車両座標系(Xt,Yt,Zt)に変換して揺れを計測して評価すればよい。
評価される揺れとしては、位置ズレ成分Xt,Yt,Ztと、回転成分Φxt,Φyt,Φzt、及び位置ズレ差分δXt,δYt,δZt等である(但し、ZtとδZtは、進行方向速度及びその加速度成分となるので、揺れの意味が他の成分とは異なる)。
In the shake component detection unit 117 of this embodiment, the shake component can be detected only by a camera that acquires image data without using a gyro that is a reference for the posture. The obtained camera vector is a relative value, and since there is no calibration device with a world coordinate system such as a gyro, accumulation of errors occurs. For this reason, in order to always evaluate the swing with respect to the vehicle, it is necessary to give an average vertical horizontal direction. Therefore, if one camera coordinate system is installed so as to coincide with the horizontal axis with respect to the vehicle at the time of camera installation, the horizontal posture can be easily calibrated later. Accordingly, the camera coordinate system (Xc, Yc, Zc) may be converted into the vehicle coordinate system (Xt, Yt, Zt), and the shake may be measured and evaluated.
As the shake to be evaluated, there are a positional deviation component Xt, Yt, Zt, a rotational component Φxt, Φyt, Φzt, a positional deviation difference δXt, δYt, δZt, etc. Because it is an acceleration component, the meaning of shaking is different from other components).

以上のような揺れ成分の評価において、評価すべき変数と表示は次のようなものが挙げられる。
・世界座標系における車両位置表示:
(Xw,Yw,Zw)
・車両進行方向に回転した回転世界座標系における速度及び加速度表示:
(δXwr,δYwr,δZwr)(ΔδXwr,ΔδYwr,ΔδZwr)
・車両座標系における揺れ表示:
(△Xt,△Yt,(△Zt))(△Φxt,△Φyt,△Φzt)
・車両座標系とカメラ座標系の回転表示(半固定):
(Xc,Yc,Zc)=F(Xt,Yt,Zt)
・世界座標系における進行方向表示:
(Xw,Yw,Zw)=G(Xt,Yt,Zt)
・カメラ座標系における進行方向表示:
(Xc,Yc,Zc)=H(Xt,Yt,Zt)
・世界座標系に対する車両座標系の原点移動、回転姿勢表示:
(Xw,Yw,Zw)(δXw,δYw,δZw)
In the evaluation of the shaking component as described above, the following variables and display should be evaluated.
-Vehicle position display in the world coordinate system:
(Xw, Yw, Zw)
・ Speed and acceleration display in the rotating world coordinate system rotated in the vehicle traveling direction:
(ΔXwr, δYwr, δZwr) (ΔδXwr, ΔδYwr, ΔδZwr)
-Shake display in the vehicle coordinate system:
(ΔXt, ΔYt, (ΔZt)) (ΔΦxt, ΔΦyt, ΔΦzt)
・ Rotary display of vehicle coordinate system and camera coordinate system (semi-fixed):
(Xc, Yc, Zc) = F (Xt, Yt, Zt)
・ Direction display in world coordinate system:
(Xw, Yw, Zw) = G (Xt, Yt, Zt)
・ Direction display in camera coordinate system:
(Xc, Yc, Zc) = H (Xt, Yt, Zt)
・ Vehicle coordinate system origin movement and rotation posture display with respect to the world coordinate system:
(Xw, Yw, Zw) (δXw, δYw, δZw)

以上のような本実施形態の揺れ成分検出部117によれば、例えば、電車に取り付けたカメラの場合には、揺れ成分検出部117により、電車の揺れを解析・分析し、車両や線路の異常を発見することが可能となる。通常は水銀加速時計等の高額な装置を使って揺れを計測するのに対して、本実施形態の揺れ成分検出部117を使用することにより、簡単に揺れ成分が検出でき、それを表示することができる。
そして、このような揺れ成分検出部117を用いることにより、上述したような画像の安定化処理やカメラの位置姿勢安定化処理、更には目的対象物のロックオン処理が実現できるようになる。
According to the shaking component detection unit 117 of the present embodiment as described above, for example, in the case of a camera attached to a train, the shaking component detection unit 117 analyzes and analyzes the shaking of the train to detect abnormalities in the vehicle or the track. It becomes possible to discover. Normally, the vibration component is measured by using an expensive device such as a mercury acceleration watch, but by using the vibration component detector 117 of this embodiment, the vibration component can be easily detected and displayed. Can do.
By using such a shaking component detection unit 117, it is possible to realize the above-described image stabilization processing, camera position / posture stabilization processing, and further, target object lock-on processing.

図14は、揺れ成分検出部117で検出された揺れ成分に基づく補正信号により安定化画像に変換処理される画像の一例を示しており、例えば、同図(a),(b)に示すように揺らぎのある画像が、同図(c),(d)に示すように補正された安定化画像として出力,表示されるようになる。また、図15は、補正されたカメラベクトルの軌跡を示すグラフであり、同図中、グラフ中央に直線櫛状に並ぶのがカメラ移動の軌跡であり、移動するカメラの位置と高さを示している。  FIG. 14 shows an example of an image that is converted into a stabilized image by a correction signal based on the shake component detected by the shake component detection unit 117. For example, as shown in FIGS. The image having the fluctuation is output and displayed as a stabilized image corrected as shown in FIGS. FIG. 15 is a graph showing the locus of the corrected camera vector. In FIG. 15, the locus of camera movement is arranged in a straight comb shape at the center of the graph, and shows the position and height of the moving camera. ing.

そして、以上のようにして各点の三次元位置相対座標が求められると、絶対座標取得部118において、各三次元相対座標に、予め絶対座標が測定された基準点の既知の座標が与えられ、三次元相対座標が絶対座標系に変換され、計測点、基準点、特徴点のすべての点(又は必要な所定の点)について、絶対座標が付与される。これにより、所望の計測点や、特徴点中の任意に指定した指定点についての最終的な絶対座標が得られ、そのデータが3D地図生成記録部119に記録され、3D地図情報として必要に応じて出力,表示される。  When the three-dimensional relative position coordinates of each point are obtained as described above, the absolute coordinate acquisition unit 118 gives the known coordinates of the reference point whose absolute coordinates have been measured in advance to each three-dimensional relative coordinate. The three-dimensional relative coordinates are converted into an absolute coordinate system, and absolute coordinates are assigned to all the measurement points, reference points, and feature points (or necessary predetermined points). As a result, final absolute coordinates for a desired measurement point and a designated point arbitrarily specified in the feature point are obtained, and the data is recorded in the 3D map generation / recording unit 119, and as required as 3D map information. Are output and displayed.

なお、以上の説明では、特徴点,カメラ座標と回転(カメラベクトル)を特徴点・カメラベクトル演出部115で同時に求めるように説明したが、一度カメラベクトルが求められれば、新たな特徴点,特徴点中の任意の指定点については、カメラベクトルとともに再演算することなく、すでに得られたカメラベクトルから、二つの画像、すなわち、二つのカメラ位置を底辺とする頂点の一点として簡単に演算することができる。カメラベクトルの精度が変わらないため、新たな特徴点や任意の指定点の精度も変わらない。但し、再度カメラベクトルを求めて再演算すれば、精度は一般に向上することになる。  In the above description, the feature point, camera coordinates, and rotation (camera vector) have been described as being simultaneously obtained by the feature point / camera vector rendering unit 115. However, once a camera vector is obtained, a new feature point or feature is obtained. Arbitrary designated points can be easily calculated from the already obtained camera vectors as a single vertex of two images, that is, the bases of the two camera positions, without recalculation with the camera vector. Can do. Since the accuracy of the camera vector does not change, the accuracy of new feature points and arbitrary designated points does not change. However, if the camera vector is obtained again and recalculated, the accuracy generally improves.

以上のように求められたカメラベクトルや特徴点の三次元座標は、生成された三次元地図中に表示することができる。
例えば、図16に示すように、車載カメラからの映像を平面展開して、各フレーム画像内の目的平面上の対応点を自動で探索し、対応点を一致させるように結合して目的平面の結合画像を生成し、同一の座標系に統合して表示する。そして、その共通座標系の中にカメラ位置とカメラ方向を次々に検出し、その位置や方向、軌跡をプロットしていくことができる。
図17に、本実施形態で生成される3D地図の表示例を示す。
The camera vectors and the three-dimensional coordinates of the feature points obtained as described above can be displayed in the generated three-dimensional map.
For example, as shown in FIG. 16, the image from the in-vehicle camera is developed in a plane, the corresponding points on the target plane in each frame image are automatically searched, and the corresponding points are combined so as to coincide with each other. A combined image is generated and displayed in the same coordinate system. Then, the camera position and the camera direction can be detected one after another in the common coordinate system, and the position, direction, and locus can be plotted.
FIG. 17 shows a display example of a 3D map generated in the present embodiment.

なお、以上の方法では、映像を取得するカメラは一台でも良く、複数のカメラであっても良い。カメラを同時に複数台設置し、複数のカメラ間距離による近距離計測を併用することで、三次元絶対距離の基準長を取得可能とし、また、移動体検出を可能にし、移動体座標・距離・速度を計測可能とし、さらに、移動体部分の削除を可能とすることができる。
カメラを二台用いることにより、絶対計測ができるようになり、絶対計測ができることで、カメラ一台による演算結果に基準長を与えることが可能となり、また、これによって、移動体検出が可能となる。従って、不必要な移動体については特徴点から削除することができる。
さらに、複数のカメラを用いることにより、絶対座標が既知である2点以上の特徴点を画像内に求め、特徴点地図に絶対座標を与えることができる。カメラ一台で計測した場合には相対値が得られるが、複数台使用すれば絶対距離が与えられる。そして、既知の絶対座標を二点以上の特徴点として与えれば、絶対座標が得られる。
In the above method, one camera or a plurality of cameras may be used to acquire video. By installing multiple cameras at the same time and using short distance measurement with multiple camera distances together, it is possible to obtain the reference length of 3D absolute distance, and also enables detection of moving objects, moving object coordinates, distance, The speed can be measured, and the moving body portion can be deleted.
By using two cameras, absolute measurement can be performed, and since absolute measurement can be performed, it is possible to give a reference length to the calculation result of one camera, and this enables detection of moving objects. . Therefore, unnecessary moving objects can be deleted from the feature points.
Furthermore, by using a plurality of cameras, two or more feature points whose absolute coordinates are known can be obtained in the image, and the absolute coordinates can be given to the feature point map. Relative values are obtained when measured with a single camera, but absolute distance is given when multiple cameras are used. If the known absolute coordinates are given as two or more feature points, the absolute coordinates can be obtained.

[3D地図生成]
次に、以上のように求められたカメラベクトルや特徴点の三次元座標に基づいて生成される3D地図の生成方法について、図18及び図19を参照して説明する。
図18は、本実施形態の特徴点三次元地図生成装置110で生成される三次元地図の生成方法を示す説明図であり、図19は、同様に、特徴点三次元地図生成装置110で行われる三次元地図の更新方法を示す説明図である。
[3D map generation]
Next, a method for generating a 3D map generated based on the camera vectors and the three-dimensional coordinates of feature points obtained as described above will be described with reference to FIGS.
FIG. 18 is an explanatory diagram illustrating a method for generating a 3D map generated by the feature point 3D map generation apparatus 110 according to the present embodiment, and FIG. It is explanatory drawing which shows the update method of a 3D map to be called.

ナビゲーション装置(交通自動案内装置)で使用する3D地図(三次元地図)として、本実施形態では二種類の3D地図の生成が可能であり、一つはCV映像地図であり、もう一つはCV映像から生成するCG地図による三次元地図である。
CV映像とは、カメラベクトル映像、すなわち、360度全周映像から得られるカメラ位置及びカメラ姿勢(カメラベクトル)を全フレーム画像に亘って取得し、各フレームにカメラベクトル(CV値)を対応させた360度全周映像のことである。なお、上述したように、360度全周映像ではない通常の映像であっても、360度全周映像の一部分として位置づけることができる。
In this embodiment, two types of 3D maps can be generated as 3D maps (three-dimensional maps) used in the navigation device (automatic traffic guidance device), one is a CV video map, and the other is a CV map. It is a three-dimensional map by the CG map produced | generated from an image | video.
A CV video is a camera vector video, that is, a camera position and camera orientation (camera vector) obtained from a 360-degree all-round video is acquired over all frame images, and a camera vector (CV value) is associated with each frame. 360 degree all-around video. As described above, even a normal video that is not a 360-degree all-round video can be positioned as a part of a 360-degree all-round video.

図18を参照しつつ、CV映像地図からCG地図を生成するプロセスを以下に説明する。
同図に示すように、まず、道路面を走行する車両に搭載したカメラによって走行空間の全景映像を撮影して、360度全周映像を取得する(S1801:地上4π撮影映像)。
取得した360度全周映像に基づいて、上述したようなカメラベクトル演算を行い(S1802:CV演算)、カメラベクトルを取得する。
そして、取得したカメラベクトルに対して、実写映像や既成の地図(S1807)等に基づいてキャリブレーションを施し(S1803:キャリブレーション)、さらに、CV値は相対値であることから既成の地図(S1807)と対比させることで緯度・経度・高度を取得して絶対座標取得(S1808)を行う。
A process for generating a CG map from a CV video map will be described below with reference to FIG.
As shown in the figure, first, a panoramic image of the travel space is captured by a camera mounted on a vehicle traveling on a road surface, and a 360-degree all-round image is acquired (S1801: ground 4π captured image).
Based on the acquired 360-degree all-around video, the above-described camera vector calculation is performed (S1802: CV calculation) to acquire a camera vector.
Then, the acquired camera vector is calibrated based on a live-action image, an existing map (S1807), etc. (S1803: calibration), and further, since the CV value is a relative value, an existing map (S1807) is obtained. ) To obtain latitude / longitude / altitude and obtain absolute coordinates (S1808).

路面等を俯瞰で観察するためには、空撮映像(S1804)を撮影し、その空撮映像についてCV演算(S1805)することによりカメラベクトルを取得し、同様に既成の地図(S1807)等によりキャリブレーションし(S1806)、絶対座標を取得する(S1808)。
得られた各CV値の誤差を修正して座標統合し(S1809)、これによって、CV映像地図データベースを構築する(S1810)。
CV映像地図データベース(S1810)は、そのまま三次元地図として交通案内装置に利用できるが、さらに、CV映像に基づいて三次元CG地図を生成することができる。
In order to observe the road surface and the like from a bird's-eye view, an aerial image (S1804) is taken, and a camera vector is obtained by performing CV calculation (S1805) on the aerial image, and similarly using an existing map (S1807) or the like. Calibration is performed (S1806), and absolute coordinates are acquired (S1808).
The error of each obtained CV value is corrected and the coordinates are integrated (S1809), thereby constructing a CV video map database (S1810).
The CV video map database (S1810) can be used as it is for a traffic guide device as a three-dimensional map, but a three-dimensional CG map can be generated based on the CV video.

以下、カーナビゲーション装置等においてより一般的に受け入れられている三次元CG地図をCV映像地図から生成する方法について説明する。
図18に示すように、CV映像地図データベース(S1810)は、次のプロセスで安定化処理(S1811)がなされる。
安定化処理は、S1811に示すように、まずCG化される範囲を映像の一部切りだし処理をし、画像スタビライズにより画像の揺れを排除する。次に、仮想のカメラ移動方向を決定して、走行方向指定及び横揺れ補正により画像の誤差を修正する。さらに、一定方向に一定スピードで走行する時間軸補正を行う。この安定化処理は、画像を所定の固定平面にロックオンして安定化処理を行う。
以上のようにして安定化処理された画像は、MRSSビュア上に表示される(S1812)。ここで、MRSSビュア(株式会社岩根研究所の製品名)とは、Mixed Reality Simulation Systemビュアの略で、ビュア上で三次元座標を取得できる表示装置である。
Hereinafter, a method for generating a three-dimensional CG map that is generally accepted in a car navigation apparatus or the like from a CV video map will be described.
As shown in FIG. 18, the CV video map database (S1810) is stabilized (S1811) by the following process.
In the stabilization process, as shown in S1811, first, a part of the video is cut out from the range to be converted to CG, and image stabilization is eliminated by image stabilization. Next, a virtual camera moving direction is determined, and an error in the image is corrected by specifying the traveling direction and rolling correction. Furthermore, time axis correction for traveling at a constant speed in a certain direction is performed. In this stabilization process, the image is locked on a predetermined fixed plane and the stabilization process is performed.
The image stabilized as described above is displayed on the MRSS viewer (S1812). Here, the MRSS viewer (product name of Iwane Laboratory Co., Ltd.) is an abbreviation for the Mixed Reality Simulation System viewer, and is a display device that can acquire three-dimensional coordinates on the viewer.

画像は上述した安定化処理(S1811)により安定化されているので、仮想走行面は道路面と正確に平行に移動する。そこでは、対象物の平面の移動速度は走行カメラからの垂直距離に対して逆比例し、近いものほど早く、遠いものほど遅くなる。すなわち、対象平面の移動速度が距離と一対一の関係になるので、背景分離と対象物抽出で目的とする対象物平面のみを選択的に取り出すことができる(S1813:ベクトル選択抽出)。また、MRSSビュア上で三次元計測(S1813)することにより、対象物の座標を取得することもできる。
また、移動べクトルに幅を持たせることで、ある範囲の対象物を選択的に取り出すことができる。360度映像の特徴により対象物を多視点に取得しているので、多視点テクスチャー抽出切り取り(S1814)により、背景や対象物のテクスチャーを方向別に抽出して、CGに貼り付けることができる。
さらに、対象物の三次元座標指定(マニュアル)及びワイヤフレームCG取得(S1815)を行うことで、対象物の形状をワイヤフレームで抜き出すことができる。
Since the image is stabilized by the stabilization process (S1811) described above, the virtual traveling surface moves exactly parallel to the road surface. There, the moving speed of the plane of the object is inversely proportional to the vertical distance from the traveling camera, and the closer the object is, the faster the object is, and the slower the object is. That is, since the moving speed of the object plane has a one-to-one relationship with the distance, only the target object plane can be selectively extracted by background separation and object extraction (S1813: vector selection extraction). In addition, the coordinates of the object can be acquired by performing three-dimensional measurement (S1813) on the MRSS viewer.
Moreover, a certain range of target object can be selectively taken out by giving a width | variety to a moving vector. Since the object is acquired from multiple viewpoints by the feature of the 360-degree video, the background and the texture of the object can be extracted by direction and pasted on the CG by the multi-view texture extraction cut (S1814).
Furthermore, the shape of the object can be extracted with the wire frame by specifying the three-dimensional coordinates (manual) of the object and acquiring the wire frame CG (S1815).

次に、表示されている目的の対象物に対し、手動で代表点をクリックし、対象物の三次元座標をCG作成ツールへ置換(S1816)する。これにより、3DSMAX等のCG生成ツールに入力し、そのツール上でCGを生成することができる(S1817)。また、簡単な図形はMRSSビュア上で生成できるようにする。すなわち、垂直線・水平線・垂直面・水平面・垂直円柱等のCG生成(S1818)や、図形回転・図形切断・移動・簡易加工(S1819)を行うことができる。
そして、生成したCGには、マニュアルで対象物の属性付加(S1820)を行い、座標統合して(S1821)、三次元CG地図データベース(S1822)が構築される。
Next, the representative point is manually clicked on the displayed target object, and the three-dimensional coordinates of the target object are replaced with the CG creation tool (S1816). Thereby, it can input into CG generation tools, such as 3DSMAX, and can generate CG on the tool (S1817). A simple figure can be generated on the MRSS viewer. That is, CG generation (S1818) of vertical lines, horizontal lines, vertical planes, horizontal planes, vertical cylinders, etc., and figure rotation, figure cutting, movement, and simple processing (S1819) can be performed.
Then, the attribute of the object is manually added to the generated CG (S1820), the coordinates are integrated (S1821), and a three-dimensional CG map database (S1822) is constructed.

なお、以上のようなCGを付加した三次元地図については、適宜CGを簡略化し、あるいは消去することが可能である。三次元地図におけるCGの果たす役割は、一つにはそれを人間が見るものだからである。従って、三次元地図を、もし人間が見ず、機械が見る(認識する)だけでよいのであれば、使用目的に応じて、または必要とされる精度に応じて、CGの形状そのものを正確に生成する必要はなくなり、CGの属性としては、名称(対象物の名前)と概略位置座標と概略の大きさ程度の登録でよいことになる。また、さらに省略して、概略の大きさも無視でき、点,直線,面だけで表現して登録することが可能な場合もあり得る。  In addition, about the three-dimensional map to which the above CG was added, CG can be simplified or deleted suitably. The role played by CG in 3D maps is because one sees it. Therefore, if the 3D map can be viewed (recognized) by the machine without being viewed by humans, the shape of the CG itself can be accurately determined according to the purpose of use or according to the required accuracy. There is no need to generate the CG, and the registration of the name (name of the object), the approximate position coordinates, and the approximate size is sufficient as the attribute of the CG. Further, it may be omitted, the approximate size can be ignored, and it may be possible to express and register only with points, straight lines, and surfaces.

例えば、機械が見る場合には、色や価値は必要なく、道路標識・電柱・ガードレール等はその道路側の位置座標だけでよく、また、形状も必要なく、例えばガードレールは線又は面で近似する。従って、ガードレースなどは大まかな存在範囲だけを取得し、道路標識はその存在位置座標を点で登録すればよく、道路のセンターラインは連続する線で近似し、登録することで目的を達することができる。
このように、CG三次元地図の生成については、可能な限り簡略化することができ、それによってコストダウンを図ることができる。
For example, when a machine sees, color and value are not necessary, and road signs, utility poles, guardrails, etc. need only be position coordinates on the road side, and no shape is necessary, for example, guardrails are approximated by lines or planes . Therefore, guard races, etc. only acquire a rough existence range, road signs only need to register the existence position coordinates as points, and the center line of the road approximates with continuous lines and registers to achieve the purpose. Can do.
Thus, the generation of the CG three-dimensional map can be simplified as much as possible, thereby reducing the cost.

次に、以上のようにして生成されたCV映像地図を更新する場合について、図19を参照しつつ説明する。
図19に示すように、CV映像地図(S1901)を更新する場合には、まず、自動更新の前処理を行っておく。
具体的には、映像中の目印として適切な対象物等、新旧映像で比較するに適した対象物を重要ポイントをマニュアル指定しておく(S1902)。重要ポイントは、ある領域を持った断片の画像である。また、画像としての特徴ある部分を自動抽出し(S1903:特徴ポイント自動抽出)、重要ポイントと特徴点の三次元座標取得をする(S1904)。
Next, the case of updating the CV video map generated as described above will be described with reference to FIG.
As shown in FIG. 19, when updating the CV video map (S1901), first, automatic update preprocessing is performed.
Specifically, an important point is manually designated for an object suitable for comparison between old and new images, such as an object suitable as a mark in the image (S1902). The important point is an image of a fragment having a certain area. Further, a characteristic part as an image is automatically extracted (S1903: feature point automatic extraction), and the three-dimensional coordinates of the important point and the feature point are acquired (S1904).

重要ポイントと特徴点は、必要に応じて映像に対応させて一部三次元部品化(S1905)することにより、三次元座標とともに記録することができ(S1906)、これによって、更新のための自動更新機能を持つCG映像地図データベース(S1907)が構築されることになる。
以上のような前処理を経た後に、CV映像地図データの更新処理を行う。
更新処理は、まず、更新用映像として4π撮影映像(360度全周映像)を取得する(S1908)。すなわち、CV映像地図データを更新するためには、更新用の映像を取得して新旧映像を比較しなければならない。
Important points and feature points can be recorded together with three-dimensional coordinates (S1906) by making them partly three-dimensional parts (S1905) corresponding to the video as required, thereby enabling automatic updating for updating. A CG video map database (S1907) having an update function is constructed.
After the pre-processing as described above, the CV video map data is updated.
In the update process, first, a 4π-captured video (360-degree all-round video) is acquired as an update video (S1908). That is, in order to update the CV video map data, it is necessary to acquire an update video and compare the old and new video.

新旧映像の比較は、まず、重要ポイントについて初期位置合わせを行い(S1909)、更新映像の最初のフレームだけをマニュアルで重要ポイントの旧映像との対応を取る(S1910)。次に、新画像座標取得により(S1911)、更新画像の重要ポイントの三次元座標と回転座標を取得する。
同様に、特徴点ポイント抽出(S1912)により特徴点を自動抽出し、特徴点ポイント新旧対応(S1913)により新旧映像の対応をとり、新画像座標取得により(S1914)更新画像の特徴ポイントの三次元座標と回転座標を取得する。
In the comparison of new and old videos, first, initial alignment is performed for important points (S1909), and only the first frame of the updated video is manually matched with old videos of important points (S1910). Next, by acquiring new image coordinates (S1911), the three-dimensional coordinates and rotation coordinates of the important point of the updated image are acquired.
Similarly, feature points are automatically extracted by feature point extraction (S1912), new and old images are handled by feature point correspondence (S1913), and new image coordinates are acquired (S1914). Get coordinates and rotation coordinates.

三個以上の重要ポイントにより、あるいは、必要に応じて特徴ポイントも加えて、新画像カメラ座標点取得(S1915)により、更新画像のカメラベクトルを三角形を解く演算で求めることができる。なお、特徴ポイントの抽出・新旧対応・座標取得(S1912〜S1914)については省略してもよい。
このようにして、更新された映像とそのカメラベクトルが取得されると(S1915)、そのカメラベクトルによって、自動更新機能を持つCV映像地図データベース(S1907)を更新することができる。
さらに、CG地図データを更新するためには、上述した新画像座標取得(S1911)により、重要ポイントの三次元座標を取得し、新旧座標を比較し(S1916)、更新対象物を特定して(S1917)、同じ座標に有るか否かを自動判断する。座標が一致しない場合には対象物を入れ替える必要があると判断し、図18で示したCG生成によるマニュアル処理(S1918)により、更新のためのCGを自動又はマニュアルで生成し、重要ポイントを更新した三次元CG地図データベース(S1919)に、更新データを記録する。
By obtaining three or more important points, or adding feature points as necessary, new image camera coordinate point acquisition (S1915), the camera vector of the updated image can be obtained by calculation for solving the triangle. Note that feature point extraction / new / old correspondence / coordinate acquisition (S1912 to S1914) may be omitted.
When the updated video and its camera vector are acquired in this way (S1915), the CV video map database (S1907) having an automatic update function can be updated with the camera vector.
Further, in order to update the CG map data, the above-described new image coordinate acquisition (S1911) acquires the three-dimensional coordinates of the important point, compares the new and old coordinates (S1916), and specifies the update object ( S1917), it is automatically determined whether or not they are at the same coordinates. If the coordinates do not match, it is determined that the object needs to be replaced, and the CG for update is automatically or manually generated by manual processing (S1918) by CG generation shown in FIG. The updated data is recorded in the three-dimensional CG map database (S1919).

図20は、道路上空から撮影した映像に基づいて三次元地図を生成する場合の一例を示している。同図に示す道路映像は360度のCV映像であり、完全な平面図ではなく、地上数メートルから観察した道路面となっている。
道路の三次元地図を生成する場合には、道路面の近傍の形状が重要であり、高い計測精度が求められる。一般に、道路構造は、図20(a)の断面図に示すよな構造をしていることが前もって分かっているので、その形状を予想して、三次元計測をすることができる。
FIG. 20 shows an example of generating a three-dimensional map based on a video taken from the sky of the road. The road image shown in the figure is a 360-degree CV image, and is not a complete plan view but a road surface observed from several meters above the ground.
When generating a three-dimensional map of a road, the shape near the road surface is important, and high measurement accuracy is required. In general, since it is known in advance that the road structure has a structure as shown in the cross-sectional view of FIG. 20A, the shape of the road structure can be predicted and three-dimensional measurement can be performed.

また、360度映像の特長を生かして、道路面の直下を視点方向とする道路面表示に設定することで、広い領域でのマッチング&グリップが可能となる。具体的には、通常任意方向では15*15ピクセル程度の領域でのマッチング&グリップが限界であったが、直下表示では視点と道路面が直角に近い形となり、フレーム間画像は形状を変更することなく移動するので、各フレームによる画像歪みを無視することができる。
これにより、例えば50*50ピクセル以上の広い領域でのマッチング&グリップ(M&G)が可能となり、特徴の少ない道路面であってもマッチング&グリップが行え、計測精度が向上する。
さらに、道路舗装面には道路標示(センターライン,路肩ライン等)が決められた基準で描かれていることから、そのパターンをPRMオペレータ(PRM Operator)の部品として予め用意しておき、用意されたオペレータ部品と映像比較することで、その三次元的位置を検出することが可能となる。
Furthermore, matching and gripping over a wide area is possible by making use of the feature of the 360-degree video and setting the road surface display so that the viewing direction is directly below the road surface. Specifically, matching and grip in an area of about 15 * 15 pixels is usually the limit in an arbitrary direction, but in the direct display, the viewpoint and the road surface are nearly perpendicular, and the inter-frame image changes its shape. Therefore, image distortion caused by each frame can be ignored.
Thereby, for example, matching and grip (M & G) can be performed in a wide area of 50 * 50 pixels or more, matching and grip can be performed even on a road surface with few features, and measurement accuracy is improved.
Furthermore, since road markings (center line, shoulder line, etc.) are drawn on the road pavement surface according to a predetermined standard, the pattern is prepared in advance as a part of a PRM operator (PRM Operator). It is possible to detect the three-dimensional position by comparing the image with the operator part.

ここで、PRMとは、Parts Reconstruction Method(3D空間認識方法)の略であり、本願出願人が既に特許出願している対象物を認識するための技術である(国際出願PCT/JP01/05387号参照)。具体的には、PRM技術は、前もって予想される対象物の形状と属性を部品(オペレータ部品)としてすべて用意しておき、それら部品と現実の実写映像を対比して、一致する部品を選択して対象物を認識する技術である。車両の自動案内走行や自動運転走行のために必要となる対象物の「部品」は、道路標示としての車線、白線、黄線、横断道、道路標識としての速度標識、案内標識などであり、これらは定形のものであるので、PRM技術によりその認識は容易に行える。また対象物をCV映像中に検索する場合においても、その対象物の存在する予想三次元空間を狭い範囲に限定することが可能となり、認識の効率化が可能となる。  Here, PRM is an abbreviation for Parts Reconstruction Method (3D space recognition method), and is a technique for recognizing an object for which the applicant has already applied for a patent (International Application PCT / JP01 / 05387). reference). Specifically, the PRM technology prepares all the shapes and attributes of the object to be predicted in advance as parts (operator parts), compares these parts with actual live-action images, and selects matching parts. Technology that recognizes objects. The `` parts '' of the objects required for automatic guided driving and automatic driving of vehicles are lanes, white lines, yellow lines, crossing roads as road markings, speed signs as road signs, guidance signs, etc. Since these are fixed shapes, they can be easily recognized by the PRM technology. Further, even when searching for an object in the CV video, it is possible to limit the expected three-dimensional space in which the object exists to a narrow range, and to improve the efficiency of recognition.

具体的には、道路面オペレータとしては、図20(c)に示すようなパターンがある。なお、オペレータ部品としては図示しない他のパターンも多数想定されるが、三次元地図においては道路全面の計測は必要なく、道路面を適切な間隔でサンプリングして道路断面図を完成させればよいので、図20に示す程度で十分であると言える。
さらに、三次元のPRMオペレータ部品(PRM 3D Operator)も用意し、三次元的にマッチングすることで、例えば、道路の縁石部分の段差についても精度良く再現することができる。
Specifically, as a road surface operator, there is a pattern as shown in FIG. Although many other patterns not shown are assumed as operator parts, it is not necessary to measure the entire road surface in a three-dimensional map, and it is sufficient to complete the road sectional view by sampling the road surface at appropriate intervals. Therefore, it can be said that the degree shown in FIG. 20 is sufficient.
Furthermore, by preparing a three-dimensional PRM operator part (PRM 3D Operator) and matching it in three dimensions, for example, the step of the curb portion of the road can be accurately reproduced.

図21は、図20に示した道路を立体視した三次元地図を示す。
同図に示すように、舖装道路の映像においては、PRMオペレータは、図20に示したセンターライン等の道路面表示よりも、立体的な道路標識の認識においてその有効性を発揮する。すなわち、道路標識の認識に関しては、図21(a)に示すように、CV映像上に道路標識予想空間を想定して、その限定された空間で目的の道路標識の種類と位置と形状と座標を認識することが可能となる。
CV映像は、実写画像上に道路標識予想空間をCGとして合成配置することができ、その制限範囲のみで目的の道路標識を検索することが可能となる。
また、道路標識の形状やサイズ等は通常決まっているので、予め用意してある各道路標識の三次元オペレータ部品として(図21(b)参照)、道路標識予想空間の中に三次元的に決まった大きさの標識を検索し、探し出すことが可能となる。そして、探し出された標識の種類と位置と座標と形状が認識される。
FIG. 21 shows a three-dimensional map in which the road shown in FIG. 20 is stereoscopically viewed.
As shown in the figure, in the video of the outfitted road, the PRM operator exhibits its effectiveness in the recognition of a three-dimensional road sign rather than the road surface display such as the center line shown in FIG. That is, regarding the recognition of the road sign, as shown in FIG. 21A, assuming the road sign expected space on the CV video, the type, position, shape and coordinates of the target road sign in the limited space. Can be recognized.
In the CV video, the road sign prediction space can be synthesized and arranged as a CG on the photographed image, and the target road sign can be searched only within the limited range.
In addition, since the shape and size of the road sign are usually determined, as a three-dimensional operator part of each road sign prepared in advance (see FIG. 21 (b)), the road sign prediction space is three-dimensionally displayed. It is possible to search for and find signs of a certain size. Then, the type, position, coordinates and shape of the found sign are recognized.

このように、CV映像は、対象物が三次元座標を持つのと同じ扱いが可能であり、検索には極めて有利となる。道路標識のように、検索するものの形状が既に決まっているものについては、その三次元位置における見かけの大きさを計算で求められるので、PRMオペレータを使用するのが有利であり、PRMオペレータ部品として様々な標識を用意しておくことで、用意された標識部品の中から一致する部品を探し出すことで、対象標識を認識することが可能となる。
さらに、MRSSビュアで表示される360度実写のCV映像は、CV映像内の任意の点をマウスでクリックすることにより、(1)その指定した点の三次元座標を取得できるとともに、(2)指定した任意の2点間をマウスで直線に結び、その2点間の距離を計測でき、さらに、(3)任意の多角形をマウスで指定・入力することによりその多角形の面積を計測することができる。従って、この機能を利用してCV映像中の目的対象物の位置をマウスのクリック操作するだけで、(1)実写映像の中に属性の登録ポイントを指定することができ、(2)道路形状や道路標示を直線で登録でき、さらに、(3)路面や看板の面を登録することが可能となる。
In this way, the CV video can be handled in the same way as an object having three-dimensional coordinates, which is extremely advantageous for searching. For road signs that have already been determined in shape, the apparent size at the 3D position can be obtained by calculation, so it is advantageous to use the PRM operator. By preparing various signs, it is possible to recognize a target sign by searching for a matching part from the prepared sign parts.
Furthermore, a 360 degree live-action CV video displayed in the MRSS viewer can be obtained by (1) acquiring the three-dimensional coordinates of the designated point by clicking an arbitrary point in the CV video with a mouse. Connect any two specified points to a straight line with the mouse, measure the distance between the two points, and (3) measure the area of the polygon by specifying and entering any polygon with the mouse be able to. Therefore, by using this function, just by clicking the position of the target object in the CV video with a mouse click, (1) an attribute registration point can be specified in the live-action video, and (2) road shape And road markings can be registered as straight lines, and (3) road surfaces and signboard surfaces can be registered.

図22は、CV映像中に手動により対象物の属性を取得し登録する場合の手順を示す図であり、MRSSビュアで同図(a)に示すCV映像が表示されている場合に、同図(b)に示すように、マウスを用いて映像中に所望の点や直線を指定することができる。指定した点や直線,面は登録することができ、同図(c)に示すように三次元地図として出力・表示することができる。
このようにCV映像の任意の点を指定して直線や面のみを登録することで三次元地図が生成でき、その登録の際に属性についても分類しておけば属性抽出も同時に完了し、所望の三次元地図を容易に生成・取得することができる。
FIG. 22 is a diagram showing a procedure for manually acquiring and registering an object attribute in a CV video. When the CV video shown in FIG. 22A is displayed in the MRSS viewer, FIG. As shown in (b), a desired point or straight line can be designated in the video using the mouse. The designated points, straight lines, and surfaces can be registered, and can be output and displayed as a three-dimensional map as shown in FIG.
In this way, a 3D map can be generated by designating an arbitrary point of a CV video and registering only a straight line or a surface. If attributes are classified at the time of registration, attribute extraction is completed at the same time. 3D maps can be easily generated and acquired.

[ナビゲーション動作]
次に、以上説明したような本実施形態に係るナビゲーション装置における全体の動作の概要を図23〜図26を参照しつつ説明する。
図23に示すように、本実施形態のナビゲーション装置の動作は大きく2つに分けられ、一つはCV映像地図生成装置(特徴点三次元地図生成装置110)側で行われる前処理と、もう一つは車両等に積載されたナビゲーション装置(地点探索ナビゲーション装置130)側で行われる後処理である。
[Navigation behavior]
Next, an overview of the overall operation of the navigation device according to the present embodiment as described above will be described with reference to FIGS.
As shown in FIG. 23, the operation of the navigation device of this embodiment is roughly divided into two, one is pre-processing performed on the CV video map generation device (feature point three-dimensional map generation device 110) side, and One is post-processing performed on the side of a navigation device (point search navigation device 130) loaded on a vehicle or the like.

[前処理]
前処理としては、以下の手順により行う。
まず、図23に示すように、車載カメラ等で360度全周映像が取得され(S2201:369度映像撮影)、この360度映像についてCV演算により全フレームのカメラベクトルが取得される(S2202:CVデータ付加)。なお、カメラで撮影される映像は原則として360度全周映像であることが望ましいが、必ずしも360度全周映像でなくてもよい。
CV演算で得られたCVデータは相対値であるので、これを実測データやGPS等に基づいて絶対座標(緯度・経度・高さ)に変換する(S2203:絶対座標取得)。
[Preprocessing]
Pre-processing is performed according to the following procedure.
First, as shown in FIG. 23, a 360-degree all-round video is acquired by an in-vehicle camera or the like (S2201: 369-degree video shooting), and a camera vector of all frames is acquired for the 360-degree video by CV calculation (S2202: CV data addition). In principle, it is desirable that the video captured by the camera is a 360-degree all-round video, but it is not necessarily required to be a 360-degree all-round video.
Since the CV data obtained by the CV calculation is a relative value, it is converted into absolute coordinates (latitude / longitude / height) based on actual measurement data, GPS, and the like (S2203: absolute coordinate acquisition).

また、CV映像中、後に計測基準となり得る画像部位を切り取り、当該部位の属性とともに付加・記録する(S2204:指定基準部位座標及び属性付加)。ここでは、さらに座標を与えてもよい。指定点は部分映像として切り取ることでデータ量を小さくする。専用マークを静止物体の映像として取得することもできる。
CV映像中の重要ポイント及び看板等については、CG化して属性とともにCV映像に合成又は対応させておく(S2205:指定CG付加)。交通標識等は共通するものであるので、共通のCGとしてそのIDと座標のみを付加する。
以上の手順により、各フレームに対応するCVデータ・属性等を生成する(S2206:CV映像生成)。なお、計測のみで映像を観察しない場合は、特徴部位のみの映像とする。そして、生成されたCV映像は、WEB,HDD又はDVD等により、後処理を行うナビゲーション装置側に配信する(S2207:CV映像配信)。
Further, in the CV video, an image part that can be a measurement reference later is cut out and added and recorded together with the attribute of the part (S2204: designation reference part coordinate and attribute addition). Here, coordinates may be further given. The specified point is cut out as a partial video to reduce the data amount. The dedicated mark can also be acquired as an image of a stationary object.
Important points, signboards, and the like in the CV video are converted into CG and combined with or associated with the CV video together with attributes (S2205: addition of designated CG). Since traffic signs and the like are common, only the ID and coordinates are added as a common CG.
Through the above procedure, CV data and attributes corresponding to each frame are generated (S2206: CV video generation). In addition, when the image is not observed only by measurement, the image is only the characteristic part. Then, the generated CV video is distributed to the navigation device side that performs post-processing by WEB, HDD, DVD or the like (S2207: CV video distribution).

[後処理]
後処理としては、以下の手順により行う。
まず、図23に示すように、配信されたCV映像をWEB等を介して受信し、あるいは購入したDVD等から読み取る(S2301:CV映像受信)。
また、車両に積載したカメラで現在の360度映像を取得する(S2302:リアルタイム映像取得)。なお、ここでも取得映像は必ずしも360度映像でなくてもよい。
そして、受信したCV映像と車載カメラで撮影されたリアルタイム映像を比較することにより、車両の現在位置を演算で求める(S2303:リアルタイム車両位置計測)。なお、この車両の現在位置の演算は、(1)CV演算で求める方法と、(2)座標が既知の指定点から演算で車両の座標を求める方法と、(3)両者を組み合わせた中間の方法とがある。
[Post-processing]
The post-processing is performed according to the following procedure.
First, as shown in FIG. 23, the distributed CV video is received via WEB or the like, or read from a purchased DVD or the like (S2301: CV video reception).
In addition, the current 360-degree video is acquired by a camera loaded on the vehicle (S2302: real-time video acquisition). Also here, the acquired video does not necessarily have to be a 360-degree video.
Then, the current position of the vehicle is calculated by comparing the received CV image and the real-time image captured by the in-vehicle camera (S2303: real-time vehicle position measurement). The calculation of the current position of the vehicle includes (1) a method of calculating by CV calculation, (2) a method of calculating the coordinates of the vehicle by calculation from a designated point whose coordinates are known, and (3) an intermediate between the combination of both. There is a method.

その後、求められた自車両の三次元位置を地図上に高精度(例えばGPSの十倍以上の精度)で表示し、ナビゲーションに必要な項目を自動表示する(S2304:ナビゲーション項目自動選択、S2305:マルチビュア表示)。このとき、ナビゲーション目的の属性を表示する。また、車両の座標と地図を比較し、自車両走行に必要な標識・道路標示・案内板等を走行に合わせて順次選択することができる。さらに、表示画像内で対象物をクリックすることにより属性表示することができる。
なお、自車両の三次元位置を表示すればナビゲーションとしては十分であり、CV映像(記録映像)自体は表示しなくてもよい。
また、自車両の位置を三次元地図上に表示する場合に、GPSは概略位置を求める補助的情報として利用できる(後述する第二実施形態参照)。
Thereafter, the obtained three-dimensional position of the host vehicle is displayed on the map with high accuracy (for example, accuracy more than 10 times GPS), and items necessary for navigation are automatically displayed (S2304: navigation item automatic selection, S2305: Multiview display). At this time, the navigation purpose attribute is displayed. Further, the coordinates of the vehicle and the map can be compared, and signs, road markings, guide plates, etc. necessary for traveling of the host vehicle can be sequentially selected according to the traveling. Furthermore, the attribute can be displayed by clicking on the object in the display image.
Note that displaying the three-dimensional position of the host vehicle is sufficient for navigation, and the CV video (recorded video) itself may not be displayed.
Further, when displaying the position of the host vehicle on a three-dimensional map, the GPS can be used as auxiliary information for obtaining the approximate position (see the second embodiment described later).

以上でナビゲーション装置の全体の動作が完了するが、さらに、図24に示すように、ナビゲーション装置側の後処理において、自車両の周囲のCV映像を任意の視角で表示し、目的によって任意視点で表示することができる(図24のS2306:任意視点映像及び属性表示)。このとき、交通標識等は共通のCG部品から取り出して表現することができる。また、夜間に昼間の映像を表示したり、積雪した冬に夏の映像を表示することも可能である。
また、図25に示すように、後処理において、車間距離や周囲を走行する車両の方向と速度、路面状況等の走行状況の情報をリアルタイムで判断して、走行に必要な認識・判断の結果を表示することもできる(図25のS2307:走行状況認識・判断)。
Although the entire operation of the navigation device is completed as described above, as shown in FIG. 24, in the post-processing on the navigation device side, the CV video around the host vehicle is displayed at an arbitrary viewing angle, and from an arbitrary viewpoint depending on the purpose. It can be displayed (S2306 in FIG. 24: arbitrary viewpoint video and attribute display). At this time, a traffic sign etc. can be taken out from a common CG part and expressed. It is also possible to display daytime images at night or summer images in the snowy winter.
In addition, as shown in FIG. 25, in post-processing, information on the driving situation such as the inter-vehicle distance, the direction and speed of the vehicle running around, the road surface condition, etc. is judged in real time, and the recognition / judgment results necessary for the running are obtained. Can also be displayed (S2307 in FIG. 25: travel status recognition / judgement).

さらに、図26に示すように、後処理において得られたデータは、他の車両や基地局との間で送受信することが可能である(図26のS2308:走行状況認識・判断データ送受信)。
すなわち、自車両で認識・判断した結果の走行状況認識・判断データを他車両と共有するために、所定のデータを多謝料に送信することができ、同時に、周囲を走行する他車両が認識・判断した結果の走行状況認識・判断データを受信して、自車両の走行に反映させることが可能である(後述する第三実施形態参照)。
さらにまた、所定の基地局に自車両の走行状況認識・判断データを送信し、基地局から送られる走行状況認識・判断データを受信して自車両の走行に反映させることも可能である(後述する第三実施形態参照)。
Furthermore, as shown in FIG. 26, the data obtained in the post-processing can be transmitted / received to / from other vehicles and base stations (S2308 in FIG. 26: travel state recognition / judgment data transmission / reception).
In other words, in order to share the driving situation recognition / determination data as a result of recognition / judgment with the own vehicle with other vehicles, predetermined data can be transmitted to the multi-payment, and at the same time, other vehicles traveling around can It is possible to receive the traveling state recognition / determination data as a result of the determination and reflect it in the traveling of the host vehicle (see the third embodiment described later).
Furthermore, it is also possible to transmit the traveling state recognition / determination data of the own vehicle to a predetermined base station, receive the traveling state recognition / determination data sent from the base station, and reflect it in the traveling of the own vehicle (described later). See the third embodiment).

以上説明したように本実施形態のナビゲーション装置によれば、車両等の移動体に搭載されたカメラで撮影される動画映像の複数のフレーム画像から充分な数の特徴点を自動検出し、各フレーム間で特徴点を自動追跡することにより、多数の特徴点について重複演算して、カメラベクトル(カメラ位置と回転角)と特徴点の三次元位置座標を高精度に求めることができる。
そして、得られた特徴点の三次元座標を予め記録媒体に格納し、その三次元座標を現実に移動する移動体から撮影されたカメラ映像と対比することで、あるいは、カメラから得られた映像から、リアルタイムにカメラ位置の三次元座標を直接生成し、現在のカメラ位置を示す高精度な三次元情報を得ることができ、これによって、移動体のナビゲーションシステムとして用いることができる。
As described above, according to the navigation device of the present embodiment, a sufficient number of feature points are automatically detected from a plurality of frame images of a moving image captured by a camera mounted on a moving body such as a vehicle, and each frame is detected. By automatically tracking feature points between them, multiple feature points can be overlapped and camera vectors (camera position and rotation angle) and three-dimensional position coordinates of the feature points can be obtained with high accuracy.
Then, the three-dimensional coordinates of the obtained feature points are stored in advance in a recording medium, and the three-dimensional coordinates are compared with a camera image taken from a moving body that actually moves, or an image obtained from the camera From the above, it is possible to directly generate the three-dimensional coordinates of the camera position in real time and obtain highly accurate three-dimensional information indicating the current camera position, thereby being used as a navigation system for a mobile object.

具体的には、本発明のナビゲーション装置では、車両等の移動体の現在地点座標をGPSより高い精度でリアルタイムに取得するために、画像処理技術を用いて、画像内の複数の特徴有る点に着目し、前もって特徴点の三次元座標を精度良く計測しておく。そして、その特徴点を三次元座標に記述した地図(3D地図)を記録媒体に格納し、移動体側でその記録媒体を再生することで、特徴点の三次元座標を読み出すことができる。さらに、移動体の現在地点で得られたカメラ画像から映像内の特徴点を抽出し、その特徴点の方向と、記録媒体に予め記録された三次元座標が既知である特徴点の方向とを比較して、複数の特徴点の方向が一致する地点の座標を演算により求めることで、カメラ位置を示す三次元座標、すなわち、現在の移動体の位置を示す三次元座標を得ることができる。
これにより、走行する車両等の移動体の現在位置が、カメラ映像から直接的に、あるいは、予め生成,記録された三次元地図によって正確に示されることになり、従来のGPSシステムでは不可能であった、誤差範囲が数cm程度の高精度なナビゲーションシステムを実現することができる。
Specifically, in the navigation device of the present invention, in order to obtain the current position coordinates of a moving body such as a vehicle in real time with higher accuracy than GPS, the image processing technique is used to obtain a plurality of features in the image. Pay attention and measure the three-dimensional coordinates of the feature points in advance with high accuracy. Then, a map (3D map) in which the feature points are described in three-dimensional coordinates is stored in a recording medium, and the recording medium is reproduced on the mobile body side, whereby the three-dimensional coordinates of the feature points can be read out. Further, the feature point in the video is extracted from the camera image obtained at the current location of the moving object, and the direction of the feature point and the direction of the feature point whose three-dimensional coordinates recorded in advance on the recording medium are known. In comparison, by obtaining the coordinates of points where the directions of a plurality of feature points coincide with each other, three-dimensional coordinates indicating the camera position, that is, three-dimensional coordinates indicating the current position of the moving body can be obtained.
As a result, the current position of a moving object such as a traveling vehicle is accurately indicated directly from a camera image or by a three-dimensional map generated and recorded in advance, which is impossible with a conventional GPS system. A highly accurate navigation system with an error range of about several centimeters can be realized.

[第二実施形態]
次に、本発明のナビゲーション装置の第二実施形態について、図27を参照して説明する。
図27は、本発明の第二実施形態に係るナビゲーション装置100の概略構成を示すブロック図である。本実施形態のナビゲーション装置100は、選択的に付加することができるオプション装置300を備えるようになっている。
同図に示すように、本実施形態では、オプション装置300として、3D地図属性付加装置310,GPS装置320,データ更新装置330及びオプション表示装置340を備えることができる。
[Second Embodiment]
Next, a second embodiment of the navigation device of the present invention will be described with reference to FIG.
FIG. 27 is a block diagram showing a schematic configuration of the navigation device 100 according to the second embodiment of the present invention. The navigation device 100 of the present embodiment includes an optional device 300 that can be selectively added.
As shown in the figure, in the present embodiment, as the optional device 300, a 3D map attribute adding device 310, a GPS device 320, a data updating device 330, and an optional display device 340 can be provided.

[3D地図属性付加装置]
3D地図属性付加装置310は、記録媒体120に記録される情報として、特徴点の三次元座標以外の付加情報として属性情報を付加することができる。
ここで、特徴点の属性とは、例えば、特徴点の属するビルディングの名称,通りの名称,住所,歴史の記述等があり、また、特徴点が標識一部であればその標識の意味等である。
具体的には、特徴点属性取得部311において特徴点の属性を取得する。
所属対象物3D形状座標取得部312では、属性を付加すべき特徴点の三次元座標を特徴点三次元地図生成装置110の特徴点・カメラベクトル演算部115から入力する。
属性付加部313では、入力された三次元座標に対応する属性情報を付加する。
属性付き対象物3D地図生成部314では、属性情報が付加された三次元情報を特徴点三次元地図生成装置110の3D地図生成部119に戻す。
これにより、記録媒体120に記録される三次元情報として特徴点の属性情報が付加されるようになる。
[3D map attribute addition device]
The 3D map attribute adding device 310 can add attribute information as additional information other than the three-dimensional coordinates of feature points as information recorded on the recording medium 120.
Here, the attribute of the feature point includes, for example, the name of the building to which the feature point belongs, the street name, the address, the history description, and the like. is there.
Specifically, the feature point attribute acquisition unit 311 acquires the feature point attribute.
The belonging object 3D shape coordinate acquisition unit 312 inputs the three-dimensional coordinates of the feature point to which the attribute is to be added from the feature point / camera vector calculation unit 115 of the feature point three-dimensional map generation device 110.
The attribute adding unit 313 adds attribute information corresponding to the input three-dimensional coordinates.
The attributed object 3D map generation unit 314 returns the 3D information to which the attribute information is added to the 3D map generation unit 119 of the feature point 3D map generation device 110.
Thereby, feature point attribute information is added as three-dimensional information recorded in the recording medium 120.

[GPS装置]
GPS装置320は、地点探索ナビゲーション装置130の概略現在位置指定部132に、GPSによって得られる緯度経度高度データを出力し、概略現在位置指定部132における移動体の概略の現在位置を指定する。
また、GPS装置320は、地点探索ナビゲーション装置130のカメラ座標演算部138で得られた現時点の移動体状況を示すカメラ位置,方向,姿勢等の三次元データを入力し、GPSで得られるデータを補正し、映像から特徴点が得られない場合の補助装置として利用する。
[GPS device]
The GPS device 320 outputs latitude / longitude altitude data obtained by GPS to the approximate current position specifying unit 132 of the point search navigation device 130, and specifies the approximate current position of the moving object in the approximate current position specifying unit 132.
Further, the GPS device 320 inputs three-dimensional data such as the camera position, direction, and posture indicating the current moving body situation obtained by the camera coordinate calculation unit 138 of the point search navigation device 130, and obtains the data obtained by GPS. It is corrected and used as an auxiliary device when a feature point cannot be obtained from the video.

GPSは、本発明のナビゲーション装置で得られる位置情報と比較して精度が悪いが、概略位置を指定する情報としては適切である。GPSからの概略位置情報があれば、地点探索ナビゲーション装置130により、現在地点周辺の特徴点を探すのに大きな手がかりとなる。
また、このように精度の悪いGPSを主体とした計測システムにおいては、本発明による高精度な位置データを補正信号として利用して、GPSシステムで得られたデータを補正することにより、最終的に本発明と同等の精度を一定期間保持することが可能となる。
さらに、本発明のナビゲーション装置においてカメラ映像の取得が困難となる夜間やトンネル内などにおいては、GPSシステムとの併用が望ましい場合もある。
The GPS is less accurate than the position information obtained by the navigation device of the present invention, but is suitable as information for specifying the approximate position. If there is approximate position information from the GPS, the point search navigation device 130 is a great clue to search for feature points around the current point.
Further, in such a measurement system mainly composed of GPS having poor accuracy, the high-accuracy position data according to the present invention is used as a correction signal to correct the data obtained by the GPS system. The accuracy equivalent to that of the present invention can be maintained for a certain period.
Further, in the navigation device of the present invention, it may be desirable to use the GPS system together at night or in a tunnel where it is difficult to obtain a camera image.

そこで、本実施形態では、ナビゲーション装置100のオプション装置としてGPS装置320を組み合わせることで、計測可能地点ではナビゲーション装置100により計測し、映像的な特徴点が充分に得られないような場合には、本装置で取得された最終データによってGPSを補正,校正することで、高精度にGPSシステムを稼働させることができる。これによって、本ナビゲーション装置100とGPSのそれぞれの長所を有効活用することができる。
具体的には、GPSデータ取得部321では、GPSで得られたデータを取得する。
Therefore, in the present embodiment, when the GPS device 320 is combined as an optional device of the navigation device 100, measurement is performed at the measurable point by the navigation device 100, and image feature points cannot be sufficiently obtained. The GPS system can be operated with high accuracy by correcting and calibrating the GPS with the final data acquired by this apparatus. As a result, the advantages of the navigation device 100 and the GPS can be effectively utilized.
Specifically, the GPS data acquisition unit 321 acquires data obtained by GPS.

装置座標演算部322では、GPSデータに基づいて、地点探索ナビゲーション装置130の概略現在位置指定部132に入力する座標信号を生成,出力する。
GPSデータ補正部323では、地点探索ナビゲーション装置130のカメラ座標演算138で得られた精度の高い位置情報を入力し、GPS計測装置との差を検出して、そこからGPSの補正校正信号を生成する。なお、GPSデータ補正部323には、GPS位置計測装置に生成した高精度の補正校正信号を送るための出力端子が備えられる。
現在地点表示部324は、補正校正信号で補正されたGPSデータを現在地点の表示として出力,表示する。
The device coordinate calculation unit 322 generates and outputs a coordinate signal to be input to the approximate current position designation unit 132 of the point search navigation device 130 based on the GPS data.
The GPS data correction unit 323 receives highly accurate position information obtained by the camera coordinate calculation 138 of the point search navigation device 130, detects a difference from the GPS measurement device, and generates a GPS correction calibration signal therefrom. To do. The GPS data correction unit 323 is provided with an output terminal for sending a highly accurate correction calibration signal generated to the GPS position measurement device.
The current location display unit 324 outputs and displays the GPS data corrected by the correction calibration signal as the current location display.

このようにして、本実施形態では、GPS装置320をオプション装置として備えることにより、通常は地点探索ナビゲーション装置130として作動し、夜間等の映像的な特徴点を連続的に取得することが困難な場合には、GPSによるナビゲーション機能を併用し、断片的に取得される地点探索ナビゲーション装置130から得られる地点データを補正信号とし、高精度に補正されたGPSデータを表示することができる。
なお、GPS装置320をオプションで備える本実施形態では、GPSによるナビゲータシステムに必要なデータも記録媒体120に記録することができる。
Thus, in this embodiment, by providing the GPS device 320 as an optional device, it normally operates as the point search navigation device 130, and it is difficult to continuously acquire video feature points such as nighttime. In this case, the GPS navigation function can be used together, and the point data obtained from the point search navigation device 130 acquired in pieces can be used as the correction signal to display the GPS data corrected with high accuracy.
In the present embodiment that includes the GPS device 320 as an option, data necessary for a navigator system using GPS can also be recorded on the recording medium 120.

[データ更新装置]
データ更新装置330は、記録媒体120のデータを更新することができ、地点探索ナビゲーション装置130に特徴点三次元地図生成装置110の機能を付加する装置である。
具体的には、データ更新装置330は、映像記録部331で、地点探索ナビゲーション装置130において取得されたカメラ映像を蓄積する。
特徴点データ再演算部332では、複数のフレームにわたる記録媒体の特徴点やその特徴点を含む小領域画像との対応点を、カメラで取得した画像内で追跡し、特徴点三次元地図生成装置110と同様にして、複数のフレームにわたる記録媒体の特徴点、又はその特徴点を含む小領域画像と、カメラで取得した映像内の小領域の画像との対応関係から、既存の特徴点の移動等の更新データが求められる。
また、新規特徴点取得部333では、カメラによる映像から新たな特徴点を検出して、三次元座標に加えることで、次回からの特徴点として付加し、次回からの特徴点として付加する。
[Data update device]
The data update device 330 is a device that can update the data in the recording medium 120 and adds the function of the feature point 3D map generation device 110 to the point search navigation device 130.
Specifically, the data update device 330 stores the camera video acquired in the point search navigation device 130 by the video recording unit 331.
The feature point data recalculation unit 332 tracks feature points of a recording medium over a plurality of frames and corresponding points with a small area image including the feature points in an image acquired by a camera, and a feature point three-dimensional map generation device In the same way as 110, the movement of the existing feature points is performed based on the correspondence between the feature points of the recording medium over a plurality of frames or the small region image including the feature points and the small region image in the video acquired by the camera. Etc. is required.
In addition, the new feature point acquisition unit 333 detects a new feature point from the video by the camera and adds it to the three-dimensional coordinates, thereby adding it as a feature point from the next time and adding it as a feature point from the next time.

そして、特徴点データ更新部334でデータが更新され、その更新データが更新データ記録部335によって記録媒体120に出力される。
このようにして、データ更新装置330を備えることにより、利用者側に備えられる地点探索ナビゲーション装置130に、特徴点三次元地図生成装置110に相当する機能を付加することができ、地図を作りながら探索をすることが可能となり、現地点探索と同時に、特徴点検出と三次元座標演算を同時に行い、記録し、記録媒体のデータを更新し、次回からのデータとして用いることができるようになる。
The feature point data update unit 334 updates the data, and the update data recording unit 335 outputs the update data to the recording medium 120.
Thus, by providing the data update device 330, a function corresponding to the feature point three-dimensional map generation device 110 can be added to the point search navigation device 130 provided on the user side, while creating a map. It is possible to perform a search, and at the same time as a local point search, feature point detection and three-dimensional coordinate calculation are simultaneously performed and recorded, and data of the recording medium can be updated and used as data from the next time.

[オプション表示装置]
オプション表示装置340は、地点探索ナビゲーション装置130で表示される表示内容以外の付加的な情報を表示することができる。例えば、地点探索ナビゲーション装置130における現在地点の認識には直接関係しなくとも、利用者の走行を助ける交通標識や道路表示等の画像やCGを、オプション表示装置340によって表示することで、より理解し易く、操作し易いナビゲーション装置とすることができる。
具体的には、現在地点周辺画像表示部341では、地点探索ナビデーション装置130の特徴点3D地図再生部131及び現在地点表示部139の表示画像データを入力する。
表示画像属性表示部342では、入力した表示画像データの属性を表示する。
また、交通標識等認識表示部343では、現在地点から観察される交通標識や道路表示等の画像やCGを表示する。
[Option display device]
The option display device 340 can display additional information other than the display content displayed on the point search navigation device 130. For example, even if it is not directly related to the recognition of the current location in the location search navigation device 130, an image or CG such as a traffic sign or a road display that assists the user's travel is displayed by the option display device 340 for better understanding. The navigation device is easy to operate and easy to operate.
Specifically, in the current location surrounding image display unit 341, display image data of the feature point 3D map reproduction unit 131 and the current location display unit 139 of the location search navigation apparatus 130 are input.
The display image attribute display unit 342 displays the attributes of the input display image data.
Further, the traffic sign recognition display unit 343 displays a traffic sign observed from the current location, an image such as a road display, and CG.

以上説明したように、本実施形態に係るナビゲーション装置によれば、予め3D地図生成用の車両等に搭載されたカメラで撮影された動画映像の複数のフレーム画像から充分な数の特徴点を自動検出し、各フレーム間で特徴点を自動追跡することにより、多数の特徴点について重複演算してカメラ位置と回転角を高精度に求めることができる。
そして、得られたカメラ位置の三次元座標を予め記録媒体に格納し(あるいは、リアルタイムにカメラ位置の三次元座標を生成し)、その三次元座標を現実に移動するナビゲーション対象となる車両等から撮影されたカメラ映像と対比することで、現在のカメラ位置を示す高精度な三次元情報を得ることができ、これによって、移動体のナビゲーションシステ厶として用いることができる。
As described above, according to the navigation device according to the present embodiment, a sufficient number of feature points are automatically extracted from a plurality of frame images of a moving image captured in advance by a camera mounted on a vehicle or the like for generating a 3D map. By detecting and automatically tracking the feature points between the frames, it is possible to calculate the camera position and the rotation angle with high accuracy by performing overlap calculation on a large number of feature points.
Then, the obtained three-dimensional coordinates of the camera position are stored in a recording medium in advance (or the three-dimensional coordinates of the camera position are generated in real time), and the three-dimensional coordinates are actually moved from a navigation target vehicle or the like. By contrasting with the captured camera image, highly accurate three-dimensional information indicating the current camera position can be obtained, and as a result, it can be used as a navigation system for a mobile object.

[第三実施形態]
次に、本発明のナビゲーション装置の第三実施形態について、図28及び図29を参照して説明する。
図28は、本発明の第三実施形態に係るナビゲーション装置の概略構成を示すブロック図であり、図29は、同じく、本発明の第三実施形態に係るナビゲーション装置の他の実施形態の概略構成を示すブロック図である。
これらの図に示すナビゲーション装置は、記録媒体120と地点探索ナビゲーション装置130が離間して備えられ、基地局や他の移動体に備えられた記録媒体120に記録された所定の三次元情報が、通信回線を介して一又は二以上の他の地点探索ナビゲーション装置130に送信されるようになっている。
[Third embodiment]
Next, a third embodiment of the navigation device of the present invention will be described with reference to FIGS.
FIG. 28 is a block diagram showing a schematic configuration of the navigation device according to the third embodiment of the present invention, and FIG. 29 is a schematic configuration of another embodiment of the navigation device according to the third embodiment of the present invention. FIG.
In the navigation apparatus shown in these drawings, the recording medium 120 and the point search navigation apparatus 130 are provided apart from each other, and predetermined three-dimensional information recorded in the recording medium 120 provided in the base station or other mobile object is It is transmitted to one or more other point search navigation devices 130 via a communication line.

具体的には、図28に示すナビゲーション装置は、サテライト通信方式を採用しており、まず、所定の三次元情報を記録した記録媒体120は、基地局となるサテライト装置400に備えられている。
サテライト装置400は、受信部411により、データ更新逆送信装置350を介してデータ更新装置332からの更新データが受信され、データ更新部412により、記録媒体120のデータが随時更新できるようになっている。
そして、送信部413により、記録媒体120のデータが地点探索ナビゲーション装置に送信されるようになっている。
Specifically, the navigation apparatus shown in FIG. 28 employs a satellite communication system. First, a recording medium 120 on which predetermined three-dimensional information is recorded is provided in a satellite apparatus 400 serving as a base station.
In the satellite device 400, the receiving unit 411 receives the update data from the data update device 332 via the data update reverse transmission device 350, and the data update unit 412 can update the data of the recording medium 120 at any time. Yes.
Then, the data in the recording medium 120 is transmitted to the point search navigation device by the transmission unit 413.

地点探索ナビゲーション装置130側には、受信装置140が備えられている。
受信装置140は、受信部141により、通信回線を介してサテライト装置400から送信された記録媒体120の三次元情報のデータを受信できるようなっている。
さらに、図29に示すナビゲーション装置は、図28に示したサテライト通信方式に加えて、さらに、相互通信方式を採用しており、基地局との間のみでなく、移動体相互間でもデータの送受信が行えるようになっている。
A receiving device 140 is provided on the spot search navigation device 130 side.
The receiving device 140 can receive the three-dimensional information data of the recording medium 120 transmitted from the satellite device 400 via the communication line by the receiving unit 141.
Furthermore, the navigation apparatus shown in FIG. 29 adopts an intercommunication system in addition to the satellite communication system shown in FIG. 28. Can be done.

このような本実施形態のナビゲーション装置によれば、記録媒体120のデータを基地局から受信し、更新データや新規取得データを基地局に送信し、さらには、直接車両間でデータのやりとりをして、必要に応じてデータを更新し、他の車両とデータを共有することができる。
これにより、一台の車両のみの場合と比較して、より広範囲で総合的なナビゲーションシステムを実現することができる。
According to such a navigation apparatus of the present embodiment, data of the recording medium 120 is received from the base station, update data and newly acquired data are transmitted to the base station, and data is directly exchanged between vehicles. Then, the data can be updated as needed and the data can be shared with other vehicles.
Thereby, compared with the case of only one vehicle, a wider and comprehensive navigation system can be realized.

記録媒体120は、通常はDVDやハードディスクなどであり、固体として移動体側の装置に装填し、あるいは設置される。
本実施形態では、基地局から記録媒体120のデータを複数の車両に送信することで、記録媒体120はソフトウェアそのもの、デジタルデータそのものとして扱うことができる。そして、ソフトウェアの受信は、固体としての記録媒体120の装填と同じ意味となり、再生装置の構成や規格等に左右されない分、利用範囲が拡張される。
また、本実施形態では、車両が新たに取得したデータを基地局に送り、また直接車両間でやりとりすることができ、さらに、通信回線を用いることでデータの更新が容易となり、周囲車両とのデータの共有も可能となり、リアルタイムデータのやりとりも可能となる。
このようにして、本実施形態によれば、より汎用性に優れたナビゲーション装置を提供することができる。
The recording medium 120 is usually a DVD, a hard disk, or the like, and is loaded or installed in a device on the moving body side as a solid.
In the present embodiment, the data on the recording medium 120 is transmitted from the base station to a plurality of vehicles, so that the recording medium 120 can be handled as software itself and digital data itself. The reception of software has the same meaning as the loading of the recording medium 120 as a solid, and the usage range is expanded because it does not depend on the configuration or standard of the playback apparatus.
Further, in the present embodiment, the data newly acquired by the vehicle can be sent to the base station and directly exchanged between the vehicles. Further, the data can be easily updated by using the communication line, Data can be shared, and real-time data can be exchanged.
Thus, according to the present embodiment, a navigation device with more versatility can be provided.

[第四実施形態]
さらに、本発明のナビゲーション装置の第四実施形態について、図30〜図36を参照しつつ説明する。
図30は、本発明の第三実施形態に係るナビゲーション装置の概略構成を示すブロック図である。
同図に示すように、本実施形態のリアルタイムナビゲーション装置200は、上述した第一実施形態で示した記録媒体120を省略し、ナビゲーション対象となる移動体側に、第一実施形態における特徴点三次元地図生成装置110に地点探索ナビゲーション装置130の機能を持たせた、特徴点三次元地図生成表示装置210を備えている。
[Fourth embodiment]
Furthermore, a fourth embodiment of the navigation device of the present invention will be described with reference to FIGS.
FIG. 30 is a block diagram showing a schematic configuration of the navigation device according to the third embodiment of the present invention.
As shown in the figure, the real-time navigation apparatus 200 of the present embodiment omits the recording medium 120 shown in the first embodiment, and the three-dimensional feature point in the first embodiment is placed on the side of the mobile object to be navigated. A feature point three-dimensional map generation / display device 210 is provided, in which the map generation device 110 has the function of the point search navigation device 130.

本リアルタイムナビゲーション装置200に備えられる特徴点三次元地図生成表示装置210は、第一実施形態で示したような記録媒体を備えず、ナビゲーション対象となる車両等の移動体に備えられたカメラにより得られる現実の映像に基づき、当該移動体から観察される範囲における映像的な特徴点の三次元座標を、そのままリアルタイムで生成するとともに、カメラベクトルを生成する。
そして、求められた特徴点の三次元座標から直接的に3D地図を生成し、特徴点の三次元分布と、ナビゲーション対象となる移動体に備えられたカメラの三次元座標上の位置、速度、加速度、視点方向、3軸回転姿勢、3軸回転速度、3軸回転加速度を含む所定項目のうち、いずれか又はそれらを組み合わせた複数の項目を出力,表示する。
The feature point 3D map generation / display device 210 provided in the real-time navigation device 200 does not include the recording medium as described in the first embodiment, but is obtained by a camera provided in a moving body such as a vehicle to be navigated. On the basis of the actual video to be generated, the three-dimensional coordinates of the video feature points in the range observed from the moving body are generated in real time as they are, and the camera vector is generated.
Then, a 3D map is generated directly from the obtained three-dimensional coordinates of the feature points, and the three-dimensional distribution of the feature points and the position, speed, Among predetermined items including acceleration, viewpoint direction, three-axis rotation posture, three-axis rotation speed, and three-axis rotation acceleration, a plurality of items are output or displayed.

具体的には、本実施形態のリアルタイ厶ナビゲーション装置200は、図30に示すように、特徴点三次元地図生成表示装置210を備えている。
特徴点三次元地図生成表示装置210は、第一実施形態の特徴点三次元地図生成装置110とほぼ同様の構成となっており、カメラ映像取得部211,映像記録部212,特徴点抽出部213,特徴点対応処理部214,特徴点・カメラベクトル演算部215,誤差最小化部216,揺れ成分検出部217,絶対座標取得部218及び3D地図生成表示部219を備えている。このうち、カメラ映像取得部211,映像記録部212,特徴点抽出部213,特徴点対応処理部214,特徴点・カメラベクトル演算部215,誤差最小化部216,揺れ成分検出部217及び絶対座標取得部218については、第一実施形態におけるカメラ映像取得部111,映像記録部112,特徴点抽出部113,特徴点対応処理部114,特徴点・カメラベクトル演算部115,誤差最小化部116,揺れ成分検出部117及び絶対座標取得部118と同様の構成となっている。
Specifically, the real-time kite navigation apparatus 200 of this embodiment includes a feature point three-dimensional map generation display apparatus 210 as shown in FIG.
The feature point 3D map generation / display apparatus 210 has substantially the same configuration as the feature point 3D map generation apparatus 110 of the first embodiment, and includes a camera video acquisition unit 211, a video recording unit 212, and a feature point extraction unit 213. , A feature point correspondence processing unit 214, a feature point / camera vector calculation unit 215, an error minimization unit 216, a shaking component detection unit 217, an absolute coordinate acquisition unit 218, and a 3D map generation display unit 219. Among these, the camera image acquisition unit 211, the video recording unit 212, the feature point extraction unit 213, the feature point correspondence processing unit 214, the feature point / camera vector calculation unit 215, the error minimization unit 216, the shake component detection unit 217, and the absolute coordinates The acquisition unit 218 includes a camera video acquisition unit 111, a video recording unit 112, a feature point extraction unit 113, a feature point correspondence processing unit 114, a feature point / camera vector calculation unit 115, an error minimization unit 116, The configuration is the same as that of the shake component detection unit 117 and the absolute coordinate acquisition unit 118.

本実施形態の特徴点三次元地図生成表示装置210では、3D地図生成表示部219は、誤差最小化部216で誤差の最小化処理が施され、絶対座標取得部218で絶対座標が付与された特徴点又はその特徴点を含む小領域の画像の三次元形状とその三次元座標及びその分布を、ナビゲーション対象となる移動体の移動軌跡、さらに、必要に応じて移動予定路とともに三次元地図として配列し、特徴点を含む対象物等とともにこれらを直接表示するようになっている。
図32及び図33に、本実施形態におけるリアルタイムナビゲーション方法により生成,表示される特徴点の三次元座標と移動体の現在位置を示す。
図32(a)に示すように、走行する車両の周囲の多数の特徴点が抽出され、その特徴点から、車両が走行する道路と建物等の三次元地図が生成され、その地図中に移動する車両の軌跡が示されている。図32(b)は、抽出された特徴点と求められた車両の軌跡を、実際のカメラ映像中に表示したものである。
図33は、図32(b)に示す映像の平面展開画像であり、車両の走行軌跡と現在位置,予定進路が映像中にプロットしてある。
In the feature point 3D map generation / display apparatus 210 of the present embodiment, the 3D map generation / display unit 219 is subjected to error minimization processing by the error minimization unit 216 and given absolute coordinates by the absolute coordinate acquisition unit 218. The three-dimensional shape of the image of a feature point or a small area including the feature point, its three-dimensional coordinates, and its distribution as a three-dimensional map together with the movement trajectory of the mobile object to be navigated and, if necessary, the planned movement path These are arranged and displayed directly together with objects including feature points.
32 and 33 show the three-dimensional coordinates of feature points generated and displayed by the real-time navigation method in the present embodiment and the current position of the moving object.
As shown in FIG. 32 (a), a large number of feature points around a traveling vehicle are extracted, and a three-dimensional map of roads and buildings on which the vehicle travels is generated from the feature points and moved into the map. The trajectory of the vehicle is shown. FIG. 32B shows the extracted feature points and the obtained trajectory of the vehicle in the actual camera video.
FIG. 33 is a planar development image of the video shown in FIG. 32 (b), in which the traveling locus of the vehicle, the current position, and the planned course are plotted in the video.

このようにして、本実施形態のリアルタイムナビゲーション装置200では、ナビゲーション対象となる移動体で移動しながら、直接的に3D地図を作りつつ、現在地点の探索を行うことが可能となり、特徴点検出と三次元座標演算,現地点探索を同時に行い、記録し、記録媒体のデータを更新できるリアルタイムナビゲーションを実現している。
上述した第一実施形態では、特徴点三次元地図生成装置110は、画像の取得後、オフライン処理で三次元地図を生成し、その後、三次元地図を記録媒体120に記録し、それを配布等することで、記録媒体120に記録された特徴点と現時点の映像と比較することで、現時点の位置を確認する方式を採っている。
本実施形態では、車両等で移動しつつ、リアルタイムに3D地図を生成し、現在地点の探索を行うことができ、記録媒体120を省略することができる。これにより、例えば、記録媒体120に記録された特徴点三次元地図に記載されていない地域を走行する場合や、記録媒体120を備えていない場合等であっても、特徴点三次元地図をリアルタイムで生成しながら、現在地点を表示することができる。勿論、本実施形態においても、第一実施形態で示した記録媒体120を併用することは可能である。
In this way, the real-time navigation device 200 of the present embodiment can search for the current location while making a 3D map directly while moving with a mobile object to be navigated, Real-time navigation that can perform 3D coordinate calculation and local point search at the same time, record, and update data on the recording medium is realized.
In the first embodiment described above, the feature point 3D map generation device 110 generates a 3D map by offline processing after acquiring an image, and then records the 3D map on the recording medium 120 and distributes it, etc. Thus, a method of confirming the current position by comparing the feature point recorded on the recording medium 120 with the current video is adopted.
In the present embodiment, a 3D map can be generated in real time while moving with a vehicle or the like, a current location can be searched, and the recording medium 120 can be omitted. Thereby, for example, even when traveling in an area not described in the feature point three-dimensional map recorded on the recording medium 120 or when the recording medium 120 is not provided, the feature point three-dimensional map is displayed in real time. You can display the current location while generating with. Of course, also in this embodiment, the recording medium 120 shown in the first embodiment can be used in combination.

従って、本発明に係るナビゲーション装置としては、図31に示すように、記録媒体120を備える方式(同図に示すナビゲーション装置100)と、記録媒体120を省略する方式(同図に示すナビゲーション装置200)とを実施でき、記録媒体120を備える方式においても、特徴点三次元地図生成装置110を地点探索ナビゲーション装置130と分離して設ける場合と、特徴点三次元地図生成装置110と地点探索ナビゲーション装置130を一体的に設ける場合とが実施できる。
さらに、図31に示すように、第一実施形態で示した各種のオプション装置300を備えることができ、本発明のナビゲーション装置を搭載する移動体の種類や、移動経路、移動範囲、使用目的等に応じて、オプション装置300を選択的に組み合わせて採用することができる。
Therefore, as a navigation apparatus according to the present invention, as shown in FIG. 31, a system including a recording medium 120 (navigation apparatus 100 shown in the figure) and a system omitting the recording medium 120 (navigation apparatus 200 shown in the figure). In the system including the recording medium 120, the feature point 3D map generation device 110 is provided separately from the point search navigation device 130, and the feature point 3D map generation device 110 and the point search navigation device are provided. The case where 130 is provided integrally can be implemented.
Furthermore, as shown in FIG. 31, the various optional devices 300 shown in the first embodiment can be provided, and the type, moving route, moving range, purpose of use, etc. of the moving body on which the navigation device of the present invention is mounted. Accordingly, the optional devices 300 can be selectively combined and employed.

次に、以上のようなリアルタイムナビゲーション機能を備えた本実施形態のリアルタイムナビゲーション装置200の詳細について、図34〜図36を参照しつつ説明する。
図34は、リアルタイムナビゲーション装置の一実施形態の概略構成を示すブロック図であり、移動体として道路を走行する車両にリアルタイムナビゲーション装置が搭載される場合を説明する。
なお、以下に示すリアルタイムナビゲーション装置の各部における処理動作の具体的な内容は、対応する第一及び第二実施形態における内容と同様である。
Next, details of the real-time navigation device 200 of the present embodiment having the above-described real-time navigation function will be described with reference to FIGS. 34 to 36.
FIG. 34 is a block diagram illustrating a schematic configuration of an embodiment of the real-time navigation device, and describes a case where the real-time navigation device is mounted on a vehicle traveling on a road as a moving body.
In addition, the specific content of the processing operation | movement in each part of the real-time navigation apparatus shown below is the same as the content in corresponding 1st and 2nd embodiment.

[基本形]
同図に示すリアルタイムナビゲーション装置200において、画像取得部200−01は、車両に積載されたカメラにより周囲画像を取得する。
画像一時記録部200−02は、画像取得部200−01で取得された周囲画像を一次記録する。
特徴点抽出部200−03は、画像一時記録部200−02に記録された周囲画像から特徴点を抽出する。
特徴点追跡部200−04は、隣接する画像の中に特徴点を追跡する。
[Basic type]
In the real-time navigation device 200 shown in the figure, an image acquisition unit 200-01 acquires a surrounding image by a camera mounted on the vehicle.
The temporary image recording unit 200-02 primarily records the surrounding image acquired by the image acquisition unit 200-01.
The feature point extraction unit 200-03 extracts feature points from the surrounding images recorded in the image temporary recording unit 200-02.
The feature point tracking unit 200-04 tracks feature points in adjacent images.

特徴点追跡座標テーブル作成部200−05は、特徴点追跡部200−04で追跡した複数の画像内における特徴点の各座標を記録しておく。
ベクトル演算部200−06は、画像内の特徴点の各座標のいくつかを選択して、カメラベクトル及び特徴点分布を演算で求める。
絶対座標変換部200−07は、ベクトル演算部200−06における演算結果に、絶対座標を与える。
特徴点分布図内カメラベクトル表示部200−08は、絶対座標が付与された演算結果を特徴点の三次元分布とともに表示する。
The feature point tracking coordinate table creation unit 200-05 records each coordinate of the feature point in the plurality of images tracked by the feature point tracking unit 200-04.
The vector calculation unit 200-06 selects some of the coordinates of the feature points in the image and obtains the camera vector and the feature point distribution by calculation.
The absolute coordinate conversion unit 200-07 gives absolute coordinates to the calculation result in the vector calculation unit 200-06.
The feature point distribution in-camera vector display unit 200-08 displays the calculation result given the absolute coordinates together with the three-dimensional distribution of the feature points.

[基準対象物による絶対座標変換]
地図部200−09には、移動体を構成する車両の予定走行路が記載してある。
基準対象物データベース部200−10には、車両の走行路から見える位置にあり、座標と形状が既知である基準対象物が記載してある。基準対象物としては、移動体が車両であるので、例えば、走行路の交差点毎にある信号機等が好適である。この基準対象物データベース部200−10により、概略位置が分かればその基準対象物(信号機等)の仕様が分かるようになる。サイズ等は規格化されているので、形式が分かれば既知の基準対象物として使える。
基準対象物認識部200−11は、画像取得部200−01で取得される周囲画像の中にあり、形状と座標が既知である基準対象物を画像内において認識する。
基準対象物位置演算部200−12は、基準対象物認識部200−11で認識された基準対象物の画像内位置から、その基準対象物の三次元座標を演算で求める。
絶対座標変換部200−13は、基準対象物位置演算部200−12で得られた基準対象物の三次元座標と、基準対象物の既知データとを比較して、座標を絶対座標に変換する。
合成表示部200−14は、変換されたカメラの絶対座標を、あらかじめ用意した地図等とともに合成して表示する。
[Absolute coordinate conversion by reference object]
In the map part 200-09, a planned traveling path of a vehicle constituting the moving body is described.
The reference object database unit 200-10 describes a reference object that is in a position that can be seen from the traveling path of the vehicle and whose coordinates and shape are known. Since the moving object is a vehicle as the reference object, for example, a traffic light or the like at each intersection of the traveling road is suitable. With the reference object database unit 200-10, if the approximate position is known, the specifications of the reference object (signals, etc.) can be known. Since the size is standardized, if the format is known, it can be used as a known reference object.
The reference object recognition unit 200-11 recognizes a reference object that is in the surrounding image acquired by the image acquisition unit 200-01 and whose shape and coordinates are known in the image.
The reference object position calculation unit 200-12 calculates the three-dimensional coordinates of the reference object from the position in the image of the reference object recognized by the reference object recognition unit 200-11.
The absolute coordinate conversion unit 200-13 compares the three-dimensional coordinates of the reference object obtained by the reference object position calculation unit 200-12 with the known data of the reference object, and converts the coordinates into absolute coordinates. .
The combination display unit 200-14 displays the converted absolute coordinates of the camera together with a map prepared in advance and displays the combined coordinates.

[姿勢制御]
カメラ姿勢信号取得部200−15は、ベクトル演算部200−06で得られたカメラベクトルから、カメラの3軸姿勢信号を検出する。
車両姿勢制御部200−16は、カメラ姿勢信号取得部200−15で検出されたカメラ3軸姿勢信号により、車両の姿勢制御を行う。
カメラベクトルから、カメラの回転成分を抽出できるので、車両姿勢を計測することができる。そして、車両姿勢が目的の位置を保つように、車両姿勢信号からフィードバック信号を生成し、車両姿勢制御を行うことができる。
また、水平及び鉛直方向は、車両静止時又は等加速度運動時に、水準器等でキャリブレーションが可能である。
[Attitude control]
The camera posture signal acquisition unit 200-15 detects a three-axis posture signal of the camera from the camera vector obtained by the vector calculation unit 200-06.
The vehicle attitude control unit 200-16 performs vehicle attitude control based on the camera triaxial attitude signal detected by the camera attitude signal acquisition unit 200-15.
Since the rotation component of the camera can be extracted from the camera vector, the vehicle attitude can be measured. Then, a feedback signal can be generated from the vehicle attitude signal so that the vehicle attitude can be controlled so that the vehicle attitude maintains the target position.
The horizontal and vertical directions can be calibrated with a level or the like when the vehicle is stationary or at constant acceleration.

[GPSによる概略位置特定]
GPSデータ取得部200−17は、GPSによる位置データを取得する。
概略位置座標取得部200−18は、GPSによる位置データによって、車両の概略位置及び方向を特定し、画像取得部200−01で取得される周囲画像中の基準対象物を特定する。
第一実施形態で示したように、本発明のナビゲーションシステムは、既存のGPSの位置精度より優れているため、GPSによる位置データを概略位置取得のために用いることで、位置の絞り込みが可能となり、演算に有利となる。また、GPSによる位置データによって緯度経度を取得して、カメラ位置を緯度経度で表示することが可能である。さらに、GPSデータを取り込むことにより、例えば、特徴点が見つからないような場合には、GPSによるナビゲーションによって走行することが可能となる。
[Specify approximate position by GPS]
The GPS data acquisition unit 200-17 acquires position data by GPS.
The approximate position coordinate acquisition unit 200-18 specifies the approximate position and direction of the vehicle based on the GPS position data, and specifies the reference object in the surrounding image acquired by the image acquisition unit 200-01.
As shown in the first embodiment, the navigation system of the present invention is superior to the position accuracy of the existing GPS. Therefore, the position data can be narrowed down by using the position data by GPS for the approximate position acquisition. This is advantageous for calculation. In addition, it is possible to obtain latitude and longitude from position data by GPS and display the camera position in latitude and longitude. Furthermore, by capturing the GPS data, for example, when a feature point is not found, it is possible to travel by GPS navigation.

[並列カメラによる絶対測定補正]
上述した画像取得部200−01は、視野が重複するように並列に配置され、位置関係が固定されている複数のカメラを積載したカメラによる並列画像を取得する機能を付加することができる。
そして、特徴点追跡部200−04では、複数のカメラによる画像から特徴点の対応点を並列画像内に検索する機能を付加することができる。
これにより、ベクトル演算部200−06では、並列画像内の各対応点の座標から、特徴点及びカメラベクトルの絶対長を演算で求める機能を付加することができる。この場合、並列カメラにより、すべてのカメラ位置で絶対長を取得できるので、長距離計測において誤差の蓄積が少ない計測が行える。
[Absolute measurement correction by parallel camera]
The image acquisition unit 200-01 described above can be added with a function of acquiring a parallel image by a camera in which a plurality of cameras that are arranged in parallel so that the fields of view overlap and whose positional relationship is fixed are stacked.
In the feature point tracking unit 200-04, a function of searching for the corresponding points of the feature points in the parallel images from the images from a plurality of cameras can be added.
Thereby, the vector calculation unit 200-06 can be added with a function for calculating the absolute length of the feature point and the camera vector from the coordinates of each corresponding point in the parallel image. In this case, since the absolute length can be acquired at all camera positions by the parallel camera, measurement with little error accumulation can be performed in long-distance measurement.

[移動体ベクトル演算]
移動体特徴点追跡部200−19は、特徴点静止座標系の特徴点を取り除いたものを移動体の特徴点として扱う。
移動追跡座標テーブル作成部200−20は、追跡した特徴点のテーブルを生成する。
移動体ベクトル演算部200−21は、移動体別の移動体ベクトルを演算し、静止座標系に変換し、先に求められている静止座標系の特徴点と合成することで、静止座標系の特徴点と、移動体のベクトルを重ねて表示する。
この移動体ベクトル抽出処理の詳細を図35に示す。
[Movement vector calculation]
The moving object feature point tracking unit 200-19 treats the feature point static coordinate system from which the feature points are removed as the feature point of the moving object.
The movement tracking coordinate table creation unit 200-20 generates a table of tracked feature points.
The moving body vector calculation unit 200-21 calculates a moving body vector for each moving body, converts the moving body vector into a stationary coordinate system, and synthesizes it with the previously obtained feature point of the stationary coordinate system. The feature point and the vector of the moving object are superimposed and displayed.
Details of this moving object vector extraction processing are shown in FIG.

図35(a)において、静止座標系によるカメラベクトル決定部S3401においては、既にカメラベクトル、すなわち、カメラ位置と方向が三次元的に求められている。
静止座標系以外の移動体特徴点抽出部S3402において、すべての特徴点の中から、静止座標系以外の特徴点を選択,抽出し、それらが移動体における特徴点を含むものと判断して、特徴点固定・カメラ移動とした特徴点追跡部S3403において追跡し、それをテーブル化して一時保存し、以下のプロセスで移動体の特徴点のベクトルを演算で求める。
In FIG. 35A, the camera vector determination unit S3401 based on the stationary coordinate system has already obtained the camera vector, that is, the camera position and direction three-dimensionally.
In the moving object feature point extraction unit S3402 other than the stationary coordinate system, the feature points other than the stationary coordinate system are selected and extracted from all the feature points, and it is determined that they include the feature points in the moving object. Tracking is performed in the feature point tracking unit S3403 that fixes the feature point and the camera is moved, and is stored as a table, and a vector of feature points of the moving object is obtained by calculation in the following process.

まず、特徴点は移動体であるから移動しているが、カメラから見れば、はじめは静止座標系か移動座標系かの判断はできないので、すべて静止座標系の特徴点として扱うことになる。
特徴点固定・カメラ移動とした特徴点追跡部S3403において、特徴点の追跡を行い、移動体特徴点追跡テーブル作成部S3404により、特徴点追跡のテーブルを生成する。このテーブルには、移動体毎に異なるカメラ位置のグループが生成される。カメラは一つでも、移動体は特徴点の一群として観察され、その一群が一つのカメラ位置に対応するように、移動体に対応する特徴点毎にカメラ位置が異なる場所に複数観察されることになる。
First, the feature points are moving because they are moving objects, but from the viewpoint of the camera, since it cannot be determined whether the coordinate system is a stationary coordinate system or a moving coordinate system, they are all treated as feature points of the stationary coordinate system.
In the feature point tracking unit S3403 in which the feature point is fixed and the camera is moved, the feature point is tracked, and the feature point tracking table is generated in the moving body feature point tracking table creation unit S3404. In this table, groups of different camera positions are generated for each moving object. Even if there is one camera, the moving object is observed as a group of feature points, and multiple camera positions are observed at different feature points corresponding to the moving object so that the group corresponds to one camera position. become.

特徴点座標系からみた複数のカメラ位置分類部S3405において、いくつかのカメラ位置が求まり、それカメラ位置毎に移動体が分類される。カメラ位置毎に一群とする特徴点の分類部S3406において、特徴点を移動体毎に分類する。
カメラ位置と移動体は相対運動であるから、いつでも座標変換が可能である。そこで、静止座標系からみた各特徴点群の座標系決定部S3407において、カメラを元の静止座標系表示に戻すことで、各移動体による特徴点群及び座標決定部S3408において、移動体毎の特徴点の座標も静止座標系に変換することができる。これにより、移動体抽出部S3409において、移動体を静止座標系の中に三次元的に抽出することができるようになる。
はじめから静止座標系を元として演算することもでき、その場合には、図35(b)に示すようになる。
In a plurality of camera position classification units S3405 viewed from the feature point coordinate system, several camera positions are obtained, and the moving object is classified for each camera position. In the feature point classification unit S3406, which is a group for each camera position, the feature points are classified for each moving object.
Since the camera position and the moving body are in relative motion, coordinate conversion is possible at any time. Therefore, by returning the camera to the original stationary coordinate system display in the coordinate system determining unit S3407 of each feature point group viewed from the stationary coordinate system, the feature point group and coordinate determining unit S3408 of each moving object The coordinates of feature points can also be converted to a stationary coordinate system. As a result, the moving object extraction unit S3409 can extract the moving object three-dimensionally into the stationary coordinate system.
It can also be calculated from the beginning based on the stationary coordinate system, in which case it is as shown in FIG.

以上のようなリアルタイムナビゲーション装置によれば、リアルタイム性を追求するために、演算を簡素化しており、大きなハードディスク等の記録媒体を用いない。特徴点を抽出して、カメラベクトルと特徴点を抽出し、特徴点の中から適切なもののみを演算に使用し、他は表示のみとすることで、十分に多くの特徴点の分布図は大まかな三次元形状の地図として生成する。
そして、その中にカメラベクトルを表示することで、走行位置を道路及び周辺の形状の中に、表示することができる。また、特徴点の中から演算用の特徴点を選択することで、演算スピードを上げることができる。
According to the above-described real-time navigation device, the calculation is simplified in order to pursue real-time performance, and a recording medium such as a large hard disk is not used. By extracting feature points, extracting camera vectors and feature points, using only appropriate ones from the feature points for calculation, and displaying only others, the distribution map of sufficiently many feature points can be obtained. Generate a rough three-dimensional map.
And by displaying a camera vector in it, a driving | running | working position can be displayed in a road and the surrounding shape. In addition, the calculation speed can be increased by selecting a calculation feature point from among the feature points.

図36に、リアルタイムナビゲーション装置の応用例として、自動離着陸装置を示す。同図は、本実施形態に係るリアルタイムナビゲーション装置を、航空機の自動離着陸装置(又は案内装置)として応用した例を示している。
同図に示す例では、航空機の地上側の任意の位置に広角のカメラを取り付けておく。カメラは地上側を撮影し、滑走路を一部その視界にとらえている。
カメラによって撮影した映像の中に十分多くの特徴点を自動検出し、追跡し、航空機の三次元的位置と姿勢を演算によって求める。
また、位置の再確認と位置精度の向上を目的として、地上に既知の対象物をもとらえ、データベースに保存してある既知の部品と比較し、それを映像中に認識し、名称と形状と座標を確認する。
FIG. 36 shows an automatic take-off and landing device as an application example of the real-time navigation device. The figure shows an example in which the real-time navigation device according to the present embodiment is applied as an aircraft automatic take-off and landing device (or guidance device).
In the example shown in the figure, a wide-angle camera is attached at an arbitrary position on the ground side of the aircraft. The camera takes a picture of the ground side and captures the runway in part.
A sufficiently large number of feature points are automatically detected and tracked in the video imaged by the camera, and the three-dimensional position and attitude of the aircraft are calculated.
In addition, for the purpose of reconfirming the position and improving the position accuracy, a known object on the ground is obtained, compared with a known part stored in the database, recognized in the video, and the name and shape. Check the coordinates.

このようにして、絶対座標を取得し、航空機位置と姿勢は、地上の滑走路との位置関係として、高精度で三次元的に完全に関係付けられることになる。
航空機の目的の理想進路を設定し、本ナビゲーション装置で取得された航空機の実際の進路とのズレを検出し、制御することで、理想の進路近くの進入路を自動的に得ることができるようになる。航空機の離陸においても全く同様に制御することができる。
以上と同様の本ナビゲーション装置の応用例としては、例えば、(1)自動離着陸装置、(2)宇宙船自動ドッキング装置、(3)列車車両の自動停止位置確保装置、(4)車両の自動駐車装置、(5)船舶自動接岸装置などに適用することができる。
In this way, absolute coordinates are obtained, and the aircraft position and attitude are completely related in a three-dimensional manner with high accuracy as the positional relationship with the ground runway.
By setting the desired ideal course of the aircraft and detecting and controlling the deviation from the actual course of the aircraft acquired by this navigation device, it is possible to automatically obtain an approach path near the ideal course become. The same control can be performed during takeoff of the aircraft.
Application examples of the navigation device similar to the above include (1) automatic take-off and landing device, (2) spacecraft automatic docking device, (3) automatic stop position securing device for train vehicles, and (4) automatic vehicle parking. It can be applied to a device, (5) a ship automatic berthing device, and the like.

以上、本発明のナビゲーション装置について、好ましい実施形態を示して説明したが、本発明に係るナビゲーション装置は、上述した実施形態にのみ限定されるものではなく、本発明の範囲で種々の変更実施が可能であることは言うまでもない。
例えば、本発明のナビゲーション装置は、三次元地図を持つことから、適用する移動体は、地上を走行する車両に限らず、三次元空間を航行するものであっても良い。飛行機でも利用可能であるから、着陸時の精度の高いナビゲーションが可能である。また、宇宙船から見える星や星座を特徴点として、宇宙規模でのナビゲーションも可能である。
As mentioned above, although the preferable embodiment was shown and demonstrated about the navigation apparatus of this invention, the navigation apparatus which concerns on this invention is not limited only to embodiment mentioned above, A various change implementation is carried out in the scope of the present invention. It goes without saying that it is possible.
For example, since the navigation apparatus of the present invention has a three-dimensional map, the moving body to be applied is not limited to a vehicle traveling on the ground, but may be one that navigates a three-dimensional space. Because it can be used on airplanes, it is possible to navigate with high accuracy when landing. In addition, navigation on a cosmic scale is also possible using stars and constellations that can be seen from a spacecraft as feature points.

以上のように本発明は、例えば、自動車に搭載されるカーナビゲーション装置、飛行機に搭載されるナビゲーション装置、自動運転用のナビゲーション装置、ロボットのナビゲーション装置などに好適なナビゲーション装置として利用することができる。  As described above, the present invention can be used as a navigation device suitable for, for example, a car navigation device mounted on an automobile, a navigation device mounted on an airplane, a navigation device for automatic driving, a navigation device for a robot, and the like. .

Claims (14)

ナビゲーション対象となる移動体から観察される範囲における映像的な特徴点を三次元座標で記録した記録媒体と、
ナビゲーション対象となる移動体に備えられたカメラにより得られる現実の映像を、前記記録媒体を再生して得られる映像的な特徴点の三次元座標と比較し、現実の映像と一致する三次元座標上の地点と方向を求め、移動体に備えられたカメラの三次元座標上の位置、速度、加速度、視点方向、3軸回転姿勢、3軸回転速度、3軸回転加速度を含む所定項目のうち、いずれか又はそれらを組み合わせた複数の項目を出力する地点検索ナビゲーション装置と、
を備えることを特徴とするナビゲーション装置。
A recording medium in which video feature points in a range observed from a moving object to be navigationally recorded are recorded in three-dimensional coordinates;
3D coordinates that match the actual image by comparing the actual image obtained by the camera provided on the moving object to be navigated with the 3D coordinates of the image-like feature points obtained by reproducing the recording medium Find the upper point and direction, out of the predetermined items including the position, speed, acceleration, viewpoint direction, 3-axis rotation attitude, 3-axis rotation speed, 3-axis rotation acceleration of the camera provided on the moving body , A point search navigation device that outputs a plurality of items, or any combination thereof, and
A navigation device comprising:
前記記録媒体に記録される情報は、
移動体から観察される範囲における映像的な特徴点の種類とその三次元座標と、
前記映像的な特徴点を含む小領域の二次元画像の三次元配置とその三次元座標と、
前記映像的な特徴点を含む対象物の形状とその三次元座標と、
前記映像的な特徴点以外の移動体の移動に必要な周辺画像,CG等の形状と三次元座標と、
移動体が移動する道路,車両走行路,又は予定航路等の画像,CGとその三次元形状及びその三次元座標と、を含み、
これら各情報は、いずれか又はそれらの組み合わせ又はそれら全部、又はそれらの属性情報を含んで、三次元地図とともに記録される請求項1記載のナビゲーション装置。
Information recorded on the recording medium is:
The types of video feature points in the range observed from the moving object and their three-dimensional coordinates,
A three-dimensional arrangement of the two-dimensional image of the small area including the video feature point and its three-dimensional coordinates
The shape of the object including the video feature point and its three-dimensional coordinates;
A peripheral image necessary for movement of a moving body other than the video feature point, a shape such as CG, and three-dimensional coordinates;
Including an image of a road on which a moving body moves, a vehicle traveling path, or a planned route, CG, its three-dimensional shape, and its three-dimensional coordinates,
The navigation device according to claim 1, wherein each of these pieces of information includes any one or a combination thereof, all of them, or their attribute information, and is recorded together with the three-dimensional map.
前記地点探索ナビゲーション装置は、
前記記録媒体を再生する特徴点3D地図再生部と、
移動体の概略の現在位置を指定し、初期設定時の探索範囲を限定する概略現在位置指定部と、
前記記録媒体に記録された三次元地図から、移動体の現在地周辺の複数の特徴点を読み出し、現在地の探索目標として指定する現在地周辺特徴点指定部と、
ナビゲーション対象となる移動体に備えられたカメラから当該移動体周囲の映像を取得するカメラ映像取得部と、
前記カメラ映像取得部で取得された映像を記録する映像一時記録部と、
前記映像一時記録部に記録された映像内に、前記探索目標と同一物となるべき特徴点の候補を探し出す映像内特徴点探索部と、
前記映像内特徴点探索部で得られた特徴点の候補と、前記現在地周辺の探索目標とを比較照合して同一物としての対応関係を求め、前記候補の中から所定数の対応点を決定し、決定された対応点の三次元座標を前記記録媒体から受け取る映像内特徴点対応部と、
前記決定された対応点とその三次元座標を用いて、移動体の現時点の状況を示すカメラ位置,方向,姿勢等の三次元データを演算により決定するカメラ座標演算部と、
前記カメラ座標演算部で決定された三次元データの組み合わせ又はそのすべてを、単独で又は前記記録媒体に記録された地図、映像、属性等の情報とともに画面上に表示する現在地点表示部と、
を備える請求項1又は2項記載のナビゲーション装置。
The point search navigation device comprises:
A feature point 3D map reproduction unit for reproducing the recording medium;
An approximate current position designating unit that designates the approximate current position of the moving object and limits the search range at the initial setting;
From the three-dimensional map recorded on the recording medium, a plurality of feature points around the current location of the mobile object is read, and a current location feature point designation unit that designates the current location as a search target
A camera image acquisition unit for acquiring an image around the moving object from a camera provided in the moving object to be navigated;
A video temporary recording unit that records the video acquired by the camera video acquisition unit;
In-video feature point search unit for searching for feature point candidates to be the same as the search target in the video recorded in the video temporary recording unit;
The feature point candidates obtained by the in-video feature point search unit and the search target around the current location are compared and collated to obtain a correspondence relationship as the same object, and a predetermined number of correspondence points are determined from the candidates. An in-video feature point corresponding unit that receives the three-dimensional coordinates of the determined corresponding point from the recording medium;
Using the determined corresponding point and its three-dimensional coordinates, a camera coordinate calculation unit that determines three-dimensional data such as a camera position, a direction, and a posture indicating the current state of the moving object by calculation,
A current point display unit for displaying on the screen a combination of all or all of the three-dimensional data determined by the camera coordinate calculation unit alone or with information such as a map, video, and attribute recorded on the recording medium;
The navigation device according to claim 1, further comprising:
記録媒体生成用の移動体に備えられたカメラにより得られる現実の映像に基づき、当該移動体から観察される範囲における映像的な特徴点を三次元座標で記録した、前記記録媒体に記録すべき情報を生成する特徴点三次元地図生成装置を備える請求項1又は2記載のナビゲーション装置。Based on the actual image obtained by the camera provided on the moving body for generating the recording medium, the video feature points in the range observed from the moving body are recorded in three-dimensional coordinates and should be recorded on the recording medium. The navigation apparatus according to claim 1, further comprising a feature point three-dimensional map generation apparatus that generates information. 前記特徴点三次元地図生成装置は、
前記記録媒体生成用の移動体に備えられたカメラから当該移動体の周囲画像を取得するカメラ映像取得部と、
前記カメラ映像取得部で取得された画像を記録する映像記録部と、
前記映像記憶部に記録された画像データから、所定数の特徴点を自動抽出する特徴点抽出部と、
前記特徴点抽出部で抽出された特徴点について、各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部と、
前記特徴点対応処理部で対応関係が求められた特徴点の三次元位置座標を求めるとともに、当該三次元位置座標から各フレーム画像に対応したカメラベクトルを求める特徴点・カメラベクトル演算部と、
前記特徴点・カメラベクトル演算部において求められる各特徴点の三次元位置座標とカメラベクトルの分布が最小になるように統計処理し、誤差の最小化処理を施した特徴点の三次元座標とカメラベクトルを自動的に決定する誤差最小化部と、
前記誤差最小化部で誤差の最小化処理が施されたカメラベクトルと特徴点又はその特徴点を含む小領域の画像の三次元形状とその三次元座標及びその分布を、ナビゲーション対象となる移動体の通路とともに三次元地図として配列し、特徴点を含む対象物等とともに、前記記録媒体に記録する3D地図生成記録部と、
を備える請求項4記載のナビゲーション装置。
The feature point three-dimensional map generation device includes:
A camera video acquisition unit for acquiring a surrounding image of the moving body from a camera provided in the moving body for generating the recording medium;
A video recording unit for recording the image acquired by the camera video acquisition unit;
A feature point extraction unit for automatically extracting a predetermined number of feature points from the image data recorded in the video storage unit;
About the feature points extracted by the feature point extraction unit, a feature point correspondence processing unit that automatically tracks within each frame image and obtains a correspondence relationship between the frame images;
A feature point / camera vector computing unit that obtains a three-dimensional position coordinate of the feature point for which the correspondence is obtained by the feature point correspondence processing unit, and obtains a camera vector corresponding to each frame image from the three-dimensional position coordinate;
The feature point three-dimensional coordinates and camera subjected to statistical processing so that the distribution of the three-dimensional position coordinates of each feature point and the camera vector obtained in the feature point / camera vector calculation unit is minimized and the error is minimized. An error minimizer that automatically determines the vector;
A mobile object to be used for navigation is a camera vector and a feature point subjected to error minimization processing by the error minimizing unit, a three-dimensional shape of an image of a small region including the feature point, its three-dimensional coordinates, and its distribution. A 3D map generation / recording unit that is arranged as a three-dimensional map with a passage of the object, and that is recorded on the recording medium together with an object including a feature point,
The navigation device according to claim 4.
ナビゲーション対象となる移動体に備えられたカメラにより得られる現実の映像に基づき、当該移動体から観察される範囲における映像的な特徴点を三次元座標で生成するとともに、当該三次元座標からカメラベクトルを生成し、
生成された三次元座標に基づいて三次元地図を生成しつつ、特徴点の三次元分布及び当該移動体に備えられたカメラの三次元座標上の位置、速度、加速度、視点方向、3軸回転姿勢、3軸回転速度、3軸回転加速度を含む所定項目のうち、いずれか又はそれらを組み合わせた複数の項目を出力する特徴点三次元地図生成表示装置
を備えることを特徴とするナビゲーション装置。
Based on the actual video obtained by the camera provided on the mobile object to be navigated, the video feature points in the range observed from the mobile object are generated in three-dimensional coordinates, and the camera vector is derived from the three-dimensional coordinates. Produces
While generating a three-dimensional map based on the generated three-dimensional coordinates, the three-dimensional distribution of feature points and the position, speed, acceleration, viewpoint direction, and triaxial rotation on the three-dimensional coordinates of the camera provided in the moving body A navigation device comprising: a feature point three-dimensional map generation / display device that outputs a plurality of items obtained by combining any of predetermined items including posture, three-axis rotation speed, and three-axis rotation acceleration.
前記特徴点三次元地図生成表示装置は、
移動体に備えられたカメラから当該移動体の周囲画像を取得するカメラ映像取得部と、
前記カメラ映像取得部で取得された画像を記録する映像記録部と、
前記映像記憶部に記録された画像データから、所定数の特徴点を自動抽出する特徴点抽出部と、
前記特徴点抽出部で抽出された特徴点について、各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部と、
前記特徴点対応処理部で対応関係が求められた特徴点の三次元位置座標を求めるとともに、当該三次元位置座標から各フレーム画像に対応したカメラベクトルを求める特徴点・カメラベクトル演算部と、
前記特徴点・カメラベクトル演算部において求められる各特徴点の三次元位置座標とカメラベクトルの分布が最小になるように統計処理し、誤差の最小化処理を施した特徴点の三次元座標とカメラベクトルを自動的に決定する誤差最小化部と、
前記誤差最小化部で誤差の最小化処理が施されたカメラベクトルと特徴点又はその特徴点を含む小領域の画像の三次元形状とその三次元座標及びその分布を、ナビゲーション対象となる移動体の移動軌跡又は必要に応じて移動予定路とともに三次元地図として配列し、特徴点を含む対象物等とともに表示する3D地図生成表示部と、
を備える請求項6記載のナビゲーション装置。
The feature point three-dimensional map generation and display device,
A camera video acquisition unit for acquiring a surrounding image of the mobile body from a camera provided in the mobile body;
A video recording unit for recording the image acquired by the camera video acquisition unit;
A feature point extraction unit for automatically extracting a predetermined number of feature points from the image data recorded in the video storage unit;
About the feature points extracted by the feature point extraction unit, a feature point correspondence processing unit that automatically tracks within each frame image and obtains a correspondence relationship between the frame images;
A feature point / camera vector computing unit that obtains a three-dimensional position coordinate of the feature point for which the correspondence is obtained by the feature point correspondence processing unit, and obtains a camera vector corresponding to each frame image from the three-dimensional position coordinate;
The feature point three-dimensional coordinates and camera subjected to statistical processing so that the distribution of the three-dimensional position coordinates of each feature point and the camera vector obtained in the feature point / camera vector calculation unit is minimized and the error is minimized. An error minimizer that automatically determines the vector;
A mobile object to be used for navigation is a camera vector and a feature point subjected to error minimization processing by the error minimizing unit, a three-dimensional shape of an image of a small region including the feature point, its three-dimensional coordinates, and its distribution. A 3D map generation and display unit arranged as a three-dimensional map together with a movement trajectory or a planned movement path if necessary, and displayed together with an object including a feature point,
The navigation device according to claim 6.
前記特徴点・カメラベクトル演算部は、
カメラベクトル及び特徴点の三次元座標演算に用いる任意の二つのフレーム画像Fn及びFn+m(m=フレーム間隔)を単位画像として、所望の特徴点の三次元座標とカメラベクトルを求める単位演算を繰り返し、
前記二つのフレーム画像Fn及びFn+mの間のフレー厶画像については、簡素化した演算によりカメラベクトル及び特徴点の三次元座標を求め、
前記誤差最小化部は、
画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルと特徴点の三次元座標の誤差が最小になるようにスケール調整して統合し、最終の三次元座標を決定する請求項5又は7記載のナビゲーション装置。
The feature point / camera vector calculation unit is
The unit calculation for obtaining the three-dimensional coordinates of the desired feature point and the camera vector is repeated using any two frame images Fn and Fn + m (m = frame interval) used for the three-dimensional coordinate calculation of the camera vector and the feature point as unit images,
For a frame image between the two frame images Fn and Fn + m, the camera vector and the three-dimensional coordinates of the feature points are obtained by a simplified calculation.
The error minimizing unit includes:
As n advances continuously with the progress of the image, each camera vector obtained by calculating multiple times for the same feature point and the three-dimensional coordinate error of the feature point are adjusted and integrated so that the error is minimized, The navigation device according to claim 5 or 7, wherein final three-dimensional coordinates are determined.
前記特徴点・カメラベクトル演算部は、
前記フレーム間隔mを、カメラから特徴点までの距離に応じて、カメラから特徴点までの距離が大きいほどmが大きくなるように設定して単位演算を行う請求項8記載のナビゲーション装置。
The feature point / camera vector calculation unit is
The navigation apparatus according to claim 8, wherein unit calculation is performed by setting the frame interval m so that m increases as the distance from the camera to the feature point increases according to the distance from the camera to the feature point.
前記特徴点・カメラベクトル演算部は、
求められたカメラベクトル又は特徴点の三次元座標の誤差の分布が大きい特徴点を削除し、必要が有れば、他の特徴点について再演算を行い、三次元座標演算の精度を上げる請求項5又は7記載のナビゲーション装置。
The feature point / camera vector calculation unit is
A feature point with a large error distribution of the obtained camera vector or feature point in three-dimensional coordinates is deleted, and if necessary, another feature point is recalculated to increase the accuracy of the three-dimensional coordinate calculation. 8. The navigation device according to 5 or 7.
前記記録媒体と前記地点探索ナビゲーション装置が離間して備えられ、
基地局又は他の移動体に備えられた記録媒体に記録された前記所定の三次元情報が、通信回線を介して一又は二以上の地点探索ナビゲーション装置に送信される請求項1又は2記載のナビゲーション装置。
The recording medium and the point search navigation device are provided separately from each other,
3. The predetermined three-dimensional information recorded on a recording medium provided in a base station or another mobile body is transmitted to one or more point search navigation devices via a communication line. Navigation device.
前記地点探索ナビゲーション装置は、GPSによって得られた緯度経度高度データにより、前記概略現在位置指定部による移動体の概略の現在位置を指定する請求項1又は6記載のナビゲーション装置。The navigation device according to claim 1 or 6, wherein the point search navigation device designates the approximate current position of the moving body by the approximate current position designation unit based on latitude and longitude altitude data obtained by GPS. 前記地点探索ナビゲーション装置は、前記カメラ座標演算部で得られた現時点の移動体状況を示すカメラ位置,方向,姿勢等の三次元データを、緯度経度高度に変換してGPSを補正する補正信号として出力し、映像的特徴点が得られない場合にGPSから位置データを得るための補助信号とする請求項12記載のナビゲーション装置。The point search navigation device converts the three-dimensional data such as the camera position, direction, and posture obtained by the camera coordinate calculation unit indicating the current moving body status into a latitude and longitude altitude and corrects the GPS as a correction signal. 13. The navigation apparatus according to claim 12, wherein the navigation apparatus outputs an auxiliary signal for obtaining position data from GPS when a video feature point cannot be obtained. 前記ナビゲーション対象となる移動体は、自動車,航空機,船舶,人,ロボット,重機,宇宙船,深海探査船,移動部分を持つ機械等である請求項1又は6記載のナビゲーション装置。The navigation apparatus according to claim 1 or 6, wherein the mobile object to be navigated is an automobile, an aircraft, a ship, a person, a robot, a heavy machine, a spacecraft, a deep sea exploration ship, a machine having a moving part, or the like.
JP2005514748A 2003-10-21 2004-10-04 Navigation device Active JP4273119B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003361160 2003-10-21
JP2003361160 2003-10-21
PCT/JP2004/014989 WO2005038402A1 (en) 2003-10-21 2004-10-04 Navigation device

Publications (2)

Publication Number Publication Date
JPWO2005038402A1 true JPWO2005038402A1 (en) 2007-01-11
JP4273119B2 JP4273119B2 (en) 2009-06-03

Family

ID=34463431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005514748A Active JP4273119B2 (en) 2003-10-21 2004-10-04 Navigation device

Country Status (2)

Country Link
JP (1) JP4273119B2 (en)
WO (1) WO2005038402A1 (en)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0520829D0 (en) 2005-10-13 2005-11-23 Univ Cambridge Tech Image processing methods and apparatus
JP4773794B2 (en) * 2005-10-19 2011-09-14 株式会社岩根研究所 New and old video coordinate integration device
JP5106771B2 (en) * 2005-11-08 2012-12-26 株式会社トヨタマップマスター Road marking measuring device
JP4980606B2 (en) * 2005-11-15 2012-07-18 株式会社岩根研究所 Mobile automatic monitoring device
JP4740723B2 (en) * 2005-11-28 2011-08-03 富士通株式会社 Image analysis program, recording medium storing the program, image analysis apparatus, and image analysis method
JP2007290551A (en) * 2006-04-25 2007-11-08 Kaaz Corp Traveling information display device
JP5111785B2 (en) * 2006-05-24 2013-01-09 株式会社岩根研究所 CV tag input / output search device using CV video
US8884962B2 (en) 2006-10-20 2014-11-11 Tomtom Global Content B.V. Computer arrangement for and method of matching location data of different sources
DE102007022588A1 (en) * 2007-05-14 2008-11-27 Robert Bosch Gmbh Method for displaying video images and video systems
US8072448B2 (en) * 2008-01-15 2011-12-06 Google Inc. Three-dimensional annotations for street view data
JP5227065B2 (en) * 2008-01-25 2013-07-03 株式会社岩根研究所 3D machine map, 3D machine map generation device, navigation device and automatic driving device
JP5339753B2 (en) * 2008-03-18 2013-11-13 株式会社ゼンリン Road marking map generation method
JP5281424B2 (en) * 2008-03-18 2013-09-04 株式会社ゼンリン Road marking map generation method
US7868821B2 (en) 2009-01-15 2011-01-11 Alpine Electronics, Inc Method and apparatus to estimate vehicle position and recognized landmark positions using GPS and camera
JP5333862B2 (en) * 2010-03-31 2013-11-06 アイシン・エィ・ダブリュ株式会社 Vehicle position detection system using landscape image recognition
JP5182594B2 (en) * 2010-03-31 2013-04-17 アイシン・エィ・ダブリュ株式会社 Image processing system
JP5333861B2 (en) * 2010-03-31 2013-11-06 アイシン・エィ・ダブリュ株式会社 Vehicle position detection system using landscape image recognition
JP5333860B2 (en) * 2010-03-31 2013-11-06 アイシン・エィ・ダブリュ株式会社 Vehicle position detection system using landscape image recognition
ES2788750T3 (en) * 2011-09-16 2020-10-22 Saab Ab Procedure to improve the accuracy of a radio-based navigation system
KR101996241B1 (en) * 2012-06-06 2019-07-05 삼성전자주식회사 Device and method for providing 3d map representing positon of interest in real time
WO2014010601A1 (en) * 2012-07-10 2014-01-16 国立大学法人千葉大学 Method for creating tracking data and program for creating tracking data
WO2014155884A1 (en) * 2013-03-25 2014-10-02 エイディシーテクノロジー株式会社 Vehicle
CN103968846B (en) * 2014-03-31 2017-02-08 小米科技有限责任公司 Positioning and navigation method and device
US9818196B2 (en) 2014-03-31 2017-11-14 Xiaomi Inc. Method and device for positioning and navigating
RU2633641C1 (en) * 2014-05-20 2017-10-16 Ниссан Мотор Ко., Лтд. Target detecting device and target detecting method
JP6667943B2 (en) * 2014-10-17 2020-03-18 日本無線株式会社 Image generation device
US9519061B2 (en) * 2014-12-26 2016-12-13 Here Global B.V. Geometric fingerprinting for localization of a device
KR102623680B1 (en) 2015-02-10 2024-01-12 모빌아이 비젼 테크놀로지스 엘티디. Sparse map for autonomous vehicle navigation
CN105069842A (en) * 2015-08-03 2015-11-18 百度在线网络技术(北京)有限公司 Modeling method and device for three-dimensional model of road
US10949712B2 (en) 2016-03-30 2021-03-16 Sony Corporation Information processing method and information processing device
JP6275202B2 (en) * 2016-06-23 2018-02-07 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Unmanned aerial vehicle, unmanned aircraft control method, and unmanned aircraft control program
EP3551967A2 (en) * 2016-12-09 2019-10-16 TomTom Global Content B.V. Method and system for video-based positioning and mapping
US10401500B2 (en) * 2016-12-30 2019-09-03 DeepMap Inc. Encoding LiDAR scanned data for generating high definition maps for autonomous vehicles
JP6913353B2 (en) * 2017-05-26 2021-08-04 株式会社データ変換研究所 Mobile control system
JP7257737B2 (en) * 2017-09-05 2023-04-14 ソニーグループ株式会社 Information processing device, self-position estimation method, and program
JP7056840B2 (en) * 2018-01-16 2022-04-19 株式会社豊田中央研究所 Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program
JP7036400B2 (en) * 2018-01-30 2022-03-15 株式会社豊田中央研究所 Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program
KR102622585B1 (en) * 2018-06-29 2024-01-08 현대오토에버 주식회사 Indoor navigation apparatus and method
CN109087359B (en) * 2018-08-30 2020-12-08 杭州易现先进科技有限公司 Pose determination method, pose determination apparatus, medium, and computing device
JP7428492B2 (en) 2019-08-26 2024-02-06 株式会社ミツトヨ Inspection method and correction method
KR102383499B1 (en) * 2020-05-28 2022-04-08 네이버랩스 주식회사 Method and system for generating visual feature map
WO2022004603A1 (en) * 2020-07-01 2022-01-06 株式会社多摩川ホールディングス Sensing map system, and positioning method
KR102454599B1 (en) * 2021-05-26 2022-10-17 포티투닷 주식회사 Method and apparatus for determining the position of an object on a lane map
WO2022250480A1 (en) * 2021-05-26 2022-12-01 포티투닷 주식회사 Method and device for determining location of object in lane map
WO2023037594A1 (en) * 2021-09-08 2023-03-16 ソニーグループ株式会社 Information processing device, information processing method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08247775A (en) * 1995-03-15 1996-09-27 Toshiba Corp Device and method for identification of self position of moving body
JPH09218955A (en) * 1996-02-14 1997-08-19 Hitachi Ltd Method and device for recognizing position
JPH11271074A (en) * 1998-03-20 1999-10-05 Fujitsu Ltd Device and method for comparing mark image and program storage medium
JP2002296044A (en) * 2001-03-30 2002-10-09 Justec:Kk Map information providing method, its system, and computer readable program
JP2003287434A (en) * 2002-01-25 2003-10-10 Iwane Kenkyusho:Kk Image information searching system

Also Published As

Publication number Publication date
JP4273119B2 (en) 2009-06-03
WO2005038402A1 (en) 2005-04-28

Similar Documents

Publication Publication Date Title
JP4273119B2 (en) Navigation device
JP4767578B2 (en) High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device
JP5227065B2 (en) 3D machine map, 3D machine map generation device, navigation device and automatic driving device
JP7127941B2 (en) Method, system and program
EP3137850B1 (en) Method and system for determining a position relative to a digital map
US10848732B2 (en) Free viewpoint movement display device
JP4794019B2 (en) Apparatus and method for providing a three-dimensional map representation of a region
JP6821154B2 (en) Self-position / posture setting device using a reference video map
JP2018165726A (en) Point group data utilization system
CN105973236A (en) Indoor positioning or navigation method and device, and map database generation method
CN105928498A (en) Determination Of Object Data By Template-based Uav Control
JP4980617B2 (en) 2D drawing and video composition display device
JPWO2010134502A1 (en) Image information output method
JP2012118666A (en) Three-dimensional map automatic generation device
JP6446005B2 (en) Underground exploration equipment
US11754415B2 (en) Sensor localization from external source data
JP4624000B2 (en) Compound artificial intelligence device
Soheilian et al. Generation of an integrated 3D city model with visual landmarks for autonomous navigation in dense urban areas
JP4773794B2 (en) New and old video coordinate integration device
WO2020235286A1 (en) Recognition and positioning device and information conversion device
JP2019537018A (en) Method and system for generating an environment model and for positioning using a mutual sensor feature point reference
JP2022513828A (en) How and system to generate an environmental model for positioning
JP7396472B2 (en) Position measuring device, positioning method, and program
Grinstead et al. Mobile scanning system for the fast digitization of existing roadways and structures
Grinstead et al. Developing detailed a priori 3D models of large environments to aid in robotic navigation tasks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090302

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4273119

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 3

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130306

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140306

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350