JP4767578B2 - High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device - Google Patents

High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device Download PDF

Info

Publication number
JP4767578B2
JP4767578B2 JP2005110780A JP2005110780A JP4767578B2 JP 4767578 B2 JP4767578 B2 JP 4767578B2 JP 2005110780 A JP2005110780 A JP 2005110780A JP 2005110780 A JP2005110780 A JP 2005110780A JP 4767578 B2 JP4767578 B2 JP 4767578B2
Authority
JP
Japan
Prior art keywords
unit
data
dimensional
point
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005110780A
Other languages
Japanese (ja)
Other versions
JP2006250917A (en
Inventor
和郎 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IWANE LABORATORIES, LTD.
Original Assignee
IWANE LABORATORIES, LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IWANE LABORATORIES, LTD. filed Critical IWANE LABORATORIES, LTD.
Priority to JP2005110780A priority Critical patent/JP4767578B2/en
Publication of JP2006250917A publication Critical patent/JP2006250917A/en
Application granted granted Critical
Publication of JP4767578B2 publication Critical patent/JP4767578B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instructional Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、動画映像をビデオ撮影するカメラのカメラ位置とカメラ方向を算出して、そのカメラ位置情報に基づいて任意の対象物の位置情報を取得する画像処理演算装置に関する。
特に、本発明は、ビデオ映像(動画映像)の複数のフレーム画像からカメラ位置とカメラ回転角を高精度に示すCV(カメラベクトル)データを演算により自動的に求める高精度CV演算装置と、求められた高精度CVデータに基づいて、走行,航行する移動体の進行方向や車輌姿勢等とともに三次元地図をリアルタイムに生成し、移動する移動体の現在状況を高精度に出力,表示するCV方式三次元地図生成装置と、高精度CVデータに基づく車輌等の移動体を制御可能なCV方式航法装置に関する。
The present invention relates to an image processing arithmetic device that calculates a camera position and a camera direction of a camera that takes a video of a moving image, and acquires position information of an arbitrary object based on the camera position information.
In particular, the present invention provides a high-precision CV computing device that automatically obtains CV (camera vector) data that indicates a camera position and a camera rotation angle with high accuracy from a plurality of frame images of a video image (moving image). A CV method that generates a 3D map in real time along with the traveling direction and vehicle posture of a moving body that travels and navigates based on the high-accuracy CV data, and outputs and displays the current status of the moving mobile body with high accuracy. The present invention relates to a three-dimensional map generation device and a CV navigation device capable of controlling a moving body such as a vehicle based on high-precision CV data.

一般に、移動する車輌等の位置情報を取得する手段として、GPS測地衛星を利用したカーナビゲーションシステムが知られている(例えば、特許文献1−3参照)。
GPSシステムは、複数の測地衛星から発せられる時刻と位置データを、車輌に設置した受信装置で読み取り、各衛星からの電波到達時間の差から受信地点の三次元座標を演算により求め、車輌等の現在位置を表示するものである。
このようなGPSシステムによれば、全地球的な範囲で受信地点の三次元位置を計測することができる。
In general, a car navigation system using a GPS geodetic satellite is known as means for acquiring position information of a moving vehicle or the like (see, for example, Patent Documents 1-3).
The GPS system reads the time and position data emitted from a plurality of geodetic satellites with a receiving device installed in the vehicle, calculates the three-dimensional coordinates of the receiving point from the difference in radio wave arrival time from each satellite, The current position is displayed.
According to such a GPS system, the three-dimensional position of the reception point can be measured in a global range.

ここで、GPSシステムで得られる位置精度としては、従来は、電離層における電波の反射や屈折等の影響があり、誤差が50〜300メートルというところであった。
近年は、緯度・経度・高度の既知の点を利用して電波到達時間の誤差を計測し、それを修正信号として送信して受信地点の誤差を修正する方法が付加されるようになり、誤差は十数メートル程度まで縮小されるようになった。
Here, as the position accuracy obtained by the GPS system, conventionally, there is an influence of radio wave reflection and refraction in the ionosphere, and the error is 50 to 300 meters.
In recent years, a method has been added to measure the error of radio wave arrival time using known points of latitude, longitude, and altitude, and to transmit it as a correction signal to correct the error at the receiving point. Has been reduced to about a dozen meters.

特開平11−304513号公報Japanese Patent Laid-Open No. 11-304513 特開2001−255157号公報JP 2001-255157 A 特開2002−357430号公報JP 2002-357430 A

しかしながら、位置精度の誤差が数十メートルの範囲にある従来のGPSシステムでは、移動する対象物の三次元位置を高精度に計測することは困難で、例えば、数cmの精度で、リアルタイムに連続的な位置計測を行い、その位置情報を出力するようなことは不可能であった。
ここで、本願発明者によって、カメラが移動することによる画像の動きから、カメラの三次元位置との3軸回転姿勢を演算で求めるCV(カメラベクトル)演算技術が開発されている。CV演算は、CV(カメラベクトル:Camera Vector)値を求める技術であり、カメラベクトル値は、計測のための映像を取得したカメラの三次元位置と3軸回転姿勢を示す値である。
However, it is difficult to accurately measure the three-dimensional position of a moving object with a conventional GPS system in which the positional accuracy error is in the range of several tens of meters. For example, it is continuous in real time with an accuracy of several centimeters. It was impossible to measure the position and output the position information.
Here, the inventor of the present application has developed a CV (camera vector) calculation technique for calculating a three-axis rotational attitude with respect to a three-dimensional position of a camera from an image movement caused by the movement of the camera. The CV calculation is a technique for obtaining a CV (Camera Vector) value, and the camera vector value is a value indicating a three-dimensional position and a three-axis rotation posture of a camera that acquires a video for measurement.

CV演算で求められたCV値は、取得された映像のカメラ位置を示すものであり、映像内での三次元計測が可能となるという優れた特性を持ち、GPSと比較して高精度な位置情報の取得が可能であった。
ただ、CV値は絶対値ではなく相対値であるためにスケールが変化し、距離を重ねるにつれて誤差が蓄積するという特性もあった。
The CV value obtained by the CV calculation indicates the camera position of the acquired video, has an excellent characteristic that three-dimensional measurement in the video is possible, and has a higher accuracy than GPS. Information could be obtained.
However, since the CV value is not an absolute value but a relative value, the scale changes, and an error accumulates as the distance increases.

この点、GPSシステムで取得される位置情報は絶対値であり、三次元位置を絶対値として計測できる。しかし、GPSで得られる位置情報は相対値としてみた場合の誤差が大きく、また、GPSの持つ精度は、固定局からの補正信号を受けて測位するDGPS(Differential GPS)方式であっても、その精度は1メートル程度である。
さらに、GPSシステムでは、当然のことながら、得られる位置情報はある計測地点のみの座標だけであり、また、ビデオ映像との結合もできない。従って、CV演算におけるような画像内での計測等は不可能であった。
In this regard, position information acquired by the GPS system is an absolute value, and a three-dimensional position can be measured as an absolute value. However, the positional information obtained by GPS has a large error when viewed as a relative value, and the accuracy of GPS is that even if it is a DGPS (Differential GPS) system that performs positioning by receiving a correction signal from a fixed station. The accuracy is about 1 meter.
Furthermore, in the GPS system, as a matter of course, the position information obtained is only the coordinates of a certain measurement point and cannot be combined with a video image. Therefore, measurement in the image as in the CV calculation is impossible.

このように、従来の測位システムや地図作成装置や航法装置等では、移動しながら対象物の絶対座標を高精度(例えば±15cmの誤差)に測定して三次元位置情報を取得できる技術は存在していなかった。
そこで、本願発明者は、鋭意研究の結果、移動体に搭載したカメラで撮影される動画映像の複数のフレーム画像から充分な数の特徴点を自動検出し、各フレーム間で特徴点を自動追跡することで、多数の特徴点について重複演算してカメラ位置と回転角を示すCVデータを高精度に求めることができるとともに、そのカメラ位置情報を、GPS等で得られる絶対座標により校正することで、移動体の三次元位置座標を高精度に取得し出力し得ることに想到した。
In this way, with conventional positioning systems, map creation devices, navigation devices, etc., there is a technology that can acquire the three-dimensional position information by measuring the absolute coordinates of the object with high accuracy (for example, an error of ± 15 cm) while moving. I did not.
Therefore, as a result of earnest research, the inventor of the present application automatically detects a sufficient number of feature points from a plurality of frame images of a moving image captured by a camera mounted on a moving body, and automatically tracks the feature points between frames. By doing this, it is possible to obtain CV data indicating the camera position and rotation angle with high accuracy by performing overlapping calculation on a large number of feature points, and calibrating the camera position information with absolute coordinates obtained by GPS or the like. It was conceived that the three-dimensional position coordinates of the moving object can be obtained and output with high accuracy.

すなわち、本発明は、従来の技術が有する問題を解決するために提案されたものであり、画像処理技術を用いて、移動体の移動時に撮影されるカメラ映像に基づいて、移動体のカメラ位置を示す三次元座標をGPSシステムより高精度に求め得ることができるとともに、三次元座標の誤差の累積をGPSやIMU等で得られる絶対座標で補正することで、誤差数cmの範囲の高精度な位置情報の取得が可能となる高精度CV演算装置と、この高精度CV演算装置を備えたCV方式三次元地図生成装置及びCV方式航法装置の提供を目的とする。   That is, the present invention has been proposed in order to solve the problems of the prior art, and the camera position of the moving object is determined based on the camera image captured when the moving object is moved using the image processing technique. 3D coordinates can be obtained with high accuracy from the GPS system, and the accumulation of 3D coordinate errors is corrected with absolute coordinates obtained by GPS, IMU, etc. It is an object of the present invention to provide a high-precision CV calculation device capable of acquiring accurate position information, a CV-type three-dimensional map generation device and a CV-type navigation device equipped with the high-precision CV calculation device.

上記目的を達成するため、本発明の高精度CV演算装置は移動体に固定され、当該移動体の移動とともに移動体周辺を撮影してビデオ映像を取得するとともに、当該移動体の位置データと移動量データを含む位置計測データを計測する移動体計測部と、前記移動体計測部で取得されたビデオ映像を記録し、当該ビデオ映像からカメラの三次元位置及び3軸回転位置を示すCVデータを生成するCV演算を行うとともに、前記移動体計測部で計測された位置計測データを取得するデータ生成部と、前記データ生成部で生成されたCVデータを、基準時刻により関連付けられた時刻同期CVデータとして生成するとともに、前記位置計測データを、基準時刻により関連付けられた時刻同期計測データとして生成する時間軸整合部と、前記時刻同期CVデータと前記時刻同期計測データを同一時間軸で関連付けて比較し、当該比較結果により、時刻同期CVデータと時刻同期計測データを相互に補完補正し、CVデータの最終的なCV値を補正するCV補正信号を生成するCV補正部と、前記データ生成部に記録されたビデオ映像を出力し、当該ビデオ映像の各フレームに対応して、前記CV補正信号により補正された高精度CV値を出力する高精度CVデータ出力部と、を備える構成としてあり、特に前記データ生成部が、動画映像の画像データから、所定数の特徴点を自動抽出する特徴点抽出部と、抽出された特徴点について、動画映像の各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部と、対応関係が求められた特徴点の三次元位置座標を求め、当該三次元位置座標から、各フレーム画像に対応したカメラの三次元位置座標及び三次元回転座標からなるカメラベクトルを求めるカメラベクトル演算部とを備え、前記所定のCV演算を行うCVデータ演算部を備える構成としていある。 To achieve the above object, a high-precision CV computing device of the present invention is fixed to the moving body, to acquire the video image by photographing the surrounding mobile together with the movement of the moving body, the position data of the mobile A moving body measuring unit for measuring position measurement data including movement amount data, and a video image acquired by the moving body measuring unit, and CV data indicating a three-dimensional position and a three-axis rotation position of the camera from the video image A data generation unit that obtains position measurement data measured by the mobile body measurement unit, and a CV data generated by the data generation unit are associated with a time synchronization CV by a reference time A time axis matching unit that generates the position measurement data as time-synchronized measurement data associated with a reference time, and generates the position measurement data as data. The CV data and the time synchronization measurement data are compared in association with each other on the same time axis, and the time synchronization CV data and the time synchronization measurement data are complementarily corrected based on the comparison result, and the final CV value of the CV data is corrected. A CV correction unit that generates a CV correction signal and a video image recorded in the data generation unit are output, and a high-accuracy CV value corrected by the CV correction signal is output corresponding to each frame of the video image. A high-accuracy CV data output unit, and in particular, the data generation unit automatically extracts a predetermined number of feature points from the image data of the moving image, and the extracted feature points A feature point correspondence processing unit that automatically tracks within each frame image of a moving image and obtains a correspondence between the frame images, and a three-dimensional position coordinate of the feature point for which the correspondence is obtained Therefore, a CV data calculation for performing the predetermined CV calculation is provided with a camera vector calculation unit for obtaining a camera vector consisting of the three-dimensional position coordinate and the three-dimensional rotation coordinate of the camera corresponding to each frame image from the three-dimensional position coordinate. It is set as the structure provided with a part.

また、本発明の高精度CV演算装置は前記移動体計測部が、複数のビデオカメラ機器を備え、前記データ生成部が、前記複数のビデオカメラ機器により得られたビデオ映像の視差のある複数画像から、カメラ間視差によりカメラ座標系における三次元形状を生成する視差方式カメラ座標三次元化部と、前記カメラ座標系における三次元形状の中から三次元特徴部位を抽出し、当該三次元特徴部位をビデオ映像の隣接する複数のフレーム上で追跡し、又は当該フレームに対応する三次元形状上で追跡し、当該カメラ座標系における当該三次元特徴部位と当該カメラ位置から、静止座標系におけるカメラ座標と3軸回転角とをCV演算により求めるマルチCV演算部、又は、前記カメラ座標系による三次元形状の中から複数の三次元特徴点を抽出し、当該三次元特徴点をビデオ映像の隣接する複数のフレーム、又は当該フレームに対応する三次元形状上で追跡し、カメラ座標として取得した当該三次元特徴点と当該カメラ原点座標から、静止座標系におけるカメラ位置座標とその3軸回転角とをCV演算により求めるマルチCV演算部と、を備える構成としてある。 Multiple addition, accurate CV operation apparatus of the present invention, the movable body measuring unit comprises a plurality of video cameras equipment, the data generation unit, with a parallax resulting video image by the plurality of video cameras equipment A parallax camera coordinate three-dimensionalization unit that generates a three-dimensional shape in the camera coordinate system from the image by the parallax between the cameras, and extracts a three-dimensional feature portion from the three-dimensional shape in the camera coordinate system, A part is tracked on a plurality of adjacent frames of a video image, or a three-dimensional shape corresponding to the frame is tracked, and a camera in a stationary coordinate system is obtained from the three-dimensional feature part and the camera position in the camera coordinate system. A multiple CV calculation unit that obtains coordinates and three-axis rotation angles by CV calculation, or a plurality of three-dimensional feature points extracted from a three-dimensional shape by the camera coordinate system The three-dimensional feature point is tracked on a plurality of adjacent frames of the video image or on the three-dimensional shape corresponding to the frame, and from the three-dimensional feature point and the camera origin coordinate acquired as camera coordinates, a stationary coordinate A multi-CV calculation unit that obtains the camera position coordinates and the three-axis rotation angle in the system by CV calculation.

また、本発明の高精度CV演算装置は前記移動体計測部が、移動体に固定され、当該移動体の移動とともに、移動体周辺を撮影して全周ビデオ映像を取得する全周ビデオカメラ機器部と、前記移動体に固定され、位置関係を既知とする複数のカメラによって移動体周囲の視差のある映像を取得する複数ビデオカメラ機器部とを有し、これら全周ビデオカメラ機器部と複数ビデオカメラ機器部が、相互に三次元的位置と姿勢の関係を既知として設置され、前記データ生成部が、前記全周ビデオカメラ機器部によって得られた全周ビデオ映像を記録する全周ビデオ映像記録部と、前記全周ビデオ映像記録部に記録された全周ビデオ映像の各フレーム画像内に複数の特徴点を抽出し、当該特徴点を全周ビデオ映像の隣接する複数のフレームに追跡し、前記移動体の座標系における当該複数の特徴点とカメラ位置関係に基づいて、静止座標系における全周カメラの位置座標と3軸回転角とを示すCVデータを演算により求めるCV演算部と、前記複数ビデオカメラ機器部によって得られたビデオ映像の各フレーム画像内に複数の特徴点を抽出し、当該特徴点を、ビデオ映像の隣接する各フレーム画像内に追跡するとともに、カメラ間距離が既知の他のカメラの対応する各フレーム画像内に追跡することで、絶対距離を取得し、高精度のカメラ三次元座標と3軸回転姿勢を示すマルチCVデータを演算により求めるマルチCV演算部と、を備え、前記時間軸整合部が、前記CVデータと前記マルチCVデータに、時刻データを供給する時計部と、前記時計部から供給される時刻データに基づいて前記CVデータを関連付けて記録する時刻同期CVデータ記録部と、前記時計部から供給される時刻データに基づいて前記マルチCVデータを関連付けて記録する時刻同期マルチCVデータ記録部と、複数のカメラ映像から取得されるCVデータ間の記録時刻の遅れを、前記時計部から供給される時刻データとの時間差により補正して遅延調整CV信号を出力する遅延調整CV信号出力部と、複数のカメラ映像から取得されるマルチCVデータ間の記録時刻の遅れを、前記時計部から供給される時刻データとの時間差を補正により遅延調整マルチCV信号を出力する遅延マルチCV信号出力部と、を備え、前記CV補正部が、前記複数ビデオカメラ機器部と前記全周ビデオカメラ機器部との設置位置の差による座標のズレを前記CVデータに基づいて生成し、複数ビデオカメラ機器部の位置座標を全周ビデオカメラ機器部の位置に補正する機器座標位置補正部と、前記遅延調整マルチCV信号の座標配列形状と、遅延調整CV信号の座標配列形状とを比較して、座標配列形状差を検出する座標配列形状比較部と、前記遅延調整マルチCV信号の座標配列形状と、遅延調整CV信号の座標配列形状と、両者の対応関係がとれた区間の座標配列形状差から、3軸方向のスケール誤差を補正する補正信号を生成する補正信号生成部と、前記区間に対応するCVデータによる座標配列形状を、前記マルチCVデータによる座標配列形状と一致させるようにCVデータを補正するCVデータスケール補正部と、前記CVデータスケール補正部における補正処理を、目的区間の全域に亘って繰り返すことにより、連続する位置補正CVデータを生成する全域スケール補正部と、前記全域スケール補正部で補正されたCVデータの三次元座標を既知として、3軸回転を含む高精度CVデータの再演算を行うCV再演算部と、を備え、高精度CVデータ出力部が、前記全周ビデオカメラ機器部で取得された全周ビデオ映像を出力する全周ビデオ映像出力部と、前記全周ビデオ映像出力の各画像フレームに同期して、前記全域スケール補正部で位置補正され、前記CV再演算部で再演算されて3軸回転補正されたCVデータ信号を出力する再演算CVデータ出力部と、を備える構成としてある。 The high-precision CV operation apparatus of the present invention, the movable body measuring portion is fixed to the moving body, the movement of the moving body, the whole circumference video camera by photographing the surrounding mobile acquires entire circumference video An apparatus unit, and a plurality of video camera device units that acquire images with parallax around the moving body by a plurality of cameras fixed to the moving body and having a known positional relationship, A plurality of video camera equipment units are installed with a known relationship between a three-dimensional position and a posture of each other, and the data generation unit records an all-round video image obtained by the all-around video camera device unit. A plurality of feature points are extracted from each frame image of the all-around video image recorded in the image recording unit and the all-around video image recording unit, and the feature points are traced to a plurality of adjacent frames of the all-around video image. A CV calculation unit that calculates CV data indicating the position coordinates of the all-around camera and the three-axis rotation angle in the stationary coordinate system based on the plurality of feature points in the coordinate system of the moving body and the camera positional relationship; A plurality of feature points are extracted in each frame image of the video image obtained by the plurality of video camera device units, the feature points are tracked in each adjacent frame image of the video image, and the distance between the cameras is known. A multi-CV calculation unit that obtains an absolute distance by tracking within each corresponding frame image of another camera, and calculates multi-CV data indicating a high-precision camera three-dimensional coordinate and a three-axis rotation posture; The time axis matching unit is configured to supply time data to the CV data and the multi-CV data, and based on the time data supplied from the clock unit. A time-synchronized CV data recording unit that records the CV data in association with each other, a time-synchronized multi-CV data recording unit that records the multi-CV data in association with the time data supplied from the clock unit, and a plurality of cameras A delay adjustment CV signal output unit that outputs a delay adjustment CV signal by correcting a delay in recording time between CV data acquired from the image by a time difference from the time data supplied from the clock unit; and a plurality of camera images A delay multi-CV signal output unit that outputs a delay-adjusted multi-CV signal by correcting a time difference between the multi-CV data acquired from the time data and the time data supplied from the clock unit, and A CV correction unit detects a coordinate shift due to a difference in installation position between the plurality of video camera device units and the all-round video camera device unit. And a device coordinate position correction unit that corrects the position coordinates of the plurality of video camera device units to the position of the all-round video camera device unit, the coordinate arrangement shape of the delay adjustment multi-CV signal, and the delay adjustment CV signal A coordinate array shape comparison unit that detects a coordinate array shape difference by comparing the coordinate array shape, the coordinate array shape of the delay adjustment multi-CV signal, and the coordinate array shape of the delay adjustment CV signal A correction signal generation unit that generates a correction signal for correcting a scale error in the three-axis direction from a difference in coordinate arrangement shape of the obtained sections, and a coordinate arrangement shape based on the CV data corresponding to the sections are coordinate arrangements based on the multi-CV data. A CV data scale correction unit that corrects CV data so as to match the shape, and correction processing in the CV data scale correction unit are repeated over the entire target section. By returning, the global scale correction unit that generates continuous position correction CV data, and the three-dimensional coordinates of the CV data corrected by the global scale correction unit are known, and recalculation of high-precision CV data including three-axis rotation A high-precision CV data output unit that outputs an all-round video image acquired by the all-round video camera device unit, and the all-round video image A recalculation CV data output unit that outputs a CV data signal that is position-corrected by the global scale correction unit, recalculated by the CV recalculation unit, and corrected for three-axis rotation in synchronization with each output image frame; It is set as the structure provided with.

また、本発明の高精度CV演算装置は前記データ生成部が、前記複数ビデオカメラ機器部の視差のある複数画像から、カメラ間視差によりカメラ座標系における三次元形状を生成する視差方式カメラ座標三次元化部と、前記視差方式カメラ座標三次元化部で取得された、前記カメラ座標系における三次元形状の中から複数の三次元的特徴部位を抽出し、当該三次元的特徴部位をビデオ映像の隣接するフレーム間において追跡し、又は当該フレームに対応する三次元形状間において追跡し、当該三次元的特徴部位とカメラ位置関係に基づいて、前記移動体に備えられたカメラの静止座標系におけるカメラ位置座標とその3軸回転角をCV演算により求めるマルチCV演算部と、を備える構成としてある。 The high-precision CV operation apparatus of the present invention, the data generating unit, the plurality video camera device unit plurality of images with a parallax, parallax system camera coordinate generating a three-dimensional shape in the camera coordinate system by the camera between parallax A plurality of three-dimensional feature parts are extracted from the three-dimensional shape in the camera coordinate system acquired by the three-dimensionalization part and the parallax camera coordinate three-dimensionalization part, and the three-dimensional feature parts are video Tracking between adjacent frames of an image, or tracking between three-dimensional shapes corresponding to the frame, and a stationary coordinate system of a camera provided in the moving body based on the three-dimensional feature portion and the camera positional relationship And a multi-CV calculation unit that obtains the camera position coordinates and the three-axis rotation angle by CV calculation.

また、本発明の高精度CV演算装置は前記移動体計測部が、移動体に固定され、当該移動体の移動とともに、移動体周辺を撮影して全周ビデオ映像を取得する全周ビデオカメラ機器部と、前記移動体に固定され、当該移動体の三次元位置を緯度経度高度で取得するGPS計測機器部とを有し、これら全周ビデオカメラ機器部とGPS計測機器部が、相互に三次元的位置と姿勢の関係を既知として設置され、前記データ生成部が、前記全周ビデオカメラ機器部によって得られた全周ビデオ映像を記録する全周ビデオ映像記録部と、前記全周ビデオ映像記録部に記録された全周ビデオ映像の各フレーム画像内に複数の特徴点を抽出し、当該特徴点を全周ビデオ映像の隣接する複数のフレームに追跡し、当該複数の特徴点とカメラ位置関係に基づいて、前記移動体に備えられた全周カメラの静止座標系における三次元位置座標と3軸回転角を示すCVデータを演算により求めるCVデータ取得部と、前記GPS計測機器部から当該GPS計測機器部の三次元位置を示す絶対座標データを取得する絶対座標データ取得部と、を備え、前記時間軸整合部が、前記CVデータと前記絶対座標データに、時刻データを供給する時計部と、前記時計部から供給される時刻データに基づいて前記CVデータを関係付けて記録する時刻同期CVデータ記録部と、前記時計部から供給される時刻データに基づいて前記絶対座標データを関連付けて記録する時刻同期絶対座標記録部と、複数のカメラ映像から取得されるCVデータ間の記録時刻の遅れを、前記時計部から供給される時刻データとの時間差により補正して遅延調整CV信号を出力する遅延調整CV信号出力部と、絶対座標データの絶対座標信号出力時刻と計測時刻との時間差を補正して、遅延調整絶対座標信号を出力する遅延調整絶対座標信号出力部と、を備え、前記CV補正部が、前記GPS計測機器部と前記全周ビデオカメラ機器部との設置位置の差による座標と3軸回転のズレを前記CVデータに基づいて生成し、GPS計測機器部の位置座標を全周ビデオカメラ機器部の位置に補正して遅延座標回転補正信号を出力する座標位置回転補正部と、前記座標回転補正信号により補正された前記遅延調整絶対座標信号の座標配列形状と、前記遅延調整CV信号の座標配列形状とを比較する座標配列形状比較部と、前記両座標配列の座標配列形状比較により、CV値の座標配列から外れる遅延調整絶対座標信号の地点を、絶対座標の精度変更地点として検出する絶対座標精度変更地点検出部と、前記絶対座標精度変更地点を排除した相対精度が高い区間のみを複数選択する高精度相対値区間選択部と、演算誤差の累積によりスケール誤差を含むCVデータについて、前記絶対座標データによる前記高精度相対値区間選択部に対応する地点の区間と、ビデオ映像から演算により求められたCVデータによる地点の区間を、時刻をパラメータとして対応させ、当該区間によって区切られた始点と終点の時刻の一致点に計測値が存在しないときは内挿によって一致点を求めて対応させる計測区間対応部と、前記対応関係がとれた区間の始点と終点の絶対座標間の距離を区間距離として、スケール誤差を含むCVデータを補正する補正信号を生成する補正信号生成部と、前記区間に対応するCVデータを、相対精度が高い絶対座標データによる区間距離データと一致させることで、当該CVデータを補正するCVデータスケール補正部と、前記CVデータスケール補正部における補正処理を、目的区間の全域に亘って複数回繰り返することにより、連続する高精度CVデータを生成する全域スケール補正部と、を備え、高精度CVデータ出力部が、前記全周ビデオカメラ機器部で取得された全周ビデオ映像を出力する全周ビデオ出力部と、前記全周ビデオ映像出力の各画像フレームに同期して、上記全域スケール補正されたCVデータ信号を出力するCVデータ出力部と、を備える構成としてある。 The high-precision CV operation apparatus of the present invention, the movable body measuring portion is fixed to the moving body, the movement of the moving body, the whole circumference video camera by photographing the surrounding mobile acquires entire circumference video A device unit and a GPS measurement device unit that is fixed to the mobile body and acquires a three-dimensional position of the mobile body at a latitude and longitude altitude, and the all-around video camera device unit and the GPS measurement device unit mutually An all-round video image recording unit configured to record the all-round video image obtained by the all-round video camera device unit, the three-dimensional position and posture relationship being set as known, and the data generation unit; A plurality of feature points are extracted from each frame image of the all-round video image recorded in the video recording unit, the feature points are traced to a plurality of adjacent frames of the all-around video image, the plurality of feature points and the camera Based on positional relationship A CV data acquisition unit for calculating CV data indicating a three-dimensional position coordinate and a three-axis rotation angle in a stationary coordinate system of the all-round camera provided in the moving body, and the GPS measurement device from the GPS measurement device unit An absolute coordinate data acquisition unit that acquires absolute coordinate data indicating a three-dimensional position of the unit, and the time axis matching unit supplies time data to the CV data and the absolute coordinate data, and A time-synchronized CV data recording unit that associates and records the CV data based on time data supplied from the timepiece unit, and a time at which the absolute coordinate data is recorded in association with the time data supplied from the timepiece unit The recording time delay between the synchronous absolute coordinate recording unit and the CV data acquired from a plurality of camera images is set to the time difference between the time data supplied from the clock unit. A delay adjustment CV signal output unit that outputs a delay adjustment CV signal, and a delay adjustment absolute signal that outputs a delay adjustment absolute coordinate signal by correcting a time difference between the absolute coordinate signal output time and the measurement time of the absolute coordinate data. A coordinate signal output unit, and the CV correction unit generates a deviation of a coordinate and a three-axis rotation based on the CV data based on a difference in installation position between the GPS measurement device unit and the all-round video camera device unit. A coordinate position rotation correction unit that corrects the position coordinates of the GPS measurement device unit to the position of the all-round video camera device unit and outputs a delayed coordinate rotation correction signal; and the delay adjustment absolute value corrected by the coordinate rotation correction signal. A coordinate array shape comparison unit for comparing the coordinate array shape of the coordinate signal with the coordinate array shape of the delay adjustment CV signal, and comparing the coordinate array shape of the two coordinate arrays, the coordinate array shape of the CV value is excluded from the coordinate array shape. The absolute coordinate accuracy change point detection unit that detects the position of the absolute coordinate signal to be delayed as an absolute coordinate accuracy change point, and a high accuracy relative that selects a plurality of sections with high relative accuracy excluding the absolute coordinate accuracy change point CV data obtained by calculation from a value section selection unit and a point section corresponding to the high-precision relative value section selection unit based on the absolute coordinate data and CV data including a scale error due to accumulation of calculation errors A measurement interval corresponding unit that associates the interval of the point by using the time as a parameter, and when the measurement value does not exist at the coincidence point of the start point and the end point of time divided by the interval, The distance between the absolute coordinates of the start point and end point of the section in which the correspondence relationship is taken is used as the section distance to compensate for CV data including a scale error. A correction signal generation unit that generates a signal, a CV data scale correction unit that corrects the CV data by matching CV data corresponding to the section with section distance data based on absolute coordinate data with high relative accuracy, The high-precision CV data output unit includes a global scale correction unit that generates continuous high-precision CV data by repeating the correction process in the CV data scale correction unit a plurality of times over the entire area of the target section. The all-round video output unit that outputs the all-round video image acquired by the all-round video camera device unit, and the CV data signal that has been subjected to the all-scale scale correction in synchronization with each image frame of the all-round video image output. And a CV data output unit for outputting.

また、本発明の高精度CV演算装置は前記CV補正部が、前記絶対精度変更地点検出部で検出された絶対精度変更地点の分布を統計処理する分布統計処理部と、前記絶対精度変更地点の分布の統計的中心を仮の真値として求める仮の真値演算部と、前記仮の真値に基づいて、前記GPSの計測データの誤差を補正すべき区間を示す、前記絶対精度変更地点の始点及び終点で示される区間の補正値を取得する仮の真値補正データ取得部と、前記区間の補正値に基づいて、絶対座標の配列を補正した高精度の絶対座標配列を求める絶対座標補正部と、を備え、前記高精度CVデータ出力部が、前記高精度絶対座標配列を絶対座標の基準として、前記高精度CVデータ出力部から出力されたスケール補正されたCVデータに絶対座標を与える絶対座標付加CVデータ統合部と、各画像フレームに同期した、絶対座標が付加されたCVデータを出力する絶対座標CVデータ出力部と、を備える構成としてある。 The high-precision CV operation apparatus of the present invention, the CV correction section, and the absolute accuracy changing point detecting unit distribution statistical processing unit for statistically processing the detected distribution of absolute accuracy change point in said absolute accuracy change point A temporary true value calculation unit that obtains a statistical center of the distribution of the absolute value as a temporary true value, and the absolute accuracy change point that indicates a section in which an error in the GPS measurement data is to be corrected based on the temporary true value A temporary true value correction data acquisition unit for acquiring a correction value of a section indicated by the start point and end point of the absolute coordinates, and absolute coordinates for obtaining a high-precision absolute coordinate array by correcting the absolute coordinate array based on the correction values of the section A high-accuracy CV data output unit that uses the high-accuracy absolute coordinate array as a reference for absolute coordinates, and converts the absolute coordinates to the scale-corrected CV data output from the high-accuracy CV data output unit. Give absolute A target additional CV data integration unit, synchronized with each image frame, is configured to include the absolute coordinate CV data output unit for outputting the CV data absolute coordinate is added, the.

また、本発明の高精度CV演算装置は前記移動体計測部が、絶対3軸回転姿勢を計測するIMU計測器を備え、前記データ生成部が、前記IMU計測機器部により計測された絶対3軸回転姿勢のデータを取得する絶対3軸回転姿勢データ取得部を備え、前記時間軸整合部が、前記時計部から供給される時刻信号により前記絶対3軸回転姿勢データを関係付けて記録する時刻同期3軸回転姿勢記録部と、前記絶対3軸回転姿勢データの記録時刻と基準時刻のズレを補正して地点調整3軸回転姿勢データ信号を出力する遅延調整3軸回転姿勢出力部と、を備え、前記CV補正部が、前記遅延調整CV信号出力部からの3軸回転姿勢信号と前記遅延調整3軸回転姿勢出力部からの絶対回転3軸姿勢信号とを比較する3軸回転姿勢比較部と、前記3軸回転姿勢信号と前記絶対回転3軸姿勢信号の差を、予め定めた閾値と比較する3軸回転閾値比較部と、前記3軸回転姿勢信号と前記絶対回転3軸姿勢信号の差が前記閾値を超えたときに、補正区間を指定する3軸回転補正区間設定部と、前記補正区間における補正値を生成する3軸回転補正信号生成部と、を備え、前記高精度CVデータ出力部が、前記CVデータ出力部から出力されるCVデータの各画像フレームに同期した3軸回転姿勢データに、3軸回転補正を加えて出力する3軸回転補正CVデータ出力部を備える構成としてある。 The high-precision CV operation apparatus of the present invention, the movable body measuring unit is provided with a IMU measuring device for measuring the absolute triaxial rotational orientation, wherein the data generating unit, the IMU instrumentation unit absolute 3 measured by An absolute triaxial rotational attitude data acquisition unit that acquires axial rotation attitude data, and the time axis alignment unit records the absolute triaxial rotational attitude data in association with a time signal supplied from the clock unit A synchronous triaxial rotational attitude recording unit, and a delay adjustment triaxial rotational attitude output unit that outputs a point adjustment triaxial rotational attitude data signal by correcting a deviation between the recording time of the absolute triaxial rotational attitude data and a reference time. A three-axis rotation posture comparison unit that compares the three-axis rotation posture signal from the delay adjustment CV signal output unit and the absolute rotation three-axis posture signal from the delay adjustment three-axis rotation posture output unit. And 3 above A difference between the rotation attitude signal and the absolute rotation triaxial attitude signal is compared with a predetermined threshold value, and a difference between the three axis rotation attitude signal and the absolute rotation triaxial attitude signal is the threshold value. A three-axis rotation correction section setting unit that specifies a correction section when exceeding, and a three-axis rotation correction signal generation unit that generates a correction value in the correction section, and the high-precision CV data output unit includes the A triaxial rotation correction CV data output unit that outputs triaxial rotation correction data added to the triaxial rotation attitude data synchronized with each image frame of the CV data output from the CV data output unit is provided.

また、本発明の高精度CV演算装置は前記データ生成部が、球面変換座標で記録されている前記全周ビデオ映像を、概略真下方向及び真上方向に平面変換する概略両極平面展開部と、球面変換座標で記録されている前記全周ビデオ映像を、複数の赤道面方向に平面変換する概略赤道平面展開部と、前記平面変換された画像に含まれる鉛直成分に基づいて鉛直方向を検出し、検出された鉛直方向をCVデータの演算に反映させる鉛直方向検出部と、を備える構成としてある。 The high-precision CV operation apparatus of the present invention, the data generating unit, the entire circumference video images recorded by the spherical conversion coordinates, and schematic bipolar planar development unit for planar convert schematic beneath direction and directly above , Detecting the vertical direction on the basis of the vertical component included in the plane-converted image, and a general equatorial plane expansion unit for plane-converting the entire video image recorded in spherical transformation coordinates into a plurality of equatorial plane directions And a vertical direction detection unit that reflects the detected vertical direction in the calculation of the CV data.

また、本発明の高精度CV演算装置は前記移動体計測部が、対象物を低縮尺で撮影する低縮尺全周ビデオ映像機器部と、前記対象物を高縮尺で撮影する高縮尺全周ビデオ映像機器部と、を備え、前記データ生成部が、前記低縮尺全周ビデオ映像機器部により、低縮尺ビデオ信号を取得する低縮尺ビデオ信号取得部と、前記高縮尺全周ビデオ映像機器部により、高縮尺ビデオ信号を取得する高縮尺ビデオ信号取得部と、前記低縮尺全周ビデオ映像機器部から出力される低縮尺全周ビデオ映像と、前記高縮尺全周ビデオ映像機器部から出力される高縮尺全周ビデオ映像とを比較し、両映像に含まれる共通特徴点を抽出してその対応点を取ることにより共通特徴点を検出する共通特徴点検出部と、検出された各共通特徴点に対し、重み関数により重みを与えた重み共通特徴点を設定する共通特徴点重み設定部と、前記低縮尺全周ビデオ映像から低縮尺の特徴点を検出する低縮尺特徴点検出部と、検出された低縮尺の特徴点を隣接するフレームに追跡する低縮尺フレーム間追跡部と、前記高縮尺全周ビデオ映像から高縮尺の特徴点を検出する高縮尺特徴点検出部と、検出された高縮尺の特徴点を隣接するフレームに追跡する高縮尺フレーム間追跡部と、前記低縮尺の特徴点,高縮尺の特徴点及び重み共通特徴点に基づいて、前記低縮尺全周ビデオ映像と高縮尺全周ビデオ映像を一括統合してCV演算を行うCV演算部と、前記CV演算部で得られた精度の高いCV演算データを出力するCVデータ取得部と、を備える構成としてある。 The high-precision CV operation apparatus of the present invention, the movable body measuring portion, and the low scale all around video equipment unit for photographing an object with a low scale, high scale all around to shoot the object at a high scale A low-scale video signal acquisition unit for acquiring a low-scale video signal by the low-scale all-around video image device unit, and the high-scale all-around video image device unit. The high-scale video signal acquisition unit for acquiring the high-scale video signal, the low-scale all-around video image output from the low-scale all-around video image device unit, and the high-scale all-around video image device unit. A common feature point detection unit that detects a common feature point by comparing a high-scale all-round video image, extracting common feature points included in both images, and taking corresponding points, and each detected common feature For points, by weight function A common feature point weight setting unit that sets weighted common feature points, a low-scale feature point detection unit that detects low-scale feature points from the low-scale all-around video image, and detected low-scale features A low-scale inter-frame tracking unit that tracks a point to an adjacent frame, a high-scale feature point detection unit that detects a high-scale feature point from the high-scale all-around video image, and a detected high-scale feature point adjacent to each other Based on the low-scale feature points, the high-scale feature points, and the weight common feature points, the low-scale all-round video image and the high-scale all-round video image are collectively displayed. A CV calculation unit that performs CV calculation in an integrated manner and a CV data acquisition unit that outputs highly accurate CV calculation data obtained by the CV calculation unit are provided.

また、本発明の高精度CV演算装置は二次元座標が既知として与えられた二次元地図部と、前記移動体計測部で取得されるビデオ映像中の、前記二次元地図部の地点座標と対応する共通地点部分を検出する共通点検出部と、検出された前記共通地点の二次元地図上の二次元座標を検出する共通点二次元座標検出部と、前記移動体計測部で取得されるビデオ映像中に、追跡可能な特徴点を抽出する特徴点抽出部と、抽出された前記特徴点を複数の隣接する画像フレームの中に対応点を追跡する特徴点追跡部と、複数の特徴点の対応点とカメラ位置関係に基づいて、静止座標系におけるカメラの三次元位置と3軸回転姿勢を求めるCV演算部とを備え、CVデータを取得するCVデータ取得部と、前記CVデータ取得部からのCVデータに基づいて、前記移動体計測部で取得されるビデオ映像の共通点の三次元座標を取得する共通点三次元座標演算部と、前記共通点の三次元座標を二次元平面に変換する二次元平面座標変換部と、前記二次元地図部のデータから得られた共通点の二次元座標と、前記ビデオ映像から得られた共通点の三次元座標を二次元平面に投影して得られた複数の共通点二次元座標とを比較する共通点二次元座標比較部と、比較された前記両二次元座標の差分を検出し、差分が最小になる比較信号の位置座標を決定するとともに、同一比率でもう一つの座標軸方向の座標を補正し、前記共通点の補正量をその周囲に分散的に配分して、CV値の位置座標全体を補正するCV値の位置座標と置換する共通点領域CV値補正部と、前記共通点部分で、地図と一致したカメラの位置座標データを固定し、前記共通点と前記特徴点の追跡結果に基づいて再度CV演算を行い、より精度の高い3軸回転データを取得するCV補正演算部と、前記補正により、精度が高まった補正CV値を出力する補正CVデータ出力部と、を備える構成としてある。 In addition, the high-precision CV calculation device of the present invention includes a two-dimensional map unit in which two-dimensional coordinates are given as known, and point coordinates of the two-dimensional map unit in a video image acquired by the moving body measurement unit. Acquired by a common point detection unit that detects a corresponding common point part, a common point two-dimensional coordinate detection unit that detects a two-dimensional coordinate on a two-dimensional map of the detected common point, and the mobile body measurement unit A feature point extraction unit that extracts a traceable feature point in a video image, a feature point tracking unit that tracks a corresponding point in a plurality of adjacent image frames, and a plurality of feature points A CV data acquisition unit for acquiring CV data, and a CV data acquisition unit for acquiring CV data, and a CV calculation unit for obtaining a three-dimensional position of the camera in a stationary coordinate system and a three-axis rotation posture based on the camera positional relationship Based on CV data from A common point three-dimensional coordinate calculation unit for acquiring a three-dimensional coordinate of the common point of the video image acquired by the moving body measurement unit, and a two-dimensional plane coordinate for converting the three-dimensional coordinate of the common point into a two-dimensional plane. A plurality of common points obtained by projecting the two-dimensional coordinates of the common point obtained from the data of the conversion unit, the two-dimensional map unit, and the three-dimensional coordinates of the common point obtained from the video image onto a two-dimensional plane. A common point two-dimensional coordinate comparison unit that compares the point two-dimensional coordinates, and detects the difference between the two two-dimensional coordinates compared, determines the position coordinates of the comparison signal that minimizes the difference, and at the same ratio A common point region CV value correction that corrects a coordinate in the direction of one coordinate axis, disperses the correction amount of the common point in a distributed manner, and replaces the position coordinate of the CV value for correcting the entire position coordinate of the CV value. And the common point portion and C position correction data is fixed, CV calculation is performed again based on the tracking result of the common point and the feature point, and more accurate three-axis rotation data is obtained. And a correction CV data output unit that outputs a correction CV value with increased.

また、本発明の高精度CV演算装置は三次元座標が既知として与えられた三次元地図,二次元地図上に複数の既知の三次元座標点を座標とともに示す既知三次元点記載地図、又は複数の既知の三次元座標を示す三次元地点リストのうち、少なくともいずれか一つを備える地図部と、前記移動体計測部で取得されるビデオ映像のうち、前記地図部の既知の三次元地点と対応するビデオ映像の画像フレーム中に共通地点部分を検出する共通点検出部と、前記共通地点部分を共通特徴点として、前記ビデオ映像の複数の画像フレーム中に対応地点を抽出して追跡する共通特徴点追跡部と、前記共通特徴点を一般特徴点と区別して、演算時の優先順位を決める重み付けをする共通特徴点重み付け部と、重み付けされた複数の前記共通特徴点の追跡結果と、一般特徴点の追跡結果と、前記カメラの三次元位置関係とに基づいて、静止座標系における前記カメラの三次元位置と3軸回転姿勢を演算により求めるCV演算部と、前記CV演算部からCV値とともに出力される前記共通特徴点の三次元座標を取得する共通点三次元座標検出部と、前記地図部のデータから既知として得られる共通点三次元座標と、前記共通特徴点の三次元座標とを比較する共通点三次元座標比較部と、比較された前記両三次元座標の差分を検出する三次元差分検出部と、前記CV演算部から出力される前記一般特徴点の三次元座標を取得する一般特徴点三次元化部と、前記一般特徴点三次元化部で取得された一般特徴点の三次元座標をビデオ映像の各フレーム中の映像面に投影した二次元座標と、前記ビデオ映像の各フレーム中の一般特徴点のビデオ映像面の二次元座標との二次元差分を検出する画像二次元差分検出部と、前記三次元差分と前記二次元差分の値が最小になるように、CV演算のパラメータを変更して前記CV演算部でのCV演算を繰り返すCV補正演算部と、前記補正により、精度が高まった補正CV値を出力するCVデータ取得部と、を備える構成としてある。 The high-precision CV arithmetic device of the present invention is a three-dimensional map in which three-dimensional coordinates are given as known, a known three-dimensional point description map that shows a plurality of known three-dimensional coordinate points together with coordinates on a two-dimensional map, or Among the three-dimensional point list indicating a plurality of known three-dimensional coordinates, a map unit including at least one of the three-dimensional point lists, and a known three-dimensional point of the map unit among the video images acquired by the moving body measurement unit A common point detection unit for detecting a common point portion in an image frame of a video image corresponding to the same, and extracting and tracking the corresponding point in a plurality of image frames of the video image by using the common point portion as a common feature point A common feature point tracking unit; a common feature point weighting unit that weights the common feature point by distinguishing the common feature point from a general feature point and determining a priority in calculation; and a plurality of weighted common feature point tracking results. A CV calculation unit that calculates a three-dimensional position and a three-axis rotation posture of the camera in a stationary coordinate system based on a tracking result of the general feature points and a three-dimensional positional relationship of the camera; and the CV calculation unit A common point three-dimensional coordinate detection unit that obtains the three-dimensional coordinates of the common feature point that is output together with the CV value, a common point three-dimensional coordinate obtained as known from the data of the map unit, and a tertiary of the common feature point A common point three-dimensional coordinate comparison unit that compares original coordinates, a three-dimensional difference detection unit that detects a difference between the compared three-dimensional coordinates, and a three-dimensional general feature point output from the CV calculation unit A general feature point three-dimensionalization unit for acquiring coordinates, and two-dimensional coordinates obtained by projecting the three-dimensional coordinates of the general feature point acquired by the general feature point three-dimensionalization unit onto a video plane in each frame of a video image; Of the video footage An image two-dimensional difference detection unit for detecting a two-dimensional difference between a general feature point in a frame and a two-dimensional coordinate of a video image plane; and a CV calculation so that the three-dimensional difference and the two-dimensional difference value are minimized. And a CV correction calculation unit that repeats the CV calculation in the CV calculation unit, and a CV data acquisition unit that outputs a corrected CV value whose accuracy has been improved by the correction.

また、本発明のCV方式三次元地図生成装置は前記高精度CV演算装置の高精度CVデータ出力部から出力されるビデオ映像中に、三次元地図として生成すべき任意の対象物を指定する対象物指定部と、前記対象物指定部で指定された対象物を三次元計測する対象物三次元計測部と、前記対象物指定部で三次元計測されたデータから、三次元地図に記載する形式で三次元部品を生成する三次元地図部品生成部と、三次元地図としての三次元空間を定義する三次元空間定義部と、前記対象物の座標上の位置を測量して、その三次元座標を求める対象物地点測量部と、前記三次元地図部品を、前記三次元空間定義部で定義された三次元空間内に、前記対象物地点測量部の測量により求められた三次元座標により三次元配置を決定する三次元座標決定部と、前記三次元地図部品の三次元座標配置を繰り返して、三次元地図を出力する三次元地図出力部と、を備える構成としてある。 Also, CV method three-dimensional map generation apparatus of the present invention, in a video image output from the high-precision CV data output section of the high-precision CV arithmetic unit, specifying an arbitrary object to be generated as a three-dimensional map An object specifying unit, a target three-dimensional measuring unit that three-dimensionally measures the target specified by the target specifying unit, and data that is three-dimensionally measured by the target specifying unit are described in a three-dimensional map. A 3D map part generator that generates 3D parts in a format, a 3D space definition part that defines a 3D space as a 3D map, and a position on the coordinates of the object, The object point surveying unit for obtaining coordinates, and the three-dimensional map component, in the three-dimensional space defined by the three-dimensional space definition unit, are three-dimensional by the three-dimensional coordinates obtained by the survey of the target point surveying unit. 3D coordinates that determine the original arrangement And tough, repeat the three-dimensional coordinates arrangement of the three-dimensional map part is configured to include a three-dimensional map output unit for outputting the three-dimensional map, a.

また、本発明のCV方式三次元地図生成装置は三次元地図を構成する複数の三次元部品を記憶した三次元部品データベースと、前記三次元部品データベースに記憶された三次元部品の中から、前記対象物指定部で指定された対象物と比較する候補となる三次元部品を選択する三次元部品候補選択部と、前記対象物指定部で指定されたビデオ映像の一部と、前記三次元部品候補選択部から出力される三次元部品とを比較する比較部と、前記比較部での比較の結果、不一致の場合に不一致信号を出力し、当該不一致信号に基づいて前記三次元部品候補選択部から次の候補となる三次元部品を出力させる不一致信号出力部と、前記比較部での比較の結果、一致の場合に一致信号を出力する一致信号出力部と、前記一致信号により、前記三次元部品候補部品選択部から最終的に出力された三次元部品を一致部品とする一致部品選択部と、前記一致部品が対応するビデオ映像と異なる場合に、当該一致部品を修正して修正部品を生成する部品修正部と、を備え、前記一致部品又は修正部品を前記三次元地図部品生成部に送出する構成としてある。 Further, the CV method 3D map generation apparatus of the present invention includes a 3D part database storing a plurality of 3D parts constituting a 3D map, and a 3D part stored in the 3D part database. A 3D component candidate selection unit for selecting a 3D component that is a candidate to be compared with the target specified by the target specifying unit; a part of the video image specified by the target specifying unit; A comparison unit that compares the three-dimensional component output from the component candidate selection unit, and a comparison result at the comparison unit that outputs a mismatch signal when there is a mismatch, and the three-dimensional component candidate selection based on the mismatch signal A mismatch signal output unit that outputs the next candidate three-dimensional part from the unit, a match signal output unit that outputs a match signal in the case of a match as a result of comparison in the comparison unit, and the third signal by the match signal Original parts When a matching part selecting unit that uses the three-dimensional part finally output from the complementary part selecting unit as a matching part, and the matching part is different from the corresponding video image, the matching part is corrected to generate a corrected part. A part correction unit, and the matching part or the correction part is sent to the three-dimensional map part generation unit.

また、本発明のCV方式三次元地図生成装置は前記高精度CV演算装置の高精度CVデータ出力部から出力されるビデオ映像中に、三次元地図として生成すべき任意の対象範囲を指定する対象範囲指定部と、前記対象範囲指定部で指定された対象範囲中に、計測点密度を指定する計測点密度指定部と、指定された前記対象範囲と前記計測点密度に基づいて、計測点を生成する計測点生成部と、前記計測点を前記ビデオ映像の隣接する複数のフレームに亘って追跡する計測点追跡部と、前記高精度CV演算装置の高精度CVデータ出力部から出力されるCV値と、前記計測点の追跡により追跡データが取得された計測点に基づいて、計測点の三次元座標を演算により求める計測点演算部と、前記対象範囲にあるすべての計測点の三次元座標分布を求める対象範囲測量部と、前記計測点の三次元分布から計測点が作る三次元形状を生成する三次元形状生成部と、前記ビデオ映像中の前記対象範囲に、直線部分から構成される対象物の一部を特定計測点として指定し、その属性とともに登録する特定計測点指定登録部と、前記特定計測点が特定されることにより、当該特定計測点の属性が前記計測点生成部に送出され、一般の計測点と同様に追跡され演算されて、前記計測点演算部に出力され、前記計測点演算部から出力される三次元座標データ中から、特定計測点のデータのみを抽出し、その属性に適合した形状を与える特定計測点形成部と、前記特定計測点形成部から出力される特定計測点で形成される三次元形状を、特定計測点以外の前記計測点から得られた三次元形状とともに統合する三次元座標統合部と、前記統合された三次元形状に基づいて三次元地図を生成して出力する三次元地図出力部と、を備える構成としてある。 Also, CV method three-dimensional map generation apparatus of the present invention, in a video image output from the high-precision CV data output section of the high-precision CV arithmetic unit, specifying an arbitrary target range to be generated as a three-dimensional map Based on the target range specification unit, the measurement point density specification unit for specifying the measurement point density in the target range specified by the target range specification unit, the measurement points based on the specified target range and the measurement point density Is output from a measurement point generation unit that generates a measurement point, a measurement point tracking unit that tracks the measurement point over a plurality of adjacent frames of the video image, and a high-precision CV data output unit of the high-precision CV arithmetic device Based on the CV value and the measurement point from which the tracking data is acquired by tracking the measurement point, a measurement point calculation unit for calculating the three-dimensional coordinates of the measurement point, and the three-dimensional of all the measurement points in the target range Coordinates A target range surveying unit for obtaining a three-dimensional shape created by a measurement point from a three-dimensional distribution of the measurement points, and a target composed of a straight line portion in the target range in the video image A specific measurement point designation registration unit that designates a part of an object as a specific measurement point and registers it together with the attribute, and the specific measurement point is specified, so that the attribute of the specific measurement point is sent to the measurement point generation unit And is tracked and calculated in the same manner as a general measurement point, is output to the measurement point calculation unit, and only the data of a specific measurement point is extracted from the three-dimensional coordinate data output from the measurement point calculation unit, A specific measurement point forming unit that gives a shape suitable for the attribute, and a three-dimensional shape formed from the specific measurement points output from the specific measurement point forming unit, obtained from the measurement points other than the specific measurement points With original shape A three-dimensional coordinate integration unit that case, it is constituted; and a three-dimensional map output section for generating and outputting a three-dimensional map on the basis of the integrated three-dimensional shape.

また、本発明のCV方式三次元地図生成装置は前記計測点密度指定部が、前記高精度CV演算装置の高精度CVデータ出力部から取得したCV値に基づいて、ビデオ映像の回転成分を停止した映像を生成する画像安定化部と、前記回転成分を停止したビデオ映像の動きの原点となる湧きだし点を決定する湧きだし点決定部と、任意の指定範囲の画像フレームを小領域の画像ブロックの集合に分割する画像ブロック分割部と、前記画像ブロックのすべてについて、特徴点となり得るブロックを抽出する特徴点抽出部と、前記画像ブロックのすべてについて、境界線の一部となり得るブロックを抽出する境界点抽出部と、前記画像ブロックの前記特徴点及び境界点以外の点を領域点として抽出する領域点抽出部と、前記画像ブロックの各点を、湧きだし点から放射状に伸びる方向に結合し、その順番と隣り合う関係を保つように固定するとともに、隣り合う各ブロック間の距離関係は任意に伸縮可能にゴム紐結合する二次元ゴム紐結合映像生成部と、を備え、前記計測点生成部が、前記特徴点を計測点として選択する特徴点選択部と、前記領域点とそれを取り囲む特徴点及び境界点で作る領域を生成する領域生成部と、前記特徴点と計測点及び領域点を計測領域として、追跡計測対象とする計測点決定部と、を備え、前記計測点追跡部が、前記計測点としての特徴点,境界点及び計測領域を、湧き出し点方向に沿って、隣接する複数のフレームに亘って追跡し、前記計測点演算部が、前記計測点の追跡結果と前記高精度CV演算装置の高精度CVデータ出力部から出力されるCVデータに基づいて、計測点の三次元座標及び領域の三次元座標を取得し、前記計測点測量部が、前記計測点及び計測領域を囲む境界点の三次元座標を前記対象範囲に亘って繰り返し演算により求め、前記計測点追跡部において追跡不可能な画像ブロックがある場合には、当該画像ブロックを演算済みの既知の三次元座標に基づいて内挿により求め、その三次元位置を予想して対象範囲を測量し、前記三次元形状生成部が、前記特徴点と境界点の三次元座標から、特徴点と境界点が所属する領域を決定する境界線所属分類部と、前記特徴点と境界点の所属により、前記ブロックのゴム紐結合の一方を切断して、片方の領域間の結合を断ち、もう一方の領域に結合させるゴム紐切断部と、前記対象範囲のすべてのブロックを、特徴点,境界点,領域点に分類し、特徴点は計測点として求めた座標で固定し、座標が定まらない境界点及び領域点はゴム紐上で内挿し、それぞれの三次元座標を与えて、すべてのブロックを三次元的にゴム紐結合する三次元ゴム紐結合映像部と、を備え、前記三次元座標統合部が、前記画像ブロック分割部の分割密度を、前記三次元ゴム紐結合映像が生成される毎に、粗い密度から順次より高密度に変更し、前期画像ブロック分割からの工程の再演算を行わせる画像分割密度変更部と、最初に設定された前記画像ブロック分割の密度により前記三次元ゴム紐結合された画像を一旦記録し、次工程において、より詳細な三次元形状を順次生成し、当該工程を繰り返して所定の密度に至るまで順次三次元形状を生成し、より詳細な三次元映像を生成する三次元画像記録統合部と、を備える構成としてある。 Also, CV method three-dimensional map generation apparatus of the present invention, the measurement point density specification section, on the basis of the CV value obtained from the high-precision CV data output section of the high-precision CV computing device, the rotational component of the video image An image stabilization unit that generates a stopped video, a source point determination unit that determines a source point that is a starting point of the motion of the video image in which the rotation component is stopped, and an image frame of an arbitrary designated range in a small area An image block dividing unit for dividing the image block into a set, a feature point extracting unit for extracting a block that can be a feature point for all of the image blocks, and a block that can be a part of a boundary line for all of the image blocks A boundary point extraction unit to extract, a region point extraction unit to extract points other than the feature points and boundary points of the image block as region points, and each point of the image block, A two-dimensional rubber band connection image that connects in a radial direction from the knot point and fixes the order so that the relationship between the adjacent blocks is maintained, and the distance between adjacent blocks is arbitrarily stretchable. A generation unit, wherein the measurement point generation unit generates a region created by the feature point selection unit that selects the feature point as a measurement point, and the region point and the feature point and the boundary point surrounding it. A measurement point determination unit that is a tracking measurement target using the feature point, the measurement point, and the region point as a measurement region, and the measurement point tracking unit includes the feature point, the boundary point, and the measurement region as the measurement point. Are tracked over a plurality of adjacent frames along the spring point direction, and the measurement point calculation unit outputs the tracking result of the measurement point and the high-precision CV data output unit of the high-precision CV calculation device. CV day And the measurement point surveying unit repeatedly calculates the three-dimensional coordinates of the boundary points surrounding the measurement point and the measurement area over the target range. If there is an image block that cannot be tracked by the measurement point tracking unit, the image block is obtained by interpolation based on the already calculated three-dimensional coordinates, and the target is estimated by predicting the three-dimensional position. Surveying the range, the three-dimensional shape generation unit determines a region to which the feature point and the boundary point belong from the three-dimensional coordinates of the feature point and the boundary point, and the feature point and the boundary point By affiliation, the rubber string cutting part that cuts one of the rubber band bonds of the block, cuts the bond between one area, and bonds to the other area, and all the blocks in the target range are feature points. , Boundary points, region points Classify and fix the feature points with the coordinates obtained as measurement points, interpolate the boundary points and area points where the coordinates are not fixed on the rubber string, give each 3D coordinate, 3D all blocks A three-dimensional rubber string coupling image unit for coupling rubber strings, and the three-dimensional coordinate integration unit determines the division density of the image block dividing unit every time the three-dimensional rubber string coupling image is generated. The image division density changing unit for changing the density from the first to the next, and performing the recalculation of the process from the previous image block division, and the three-dimensional rubber string combined image by the initially set density of the image block division 3D to generate a more detailed three-dimensional image by recording once and generating a more detailed three-dimensional shape sequentially in the next process, generating the three-dimensional shape sequentially by repeating the process until reaching a predetermined density Image recording It is constituted comprising a part, the.

また、本発明のCV方式三次元地図生成装置は視野が重複し視差のあるビデオ映像を取得する複数のビデオカメラを備えた複数カメラ撮影部と、移動体とともに移動する前記複数のビデオカメラで撮影された視差のあるビデオ映像に基づいて、カメラ座標系の三次元形状を演算により求めて、カメラ座標系三次元距離分布データを取得する視差方式カメラ座標三次元化部と、を備えた視差方式三次元化装置と、前記複数カメラを含むカメラ位置のCVデータを取得する前記高精度CV演算装置と、前記視差方式三次元化装置により得られた前記カメラ座標三次元距離分布データを、前記高精度CV演算装置で得られた高精度CV値に基づいて、連続的に静止座標系における三次元距離分布データに変換する静止座標系変換部と、前記ビデオ映像の進行にともなって重複しながら連続的に得られる前記静止座標系における三次元距離分布データを結合して、静止座標系に統合する静止座標系合成結合部と、を備える構成としてある。 Also, CV method three-dimensional map generation apparatus of the present invention includes a plurality camera imaging section having a plurality of video cameras field of view to obtain a duplicate video images having parallax, by the plurality of video cameras that moves with the moving body A parallax camera coordinate three-dimensionalization unit that obtains a camera coordinate system three-dimensional distance distribution data by calculating a three-dimensional shape of the camera coordinate system based on a captured video image having a parallax; a method three-dimensional device, and the high-precision CV calculation apparatus for obtaining CV data of a camera position including a plurality cameras, the camera coordinate three-dimensional distance distribution data obtained by the parallax method three-dimensional device, the A stationary coordinate system conversion unit for continuously converting into three-dimensional distance distribution data in a stationary coordinate system based on a high-precision CV value obtained by a high-precision CV arithmetic unit; and the video By combining the three-dimensional distance distribution data in the static coordinate system continuously obtained while overlapping with the progress of the image, it is constituted; and a stationary coordinate system synthetic binding unit to integrate the stationary coordinate system.

また、本発明のCV方式三次元地図生成装置は前記静止座標系合成結合部で静止座標系に統合される三次元距離分布データを、静止座標系における静止物体のみで構成する静止物体分離空間構成部と、前記静止座標系合成結合部で静止座標系に統合される三次元距離分布データから、時間的変動のある三次元データを分離して、運動対象物として分離記録する運動対象物分離部と、を備える構成としてある。 Also, CV method three-dimensional map generation apparatus of the present invention, the stationary object separation space a three-dimensional distance distribution data to be integrated in the stationary coordinate system by the static coordinate system synthetic binding unit, contain only the stationary object in the stationary coordinate system A moving object separation that separates and records three-dimensional data with temporal variation from the three-dimensional distance distribution data integrated into the stationary coordinate system by the composition unit and the stationary coordinate system combining and coupling unit as a moving object. And a section.

また、本発明のCV方式航法装置は前記CV方式三次元地図生成装置と、前記CV方式三次元地図生成装置により生成される三次元地図情報を有する車載可能な三次元地図装置と、三次元データ及び属性を含む走行に必要な所定情報を、前記三次元地図装置に変更可能に入力する走行経路入力装置と、走行車輌に備えられた車載カメラから、広角映像データと走行時点の比較的低精度のCVデータを出力する車載式カメラと概略CV演算装置と、前記概略CV演算装置から出力された概略CVデータに基づいて、前記走行車輌の現在位置と姿勢を示す三次元データを取得し、当該三次元データを三次元地図と概略対応させて三次元空間構成を検出し、対象物の認識以前に緊急対応が必要な障害物を関知し、最優先で回避及び停止の緊急制御信号をリアルタイム制御装置に送出し、前記車載式カメラと概略CV演算装置により、走行路から可視範囲にあり、走行目的及び交通に関係する複数の対象物からなる三次元空間構成を検出する対象物空間構成装置と、前記対象物空間構成装置で検出された対象物空間構成データと、前記走行車輌の概略三次元位置データを照合し、走行路から可視範囲にあり、走行目的に合致し、交通に関係する信号機,道路標識,道路標示を含む個々の対象物の三次元形状を、前記三次元地図の情報と照合して形状及び属性を特定して認識する対象物認識装置と、前記対象物認識装置による複数の対象物の三次元形状又は部品形状を三次元追跡し、又は特定以前の三次元空間構成の段階で特徴ある形状を選択して切り取って追跡し、当該追跡結果から、高精度のCVデータを取得する前記高精度CV演算装置と、前記高精度CV演算装置で取得されるCVデータと、前記対象物空間構成装置の出力と、前記対象物認識装置の対象物認識結果と、車載レーダを含む車載計測器の出力に基づいて、前記走行車輌の現状判断結果を出力する現状判断装置と、前記現状判断装置の出力により、前記走行車輌のアクセル,ブレーキ,ハンドルを含む所定の操作部を制御し、又は前記走行経路入力装置のデータを変更するリアルタイム制御装置と、を備える構成としてある。 Also, CV method navigation system of the present invention includes: the CV method three-dimensional map generation apparatus, a vehicle capable of three-dimensional map device having a three-dimensional map information generated by the CV method three-dimensional map generation apparatus, three-dimensional From the travel route input device that inputs the required information including the data and attributes to the 3D map device in a changeable manner and the in-vehicle camera provided in the travel vehicle, the wide angle video data and the relatively low Based on the in-vehicle camera that outputs accurate CV data, the approximate CV calculation device, and the approximate CV data output from the approximate CV calculation device, obtains three-dimensional data indicating the current position and orientation of the traveling vehicle, The 3D data is roughly associated with the 3D map to detect the 3D spatial structure, and the obstacles that need emergency response before the recognition of the object are detected. The object is sent to the real-time control device, and the vehicle-mounted camera and the schematic CV calculation device are in the visible range from the road and detect the three-dimensional space configuration consisting of a plurality of objects related to the driving purpose and traffic The space construction device, the object space construction data detected by the object space construction device, and the roughly three-dimensional position data of the traveling vehicle are collated, are in the visible range from the traveling road, and meet the traveling purpose. An object recognition device for recognizing a three-dimensional shape of an individual object including a traffic signal, a road sign, and a road marking related to the object and identifying the shape and attribute by collating with the information of the three-dimensional map, and the object The three-dimensional shape or part shape of a plurality of objects by the recognition device is tracked three-dimensionally, or a characteristic shape is selected and tracked at the stage of the three-dimensional space configuration before the identification, and the tracking result is And the high-precision CV arithmetic unit for obtaining the time the CV data and CV data acquired by the high-precision CV computing device, an output of the object space configuration device, and the object recognition result of the object recognition device A current state determination device that outputs the current state determination result of the traveling vehicle based on the output of the on-vehicle measuring instrument including the on-vehicle radar, and a predetermined state including an accelerator, a brake, and a handle of the traveling vehicle by the output of the current state determination device And a real-time control device that controls the operation unit or changes data of the travel route input device.

さらに、本発明のCV方式航法装置は前記高精度CV演算装置の出力,前記対象物認識装置の認識結果、及び前記現状判断装置の現状判断結果を、二次元地図又は三次元地図上にリアルタイムに表示するリアルタイム表示装置を備える構成としてある。
Furthermore, the CV type navigation device of the present invention provides the output of the high-precision CV calculation device, the recognition result of the object recognition device, and the current state determination result of the current state determination device on a two-dimensional map or a three-dimensional map in real time. It is a structure provided with the real-time display device displayed on the.

以上のような構成からなる本発明の高精度CV演算装置によれば、動画映像の複数のフレーム画像から、カメラ位置、カメラ回転角等を高精度に示すCV(カメラベクトル)を演算により自動的に求めることができる。そして、求められたCVデータをGPS等で得られる位置情報で補正することで、相対値であるCVデータに絶対座標を与え、スケールキャリブレーションを実行することで、高精度で高サンプリング可能な高精度CV演算装置が実現する。
絶対座標校正を行うには、通常はその計器等の位置で校正する必要があるが、CV演算を利用することにより、計測器等の位置は勿論のこと、ビデオ映像に映っている任煮の地点の座標において校正することもできるという極めて優れた長所がある。
According to the high-accuracy CV calculation device of the present invention having the above-described configuration, a CV (camera vector) indicating a camera position, a camera rotation angle, etc. with high accuracy is automatically calculated from a plurality of frame images of a moving image. Can be requested. Then, by correcting the obtained CV data with position information obtained by GPS or the like, absolute coordinates are given to the CV data that is a relative value, and scale calibration is performed, so that high accuracy and high sampling can be achieved. An accuracy CV arithmetic unit is realized.
In order to calibrate absolute coordinates, it is usually necessary to calibrate at the position of the instrument etc., but by using CV calculation, the position of the instrument etc. is of course reflected in the video image. There is an excellent advantage that it can be calibrated in the coordinates of the point.

CV演算によれば、相対精度ではほぼ±15cm程度の精度が実現可能であり、これとGPSの統計処理による絶対精度を相互に組み合わせることにより、CV演算によりGPSの絶対座標校正を行い、同時にGPSの絶対座標でCV演算の相対座標を校正することができる。
これにより、高精度の位置情報を生成・取得することができ、この位置情報を用いてほぼ±15cmの絶対精度を持つ三次元地図を生成することが可能となる。
そして、このような本発明の高精度CV演算装置を用いて三次元地図生成装置や航法装置を実現することで、ほぼ±15cmの精度で、走行車輌等の制御が可能となる。
According to the CV calculation, a relative accuracy of about ± 15 cm can be realized. By combining this with the absolute accuracy of GPS statistical processing, GPS absolute coordinate calibration is performed by CV calculation, and at the same time GPS The relative coordinates of the CV calculation can be calibrated with the absolute coordinates.
Thereby, highly accurate position information can be generated and acquired, and a three-dimensional map having an absolute accuracy of approximately ± 15 cm can be generated using this position information.
By implementing a three-dimensional map generation device and a navigation device using such a high-precision CV arithmetic device of the present invention, it is possible to control a traveling vehicle or the like with an accuracy of approximately ± 15 cm.

本発明によれば、動画映像の複数のフレーム画像から、カメラ位置、カメラ回転角等を高精度に示すCV(カメラベクトル)を演算により自動的に求めるとともに、得られたCVデータをGPS等で得られる位置情報で補正することがで、相対値であるCVデータに絶対座標を与え、スケールキャリブレーションを実行することができる。
これにより、高精度の位置情報を生成・取得することができ、得られた高精度の位置情報を用いて、三次元地図を生成し、また、走行車輌等の制御が可能な航法装置を実現することができる。
According to the present invention, a CV (camera vector) indicating a camera position, a camera rotation angle, etc. with high accuracy is automatically obtained from a plurality of frame images of a moving image by calculation, and the obtained CV data is obtained by GPS or the like. By correcting with the obtained position information, absolute coordinates can be given to CV data that is a relative value, and scale calibration can be executed.
As a result, high-accuracy position information can be generated and acquired, and a navigation device capable of generating a three-dimensional map using the obtained high-accuracy position information and controlling a traveling vehicle or the like is realized. can do.

以下、本発明に係る高精度CV演算装置と、この高精度CV演算装置を備えるCV方式三次元地図生成装置及びCV方式航法装置の好ましい実施形態について、図面を参照しつつ説明する。
ここで、以下に示す本発明の高精度CV演算装置,CV方式三次元地図生成装置及びCV方式航法装置は、プログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラムは、コンピュータの各構成要素に指令を送り、以下に示すような所定の処理や機能、例えば、特徴点の自動抽出,抽出した特徴点の自動追跡,特徴点の三次元座標の算出,カメラベクトルの演算等を行わせる。このように、本発明における各処理や手段は、プログラムとコンピュータとが協働した具体的手段によって実現される。
なお、プログラムの全部又は一部は、例えば、磁気ディスク,光ディスク,半導体メモリ,その他任意のコンピュータで読取り可能な記録媒体により提供され、記録媒体から読み出されたプログラムがコンピュータにインストールされて実行される。また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
Hereinafter, preferred embodiments of a high-precision CV calculation device according to the present invention, and a CV-type three-dimensional map generation device and a CV-type navigation device including the high-precision CV calculation device will be described with reference to the drawings.
Here, the high-precision CV arithmetic device, CV system three-dimensional map generation device, and CV system navigation device of the present invention described below are realized by processing, means, and functions executed by a computer in accordance with instructions of a program (software). . The program sends commands to each component of the computer, and performs predetermined processing and functions as shown below, such as automatic extraction of feature points, automatic tracking of extracted feature points, calculation of three-dimensional coordinates of feature points, camera Perform vector operations. Thus, each process and means in the present invention are realized by specific means in which the program and the computer cooperate.
Note that all or part of the program is provided by, for example, a magnetic disk, optical disk, semiconductor memory, or any other computer-readable recording medium, and the program read from the recording medium is installed in the computer and executed. The The program can also be loaded and executed directly on a computer through a communication line without using a recording medium.

[高精度CV演算装置]
まず、本発明に係る高精度CV演算装置の基本概念について説明する。
本発明の高精度CV演算装置は、ビデオ映像の複数のフレーム画像から、カメラ位置とカメラ回転角等を高精度に示すCV(カメラベクトル)を演算により自動的に求めるとともに、求められたCVデータをGPS等で得られる位置情報で補正することで、相対値であるCVデータに絶対座標を与え、スケールキャリブレーションを実行する装置である。
[High-precision CV processor]
First, the basic concept of the high-precision CV arithmetic device according to the present invention will be described.
The high-accuracy CV calculation device of the present invention automatically obtains CV (camera vector) indicating the camera position and camera rotation angle with high accuracy from a plurality of frame images of a video image by calculation and obtains the obtained CV data. Is corrected with position information obtained by GPS or the like, thereby giving absolute coordinates to CV data that is a relative value, and performing scale calibration.

[基本概念]
画像計測装置や測量装置,走行車輌等の航法装置を目的とする場合、画像とその画像から求めたCV値を用いることができるが、動画像からCV値を求める場合、スケールも相対値となるため、長区間のCV演算データは、誤差が累積して誤差が増加することになる。従って、CV演算そのままでは、特に長距離区間における計測等で誤差の累積が生じてしまうが、GPSやIMU(Inertial Measuring Unit:慣性姿勢計測装置)からの絶対値データでCV値を補正することで、誤差の累積を補正・校正することができる。
そこで、本発明では、CV演算において、GPS等の絶対誤差の少ない計測データを結合させることで、より高精度なCV方式の画像計測,画像測量,画像位置決め,画像航法等の装置を実現するようにしたものである。
[Basic concept]
When a navigation device such as an image measuring device, a surveying device, or a traveling vehicle is used, an image and a CV value obtained from the image can be used. However, when a CV value is obtained from a moving image, the scale is also a relative value. Therefore, in the CV calculation data in the long section, the error accumulates and the error increases. Accordingly, if the CV calculation is used as it is, accumulation of errors occurs particularly in measurement in a long distance section, but by correcting the CV value with absolute value data from a GPS or an IMU (Inertial Measuring Unit). The accumulated error can be corrected and calibrated.
Therefore, in the present invention, by combining measurement data with a small absolute error such as GPS in the CV calculation, it is possible to realize a highly accurate apparatus such as CV image measurement, image surveying, image positioning, and image navigation. It is a thing.

ここで、CV演算とはCV値を求めることを意味し、求められた結果をCV値,CVデータと呼ぶ。CVという表記は、カメラベクトル:Camera Vectorの略記であり、カメラベクトルとは計測等のために映像を取得するビデオカメラ等のカメラの三次元位置と3軸回転姿勢を示す値である。
CV演算は、動画像(ビデオ映像)を取得し、その映像内の特徴点を検出し、それを隣接する複数のフレームに追跡し、カメラ位置と特徴点の追跡軌跡とが作る三角形を画像内に数多く生成し、その三角形を解析することで、カメラの三次元位置とカメラの3軸回転姿勢を求めるものである。
Here, the CV calculation means obtaining a CV value, and the obtained result is referred to as CV value or CV data. The notation CV is an abbreviation for camera vector, which is a value indicating a three-dimensional position and a three-axis rotation posture of a camera such as a video camera that obtains an image for measurement or the like.
The CV calculation acquires a moving image (video image), detects a feature point in the image, tracks it in a plurality of adjacent frames, and creates a triangle formed by the camera position and the tracking locus of the feature point in the image. The three-dimensional position of the camera and the three-axis rotational posture of the camera are obtained by generating a large number of images and analyzing the triangle.

CV演算では、CV値を求める過程で、同時に映像内の特徴点についても三次元座標が同時に求まることが重要な特性である。
また、動画像から演算で求められるCV値は、動画像の各フレームに対応して、三次元のカメラ位置と三次元のカメラ姿勢とが同時に求まる。しかも、原理的には一台のカメラで、映像と対応してCV値が求められる特性は、CV演算でしか実現し得ない優れた特徴である。
例えば、他の方法による計測手段(GPSやIMU等)では、動画像の各フレームと、その三次元的カメラ位置と三次元的カメラ姿勢とを同時に取得するためには画像フレームと計測サンプリング時刻を高精度で、しかも完全に同期しなければならないために、巨額の装置となり、実質的には実現が困難である。
In the CV calculation, it is an important characteristic that, in the process of obtaining the CV value, simultaneously, the three-dimensional coordinates are obtained simultaneously for the feature points in the video.
Further, the CV value obtained by calculation from the moving image is obtained simultaneously with the three-dimensional camera position and the three-dimensional camera posture corresponding to each frame of the moving image. Moreover, in principle, the characteristic that a CV value is obtained corresponding to an image with a single camera is an excellent feature that can be realized only by CV calculation.
For example, in other measurement means (such as GPS and IMU), in order to simultaneously acquire each frame of a moving image and its three-dimensional camera position and three-dimensional camera posture, an image frame and a measurement sampling time are used. Since it has to be highly accurate and completely synchronized, it becomes a huge device, which is practically difficult to realize.

動画像から演算で求められるCVデータは、加工しない段階では相対値であるが、短区間であれば高精度で三次元位置情報と3軸回転の角度情報を取得できる。
また、CVデータは画像から取得するため、取得されたデータは相対値であるが、画像内の任意の対象物との位置関係を計測することができるという他の方法では実現は可能な優れた特性を備える。
また、画像に対応したCV値が求まるので、画像内計測や測量において、画像から直接にカメラ位置とその3軸回転姿勢を求めることができるCV演算は画像内計測や画像内測量に好適となる
CV data obtained by calculation from a moving image is a relative value when not processed, but if it is a short section, three-dimensional position information and three-axis rotation angle information can be acquired with high accuracy.
In addition, since the CV data is acquired from the image, the acquired data is a relative value, but it can be realized by other methods that can measure the positional relationship with an arbitrary object in the image. With characteristics.
Further, since the CV value corresponding to the image can be obtained, the CV calculation capable of obtaining the camera position and its three-axis rotation posture directly from the image in the in-image measurement or survey is suitable for the in-image measurement or the in-image survey.

これに対して、GPSシステムは、絶対座標を持つという優れた特性を有するが、GPSデータの取得におけるサンプリング周波数は、毎秒10回程度であり、動画像に同期することは困難である。
従って、高速で移動する車輌等に取り付けたカメラ機器とGPS装置では、測量用カメラの画像や計測器とGPSの同期を取ることは極めて困難であり、画像に同期した測量装置や精度の高い位置決め装置,航法装置等は実現されていない。
ましてや、カメラの3軸姿勢とGPS等から取得される3軸回転姿勢を同期した形で検出することは位置の同期以上に困難である。
In contrast, the GPS system has an excellent characteristic of having absolute coordinates, but the sampling frequency in acquiring GPS data is about 10 times per second, and it is difficult to synchronize with a moving image.
Therefore, it is extremely difficult to synchronize GPS with the image of the camera for surveying and the measuring instrument with the camera device and GPS device attached to the vehicle that moves at high speed. The surveying device synchronized with the image and the positioning with high accuracy are difficult. Devices, navigation devices, etc. are not realized.
In addition, it is more difficult to detect the three-axis attitude of the camera and the three-axis rotation attitude acquired from the GPS or the like in synchronization with each other than the position synchronization.

GPSによる位置決めと3軸回転姿勢位置決めにおける誤差の要因としては、地平近くのGPS衛星は電離層の影響を強く受け、マルチパスによる誤差を発生させて、計測に大きな誤差を発生させるものである。
また、受信可能な衛星が地平近くで切り替わる時点では、計測値の精度が変化して計測位置が不連続となる相対誤差を発生させる。
一方で、GPSは絶対距離計測であるため、計測地点で種々の誤差が発生することがある、誤差は累積せず、長距離計測になるほど、計測距離に対する誤差の比率は小さくなるという特性を持つ。
As a cause of errors in GPS positioning and three-axis rotational attitude positioning, GPS satellites near the horizon are strongly affected by the ionosphere, causing errors due to multipath, and causing large errors in measurement.
Further, when the receivable satellite is switched near the horizon, the accuracy of the measurement value changes and a relative error that causes the measurement position to become discontinuous is generated.
On the other hand, since GPS is an absolute distance measurement, various errors may occur at the measurement point. The error does not accumulate, and the longer the distance measurement, the smaller the ratio of the error to the measurement distance. .

そこで、本発明の高精度CV演算装置では、CV方式計測とGPS方式計測が、それぞれ相対座標と絶対座標であり、それぞれが互いの不利な面を相補う特性を持つことに着目し、両者の位置情報を相互に補完・補正し得る装置を実現したものである。
すなわち、本発明の高精度CV演算装置によれば、取得されるCV(カメラベクトル)は、スケールに関して相対値であるために、累積誤差を含むことになるが、GPSデータ等によって絶対座標を与え、累積誤差を大幅に減少させることができる。CVデータをGPSで補正することで、絶対座標を与えてスケールキャリブレーションを実行することができ、高精度で高サンプリング可能な高精度CV演算装置が実現することになる。
絶対座標校正するためには、通常であればその計測器等の位置で校正する必要があるが、CV演算を用いることで、計測器の位置は勿論のこと、映像に映っている地点の座標によって校正することも可能となる。
Therefore, in the high-precision CV arithmetic device of the present invention, it is noted that CV measurement and GPS measurement are relative coordinates and absolute coordinates, respectively, and each has a characteristic of complementing each other's disadvantageous surface. A device capable of mutually complementing and correcting position information is realized.
That is, according to the high-precision CV arithmetic device of the present invention, the acquired CV (camera vector) is a relative value with respect to the scale, and thus includes an accumulated error. However, absolute coordinates are given by GPS data or the like. , Cumulative error can be greatly reduced. By correcting the CV data with GPS, scale calibration can be performed by giving absolute coordinates, and a high-accuracy CV arithmetic unit capable of high-accuracy and high-sampling is realized.
In order to calibrate the absolute coordinates, it is usually necessary to calibrate at the position of the measuring instrument or the like. However, by using CV calculation, the position of the measuring instrument as well as the coordinates of the point shown in the image are displayed. Can also be calibrated.

そして、このような高精度CV演算装置を用いてビデオカメラの位置が正確に計測できることから、これを利用した画像内測量が可能となり、CV方式の測量装置が実現でき、このCV方式測量装置によって高精度な三次元地図を生成することができる。
なお、三次元地図とは、通常の地図と同様に、キロメートル単位の広範囲を扱う実際の地図等であってもよいが、同様の原理により、数メートル単位、あるいは顕微鏡下の極めて狭い範囲の三次元形状を示すものであってもよい。
Since the position of the video camera can be accurately measured using such a high-precision CV arithmetic device, it is possible to perform in-image surveying using this, and a CV surveying device can be realized. A highly accurate three-dimensional map can be generated.
Note that a 3D map may be an actual map that covers a wide range of kilometers, just like a normal map, but based on the same principle, a 3D map or a very narrow range of tertiary under a microscope. The original shape may be shown.

さらに、三次元地図と車載カメラ等の映像に基づくCV演算により、リアルタイムに高精度CV演算を行うことで、CV方式航法装置が実現できる。
ここで、CV方式航法装置とは、交通標識や道路標示や信号を認識・理解して、予定された場所まで車輌等を走行制御する自動運転装置等であるが、CV方式航法装置を用いることで、周囲を認識し、判断して行動可能なロボットの目と頭脳を実現することも可能であり、小型化によるロボット技術への利用・応用も可能となる。
Furthermore, a CV-type navigation device can be realized by performing high-precision CV calculation in real time by CV calculation based on a three-dimensional map and an onboard camera image.
Here, the CV navigation device is an automatic driving device or the like that recognizes and understands traffic signs, road markings, and signals, and controls the vehicle to travel to a predetermined location. However, the CV navigation device is used. Therefore, it is possible to realize the robot's eyes and brain that can recognize and judge the surroundings, and can be used and applied to robot technology by miniaturization.

[基本構成]
以下、図1を参照して、本発明に係る高精度CV演算装置の一実施形態について説明する。図1は、本発明の一実施形態に係る高精度CV演算装置の基本構成を示すブロック図である。また、図2は、図1に示す高精度CV演算装置の詳細を示すブロック図である。
これらの図に示すように、高精度CV演算装置1は、移動体計測部10と、データ生成部20と、時間軸整合部30と、CV補正部40と、高精度CVデータ出力部50を備え、さらに、選択的にCV映像合成表示部60を備えている。
[Basic configuration]
Hereinafter, an embodiment of a high-precision CV arithmetic device according to the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing a basic configuration of a high-precision CV arithmetic device according to an embodiment of the present invention. FIG. 2 is a block diagram showing details of the high-precision CV arithmetic apparatus shown in FIG.
As shown in these drawings, the high-precision CV calculation device 1 includes a moving body measurement unit 10, a data generation unit 20, a time axis matching unit 30, a CV correction unit 40, and a high-precision CV data output unit 50. In addition, a CV video composition display unit 60 is selectively provided.

移動体計測部10は、CVデータを取得する目的で、走行車輌等の移動体に固定され、移動体の移動とともに移動体周辺を撮影し、映像を取得するビデオカメラ機器部11を備える。
また、移動体計測部10は、CVデータを補正する目的でのビデオカメラ機器11と、自分自身の位置に関するデータ及び移動量データを計測できる位置計測機器部12を備える。位置計測器基部12としては、後述するように、絶対座標を取得するGPS機器やIMU機器等により構成されるが、しばしば視点を異にする複数のビデオカメラや、視差のある画像を取得可能な複数カメラにより構成することもできる。
The moving body measurement unit 10 is fixed to a moving body such as a traveling vehicle for the purpose of acquiring CV data, and includes a video camera device unit 11 that captures images around the moving body by moving the moving body.
In addition, the moving body measuring unit 10 includes a video camera device 11 for the purpose of correcting CV data, and a position measuring device unit 12 that can measure data relating to its own position and movement amount data. As will be described later, the position measuring instrument base 12 is configured by a GPS device, an IMU device, or the like that acquires absolute coordinates. However, it is possible to acquire a plurality of video cameras with different viewpoints and images with parallax. It can also be constituted by a plurality of cameras.

ここで、移動体としては、図3及び図4に示すように、自動車のような走行車輌が該当し、移動体2の天井部等にCVデータ取得様のビデオカメラ機器部11が備えられる。
なお、図3,図4に示す例では、移動体2に搭載されるビデオカメラ機器部11として、走行する移動体2の周辺の広範囲映像を撮影可能な全周カメラ11aを備えている。広範囲映像を撮影,取得するカメラとしては、広角レンズや魚眼レンズ付きカメラ、移動カメラ、固定カメラ、複数のカメラを固定したカメラ、360度周囲に回転可能なカメラ等があり、車輌に複数のカメラが一体的に固定され、移動体2の移動に伴って広範囲映像を撮影する全周カメラ11aを使用することができる。
Here, as shown in FIGS. 3 and 4, the moving body corresponds to a traveling vehicle such as an automobile, and a video camera device section 11 for obtaining CV data is provided on the ceiling of the moving body 2.
In the example shown in FIGS. 3 and 4, as the video camera device unit 11 mounted on the moving body 2, an all-around camera 11 a capable of shooting a wide range image around the traveling moving body 2 is provided. Cameras that capture and acquire a wide range of images include cameras with wide-angle lenses and fish-eye lenses, moving cameras, fixed cameras, cameras with multiple cameras fixed, cameras that can rotate around 360 degrees, etc. An all-around camera 11a that is fixed integrally and that captures a wide-range image as the moving body 2 moves can be used.

全周カメラ11aによれば、図4に示すように、移動体2の天井部に設置されることで、カメラの360度全周囲の映像を複数のカメラで同時に撮影することができ、移動体2が移動することで、広範囲映像を動画データとして取得できる。
ここで、全周カメラは、カメラの全周映像を直接取得できるビデオカメラであるが、カメラの全周囲の半分以上を映像として取得できれば全周映像として使用できる。また、画角が制限された通常のカメラの場合でも、CV演算の精度としては低下するが、全周映像の一部分として取り扱うことが可能である。
According to the all-around camera 11a, as shown in FIG. 4, by being installed on the ceiling of the moving body 2, a 360-degree all-around image of the camera can be simultaneously captured by a plurality of cameras. As 2 moves, a wide-range video can be acquired as moving image data.
Here, the omnidirectional camera is a video camera that can directly acquire the omnidirectional video of the camera, but can be used as the omnidirectional video if more than half of the entire circumference of the camera can be acquired as video. Even in the case of a normal camera with a limited angle of view, the accuracy of the CV calculation is reduced, but it can be handled as a part of the entire peripheral video.

なお、全周カメラ11aで撮影された広範囲映像は、一枚の画像として、撮影時の画角に一致する仮想球面に貼り付けることができる。仮想球面に貼り付けられた球面画像データは、仮想球面に貼り付けた状態の球面画像(360度画像)データとして保存・出力される。仮想球面は、広範囲映像を取得するカメラ部を中心点とした任意の球面状に設定することができる。
図5(a)は球面画像が貼り付けられる仮想球面の外観イメージであり、同図(b)は仮想球面に貼り付けられた球面画像の一例である。また、同図(c)は、(b)の球面画像をメルカトール図法に従って平面展開した画像例を示す。
Note that the wide-range video imaged by the all-around camera 11a can be pasted as a single image on a virtual spherical surface that matches the angle of view at the time of imaging. The spherical image data pasted on the virtual spherical surface is stored and output as spherical image (360 degree image) data pasted on the virtual spherical surface. The virtual spherical surface can be set to an arbitrary spherical shape centered on the camera unit that acquires a wide range image.
FIG. 5A is an appearance image of a virtual spherical surface to which a spherical image is pasted, and FIG. 5B is an example of a spherical image pasted to the virtual spherical surface. FIG. 4C shows an example of an image obtained by developing the spherical image of FIG.

データ生成部20は、移動体計測部10のビデオカメラ機器部による映像を記録するビデオ映像記録部21を備えるとともに、記録されたビデオ映像から、カメラの三次元位置及び3軸回転位置を表すCV演算を行うCVデータ演算部23を備える。CVデータ演算部23におけるCV演算の詳細については後述する(図6〜図15参照)。
また、データ生成部20は、移動体計測部10の位置計測機器部から計測データを取得する計測データ取得部22を備える。
The data generation unit 20 includes a video video recording unit 21 that records video from the video camera device unit of the moving body measurement unit 10, and from the recorded video video, represents a three-dimensional position and a three-axis rotation position of the camera. A CV data calculation unit 23 for performing calculation is provided. Details of the CV calculation in the CV data calculation unit 23 will be described later (see FIGS. 6 to 15).
Further, the data generation unit 20 includes a measurement data acquisition unit 22 that acquires measurement data from the position measurement device unit of the moving body measurement unit 10.

時間軸整合部30は、基準となる時刻を発生する時計部31を備える。
そして、時間軸整合部30は、データ生成部20のCV演算部によって求められたCVデータを、基準時刻によって関連付けて時刻同期CVデータを生成する時刻同期CVデータ生成部32と、データ生成部20の計測データ取得部からの計測データを、基準時刻によって関連付けて時刻同期計測データを生成する時刻同期計測データ生成装置部33を備える。
ここで、時間軸整合部30としては、移動体計測部10に備えられる機器装置のどちらかの時刻に合わせることでも成立する。例えば、移動体計測部10のビデオカメラ機器部において、映像として他方の機器のデータを表示し、あるいは、そのデータに同期する時刻表示を映像として取得しても時間軸の整合を取ることができる。
The time axis alignment unit 30 includes a clock unit 31 that generates a reference time.
Then, the time axis alignment unit 30 associates the CV data obtained by the CV calculation unit of the data generation unit 20 with the reference time to generate time synchronization CV data, and the data generation unit 20. The time-synchronized measurement data generating unit 33 generates time-synchronized measurement data by associating the measurement data from the measurement data acquisition unit with a reference time.
Here, the time axis alignment unit 30 can also be established by adjusting to any time of the device provided in the moving body measurement unit 10. For example, in the video camera device section of the moving body measuring unit 10, the time axis can be adjusted even if the data of the other device is displayed as a video or the time display synchronized with the data is acquired as a video. .

CV補正部40は、時間軸整合部30で生成される時刻同期CVデータと時刻同期計測データとを同一時間軸で比較して、両者を同一時間軸で関連づける時間軸比較部41を備える。
そして、CV補正部40は、時間軸比較部41の結果により、時刻同期CVデータと時刻同期計測データを相互に補完補正し、最終的にCV値を補正するためのCV補正信号を生成するCV補正信号生成部42を備える。
The CV correction unit 40 includes a time axis comparison unit 41 that compares the time-synchronized CV data generated by the time-axis matching unit 30 and the time-synchronized measurement data on the same time axis and associates the two on the same time axis.
Then, the CV correction unit 40 complements and corrects the time-synchronized CV data and the time-synchronized measurement data based on the result of the time axis comparison unit 41, and finally generates a CV correction signal for correcting the CV value. A correction signal generation unit 42 is provided.

高精度CVデータ出力部50は、ビデオ映像記録部21のビデオ映像を出力するビデオ映像出力部52を備えるとともに、ビデオ映像の各フレームに対応して、CV補正部42で生成されるCV補正信号により高精度になったCV値を出力するCVデータ出力部51を備える。
さらに、ビデオ映像出力と高精度CVデータは同一画面で表示するCV映像合成表示装置部60を備えることができる(図1参照)。
The high-precision CV data output unit 50 includes a video image output unit 52 that outputs the video image of the video image recording unit 21, and a CV correction signal generated by the CV correction unit 42 corresponding to each frame of the video image. Is provided with a CV data output unit 51 that outputs a CV value with higher accuracy.
Furthermore, the video image output and the high-accuracy CV data can be provided with a CV image composition display unit 60 for displaying on the same screen (see FIG. 1).

CV映像合成表示装置部60は、ビデオ映像のカメラ位置に相当する場所に、当該フレームのCVデータ及びその前後のフレームのCVデータを重ねて表示する。CVデータは、その三次元位置と3軸回転を示しており、ビデオ映像に重ねて表示することで、ビデオ映像の各フレームでCV値を同時に観察できる。CVデータをビデオ映像に重ねた表示した画像例を図15に示す。
なお、ビデオ映像内にカメラ位置を正しく表示すると、CV値が示すビデオ映像内の位置は画像の中心となり、カメラ移動が直線に近い場合は、すべてのフレームのCV値が重なって表示されてしまうので、例えば図15に示すように、敢えてカメラ位置から真下に1メートルの位置を表示することが適切である。あるいは道路面までの距離を基準として、道路面の高さにCV値を表示するのがより適切である。
The CV video composition display unit 60 displays the CV data of the frame and the CV data of the preceding and succeeding frames in a place corresponding to the camera position of the video video. The CV data indicates the three-dimensional position and the three-axis rotation, and the CV value can be observed simultaneously in each frame of the video image by displaying it over the video image. An example of an image displayed by superimposing CV data on a video image is shown in FIG.
If the camera position is correctly displayed in the video image, the position in the video image indicated by the CV value is the center of the image, and if the camera movement is close to a straight line, the CV values of all frames are displayed overlapping. Therefore, for example, as shown in FIG. 15, it is appropriate to display the position of 1 meter right below the camera position. Alternatively, it is more appropriate to display the CV value at the height of the road surface based on the distance to the road surface.

[CVデータ演算部]
次に、高精度CV演算装置1における基本となるCV演算の詳細について図6〜図15を参照しつつ説明する。
上述のように、CV演算はデータ生成部20のCVデータ演算部23で行われる。CVデータ演算部23は、図6に示すように、特徴点抽出部23aと、特徴点対応処理部23bと、カメラベクトル演算部23cと、誤差最小化部23dと、三次元情報追跡部23eと、高精度カメラベクトル演算部23fを備えている。
[CV data calculation unit]
Next, details of the basic CV calculation in the high-precision CV calculation device 1 will be described with reference to FIGS.
As described above, the CV calculation is performed by the CV data calculation unit 23 of the data generation unit 20. As shown in FIG. 6, the CV data calculation unit 23 includes a feature point extraction unit 23a, a feature point correspondence processing unit 23b, a camera vector calculation unit 23c, an error minimization unit 23d, and a three-dimensional information tracking unit 23e. A high-precision camera vector calculation unit 23f is provided.

特徴点抽出部23aは、移動体計測部10のビデオカメラ機器部11で撮影されビデオ映像記録部21に一時記録された動画像データの中から、十分な数の特徴点を自動抽出する。
特徴点対応処理部23bは、自動抽出された特徴点を、各フレーム間で各フレーム画像内において自動的に追跡することで、その対応関係を自動的に求める。
カメラベクトル演算部23cは、対応関係が求められた特徴点の三次元位置座標から各フレーム画像に対応したカメラベクトルを演算で自動的に求める。
誤差最小化部23dは、複数のカメラ位置の重複演算により、各カメラベクトルの解の分布が最小になるように統計処理をし、誤差の最小化処理を施したカメラ位置方向を自動的に決定する。
The feature point extraction unit 23a automatically extracts a sufficient number of feature points from the moving image data captured by the video camera device unit 11 of the moving body measurement unit 10 and temporarily recorded in the video image recording unit 21.
The feature point correspondence processing unit 23b automatically obtains the correspondence relationship by automatically tracking the feature points automatically extracted in each frame image between the frames.
The camera vector calculation unit 23c automatically calculates a camera vector corresponding to each frame image from the three-dimensional position coordinates of the feature points for which the correspondence relationship has been determined.
The error minimizing unit 23d performs statistical processing so that the solution distribution of each camera vector is minimized by overlapping calculation of a plurality of camera positions, and automatically determines the camera position direction subjected to the error minimizing process. To do.

三次元情報追跡部23eは、カメラベクトル演算部23cで得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで順次画像の一部として得られる三次元情報に基づいてい、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレームの画像に沿って自動追跡を行う。ここで、三次元情報(三次元形状)とは、主に特徴点の三次元分布情報であり、すなわち、三次元の点の集まりであり、この三次元の点の集まりが三次元形状を構成する。
高精度カメラベクトル演算部23fは、三次元情報追跡部23eで得られた追跡データに基づいて、カメラベクトル演算部23cで得られるカメラベクトルより、さらに高精度なカメラベクトルを生成,出力する。
そして、以上のようにして得られたカメラベクトルが時間軸整合部30に入力され、位置計測データによるCV補正が行われることになる。
The three-dimensional information tracking unit 23e positions the camera vector obtained by the camera vector calculation unit 23c as an approximate camera vector, and based on the three-dimensional information sequentially obtained as part of the image in the subsequent process, a plurality of frame images 3D information is automatically tracked along an image of an adjacent frame. Here, three-dimensional information (three-dimensional shape) is mainly three-dimensional distribution information of feature points, that is, a collection of three-dimensional points, and this collection of three-dimensional points constitutes a three-dimensional shape. To do.
The high-precision camera vector calculation unit 23f generates and outputs a camera vector with higher accuracy than the camera vector obtained by the camera vector calculation unit 23c based on the tracking data obtained by the three-dimensional information tracking unit 23e.
Then, the camera vector obtained as described above is input to the time axis matching unit 30, and CV correction is performed using the position measurement data.

複数の画像(動画又は連続静止画)の特徴点からカメラベクトルを検出するには幾つかの方法があるが、図6に示す本実施形態のCVデータ演算部23では、画像内に十分に多くの数の特徴点を自動抽出し、それを自動追跡することで、エピポーラ幾何学により、カメラの三次元ベクトル及び3軸回転ベクトルを求めるようにしてある。
特徴点を充分に多くとることにより、カメラベクトル情報が重複することになり、重複する情報から誤差を最小化させて、より精度の高いカメラベクトルを求めることができる。
There are several methods for detecting a camera vector from feature points of a plurality of images (moving images or continuous still images). In the CV data calculation unit 23 of the present embodiment shown in FIG. These feature points are automatically extracted and automatically tracked to obtain a three-dimensional vector and a three-axis rotation vector of the camera by epipolar geometry.
By taking a sufficient number of feature points, camera vector information is duplicated, and an error can be minimized from the duplicated information to obtain a more accurate camera vector.

ここで、カメラベクトルとは、カメラの持つ自由度のベクトルをいう。
一般に、静止した三次元物体は、位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度を持つ。従って、カメラベクトルは、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトルをいう。なお、カメラが移動する場合は、自由度に移動方向も入るが、これは上記の六個の自由度から微分して導き出すことができる。
このように、本実施形態のカメラベクトル演算装置1によるカメラベクトルの検出は、カメラは各フレーム毎に六個の自由度の値をとり、各フレーム毎に異なる六個の自由度を決定することである。
Here, the camera vector refers to a vector of degrees of freedom possessed by the camera.
In general, a stationary three-dimensional object has six degrees of freedom of position coordinates (X, Y, Z) and rotation angles (Φx, Φy, Φz) of the respective coordinate axes. Therefore, the camera vector refers to a vector of six degrees of freedom of the camera position coordinates (X, Y, Z) and the rotation angles (Φx, Φy, Φz) of the respective coordinate axes. When the camera moves, the direction of movement also enters the degree of freedom, which can be derived by differentiation from the above six degrees of freedom.
As described above, the detection of the camera vector by the camera vector computing device 1 of the present embodiment is that the camera takes six degrees of freedom for each frame and determines six different degrees of freedom for each frame. It is.

以下、CVデータ演算部23における具体的なカメラベクトルの検出方法について、図7以下を参照しつつ説明する。
まず、移動体計測部10のビデオカメラ機器部11で取得された画像データはビデオ映像記録部21を経て(又は直接)、CVデータ演算部23の特徴点抽出部23aに入力され、特徴点抽出部23aで、適切にサンプリングされたフレーム画像中に、特徴点となるべき点又は小領域画像が自動抽出され、特徴点対応処理部23bで、複数のフレーム画像間で特徴点の対応関係が自動的に求められる。
具体的には、カメラベクトルの検出の基準となる、十分に必要な数以上の特徴点を求める。画像間の特徴点とその対応関係の一例を、図7〜図9に示す。図中「+」が自動抽出された特徴点であり、複数のフレーム画像間で対応関係が自動追跡される(図9に示す対応点1〜4参照)。
ここで、特徴点の抽出は、図10に示すように、各画像中に充分に多くの特徴点を指定,抽出することが望ましく(図10の○印参照)、例えば、100点程度の特徴点を抽出する。
Hereinafter, a specific camera vector detection method in the CV data calculation unit 23 will be described with reference to FIG.
First, image data acquired by the video camera device unit 11 of the moving body measurement unit 10 is input to the feature point extraction unit 23a of the CV data calculation unit 23 via the video image recording unit 21 (or directly), and feature point extraction is performed. The point 23a is automatically extracted from the appropriately sampled frame image by the unit 23a, or the small region image to be the feature point is automatically extracted, and the feature point correspondence processing unit 23b automatically selects the feature point correspondence between the plurality of frame images. Is required.
Specifically, more than a sufficient number of feature points that are used as a reference for detecting a camera vector are obtained. An example of feature points between images and their corresponding relationships are shown in FIGS. In the figure, “+” is a feature point that is automatically extracted, and the correspondence is automatically tracked between a plurality of frame images (see correspondence points 1 to 4 shown in FIG. 9).
Here, as shown in FIG. 10, it is desirable to specify and extract feature points in each image (see circles in FIG. 10), for example, about 100 feature points are extracted. Extract points.

続いて、カメラベクトル演算部23cで、抽出された特徴点の三次元座標が演算により求められ、その三次元座標に基づいてカメラベクトルが演算により求められる。具体的には、カメラベクトル演算部23cは、連続する各フレーム間に存在する、十分な数の特徴の位置と、移動するカメラ間の位置ベクトル、カメラの3軸回転ベクトル、各カメラ位置と特徴点をそれぞれ結んだベクトル等、各種三次元ベクトルの相対値を演算により連続的に算出する
本実施形態では、例えば、360度全周画像のエピポーラ幾何からエピポーラ方程式を解くことによりカメラ運動(カメラ位置とカメラ回転)を計算するようになっている。
Subsequently, the camera vector calculation unit 23c calculates the three-dimensional coordinates of the extracted feature points, and calculates the camera vector based on the three-dimensional coordinates. Specifically, the camera vector calculation unit 23c includes a sufficient number of feature positions that exist between successive frames, a position vector between moving cameras, a three-axis rotation vector of the camera, and each camera position and feature. In this embodiment, the relative values of various three-dimensional vectors, such as vectors connecting points, are calculated continuously. In this embodiment, for example, camera motion (camera position) is solved by solving an epipolar equation from the epipolar geometry of a 360-degree all-round image. And camera rotation).

図9に示す画像1,2は、360度全周画像をメルカトール展開した画像であり、緯度φ、軽度θとすると、画像1上の点は(θ1,φ1)、画像2上の点は(θ2,φ2)となる。そして、それぞれのカメラでの空間座標は、z1=(cosφ1cosθ1,cosφ1sinθ1,sinφ1)、z2=(cosφ2cosθ2,cosφ2sinθ2,sinφ2)である。カメラの移動ベクトルをt、カメラの回転行列をR、とすると、z1T[t]×Rz2=0がエピポーラ方程式である。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
Images 1 and 2 shown in FIG. 9 are images obtained by expanding a 360-degree all-round image into a Mercator, and assuming latitude φ and light θ, points on image 1 are (θ1, φ1), and points on image 2 are ( θ2, φ2). The spatial coordinates of each camera are z1 = (cos φ1 cos θ1, cos φ1 sin θ1, sin φ1), z2 = (cos φ2 cos θ2, cos φ2 sin θ2, sin φ2). When the camera movement vector is t and the camera rotation matrix is R, z1 T [t] × Rz2 = 0 is the epipolar equation.
By providing a sufficient number of feature points, t and R can be calculated as a solution by the method of least squares by linear algebra calculation. This calculation is applied to a plurality of corresponding frames.

ここで、カメラベクトルの演算に利用する画像としては、360度全周画像を用いることが好ましい。
カメラベクトル演算に用いる画像としては、原理的にはどのような画像でも良いが、図9に示す360度全周画像のような広角画像の方が特徴点を数多く選択し易くなる。そこで、本実施形態では、CV演算に360度全周画像を用いるようにしてあり、これによって、特徴点の追跡距離を長くでき、特徴点を十分に多く選択することができ、遠距離、中距離、短距離それぞれに都合の良い特徴点を選択することができるようになる。また、回転ベクトルを補正する場合には、極回転変換処理を加えることで、演算処理も容易に行えるようになる。これらのことから、より精度の高い演算結果が得られるようになる。
なお、図9は、CVデータ演算部23における処理を理解し易くするために、1台又は複数台のカメラで撮影した画像を合成した360度全周囲の球面画像を地図図法でいうメルカトール図法で展開したものを示しているが、実際のCV演算では、必ずしもメルカトール図法による展開画像である必要はない。
Here, it is preferable to use a 360-degree all-round image as an image used for the calculation of the camera vector.
The image used for the camera vector calculation may be any image in principle, but a wide-angle image such as a 360-degree all-round image shown in FIG. 9 makes it easier to select many feature points. Therefore, in the present embodiment, the 360-degree all-round image is used for the CV calculation, whereby the tracking distance of the feature points can be increased, and a sufficiently large number of feature points can be selected. It is possible to select feature points that are convenient for each distance and short distance. In addition, when correcting the rotation vector, the calculation process can be easily performed by adding the polar rotation conversion process. As a result, a calculation result with higher accuracy can be obtained.
Note that FIG. 9 is a Mercator projection of a 360-degree spherical image obtained by combining images taken by one or a plurality of cameras in order to facilitate understanding of the processing in the CV data calculation unit 23. Although an expanded image is shown, in an actual CV calculation, it is not always necessary to be an expanded image by the Mercator projection.

次に、誤差最小化部23dでは、各フレームに対応する複数のカメラ位置と複数の特徴点の数により、複数通り生じる演算方程式により、各特徴点に基づくベクトルを複数通り演算して求めて、各特徴点の位置及びカメラ位置の分布が最小になるように統計処理をして、最終的なベクトルを求める。例えば、複数フレームのカメラ位置、カメラ回転及び複数の特徴点について、Levenberg-Marquardt法により最小自乗法の最適解を推定し、誤差を収束してカメラ位置、カメラ回転行列、特徴点の座標を求める。
さらに、誤差の分布が大きい特徴点につては削除し、他の特徴点に基づいて再演算することで、各特徴点及びカメラ位置での演算の精度を上げるようにする。
このようにして、特徴点の位置とカメラベクトルを精度良く求めることができる。
Next, the error minimizing unit 23d calculates and calculates a plurality of vectors based on each feature point according to a plurality of calculation equations based on a plurality of camera positions corresponding to each frame and the number of feature points. Statistical processing is performed so that the distribution of the position of each feature point and the camera position is minimized to obtain a final vector. For example, the optimal solution of the least square method is estimated by the Levenberg-Marquardt method for multiple frame camera positions, camera rotations, and multiple feature points, and errors are converged to determine the camera position, camera rotation matrix, and feature point coordinates. .
Further, feature points having a large error distribution are deleted, and recalculation is performed based on other feature points, thereby improving the accuracy of computation at each feature point and camera position.
In this way, the position of the feature point and the camera vector can be obtained with high accuracy.

図11〜図13に、CV演算により得られる特徴点の三次元座標とカメラベクトルの例を示す。図11〜図13は、本実施形態のCV演算によるベクトル検出方法を示す説明図であり、移動するカメラによって取得された複数のフレーム画像によって得られるカメラ及び対象物の相対的な位置関係を示す図である。
図11では、図9の画像1,2に示した特徴点1〜4の三次元座標と、画像1と画像2の間で移動するカメラベクトル(X,Y,Z)が示されている。
図12及び図13は、充分に多くの特徴点とフレーム画像により得られた特徴点の位置と移動するカメラの位置が示されている。同図中、グラフ中央に直線状に連続する○印がカメラ位置であり、その周囲に位置する○印が特徴点の位置と高さを示している。
FIGS. 11 to 13 show examples of the three-dimensional coordinates of feature points and camera vectors obtained by CV calculation. FIG. 11 to FIG. 13 are explanatory diagrams showing a vector detection method by CV calculation according to the present embodiment, showing the relative positional relationship between the camera and the object obtained from a plurality of frame images acquired by the moving camera. FIG.
FIG. 11 shows the three-dimensional coordinates of the feature points 1 to 4 shown in the images 1 and 2 in FIG. 9 and the camera vector (X, Y, Z) that moves between the images 1 and 2.
12 and 13 show a sufficiently large number of feature points, the positions of the feature points obtained from the frame image, and the position of the moving camera. In the figure, a circle mark that continues in a straight line at the center of the graph is the camera position, and a circle mark located around the circle indicates the position and height of the feature point.

ここで、CVデータ演算部23におけるCV演算は、より高精度な特徴点とカメラ位置の三次元情報を高速に得るために、図14に示すように、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行うようにする。
具体的には、CVデータ演算部23は、画像内には映像的に特徴がある特徴点を自動検出し、各フレーム画像内に特徴点の対応点を求める際に、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、nとmを適切に設定した単位演算を繰り返す。
mはフレーム間隔であり、カメラから画像内の特徴点までの距離によって特徴点を複数段に分類し、カメラから特徴点までの距離が遠いほどmが大きくなるように設定し、カメラから特徴点までの距離が近いほどmが小さくなるように設定する。このようにするのは、カメラから特徴点までの距離が遠ければ遠いほど、画像間における位置の変化が少ないからである。
Here, as shown in FIG. 14, a plurality of CV calculations in the CV data calculation unit 23 are performed in accordance with the distance from the camera to the feature point in order to obtain more accurate three-dimensional information of the feature point and the camera position. The feature points are set and a plurality of calculations are repeated.
Specifically, the CV data calculation unit 23 automatically detects feature points that have image characteristics in the image and uses them for camera vector calculation when obtaining corresponding points of the feature points in each frame image. The unit calculation is repeated by paying attention to the two frame images Fn and Fn + m of the nth and n + mth, and the unit calculation with n and m appropriately set is repeated.
m is the frame interval, and the feature points are classified into a plurality of stages according to the distance from the camera to the feature point in the image. The distance from the camera to the feature point is set so that m becomes larger. It is set so that m is smaller as the distance to is shorter. This is because the change in position between images is less as the distance from the camera to the feature point is longer.

そして、特徴点のm値による分類を、十分にオーバーラップさせながら、複数段階のmを設定し、画像の進行とともにnが連続的に進行するのにともなって、演算を連続的に進行させる。そして、nの進行とmの各段階で、同一特徴点について複数回重複演算を行う。
このようにして、フレーム画像FnとFn+mに着目した単位演算を行うことにより、m枚毎にサンプリングした各フレーム間(フレーム間は駒落ちしている)では、長時間かけて精密カメラベクトルを演算し、フレーム画像FnとFn+mの間のm枚のフレーム(最小単位フレーム)では、短時間処理で行える簡易演算とすることができる。
Then, while sufficiently overlapping the classification of the feature points by the m value, a plurality of stages of m are set, and as n progresses continuously with the progress of the image, the calculation proceeds continuously. Then, the overlap calculation is performed a plurality of times for the same feature point in each step of n and m.
In this way, by performing unit calculation focusing on the frame images Fn and Fn + m, a precise camera vector is calculated over a long time between each frame sampled every m frames (frames are dropped). However, in m frames (minimum unit frames) between the frame images Fn and Fn + m, a simple calculation that can be performed in a short time can be performed.

m枚毎の精密カメラベクトル演算に誤差がないとすれば、m枚のフレームのカメラベクトルの両端は、高精度演算をしたFnとFn+mのカメラベクトルと重なることになる。従って、FnとFn+mの中間のm枚の最小単位のフレームについては簡易演算で求め、簡易演算で求めたm枚の最小単位フレームのカメラベクトルの両端を、高精度演算で求めたFnとFn+mのカメラベクトルに一致するように、m枚の連続したカメラベクトルのスケール調整をすることができる。
このようにして、画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定することができる。
これにより、誤差のない高精度のカメラベクトルを求めつつ、簡易演算を組み合わせることにより、演算処理を高速化することができるようになる。
If there is no error in the precision camera vector calculation for every m frames, both ends of the camera vector of the m frames overlap with the Fn and Fn + m camera vectors that have been subjected to the high precision calculation. Accordingly, m minimum unit frames between Fn and Fn + m are obtained by a simple calculation, and both ends of the camera vector of the m minimum unit frames obtained by the simple calculation are Fn and Fn + m obtained by high precision calculation. The scale adjustment of m consecutive camera vectors can be made to match the camera vectors.
In this way, as n progresses continuously with the progress of the image, the scale adjustment is performed so that the error of each camera vector obtained by calculating a plurality of times for the same feature point is minimized, and integration is performed. A camera vector can be determined.
Accordingly, it is possible to speed up the arithmetic processing by combining simple arithmetic operations while obtaining a highly accurate camera vector having no error.

ここで、簡易演算としては、精度に応じて種々の方法があるが、例えば、(1)高精度演算では100個以上の多くの特徴点を用いる場合に、簡易演算では最低限の10個程度の特徴点を用いる方法や、(2)同じ特徴点の数としても、特徴点とカメラ位置を同等に考えれば、そこには無数の三角形が成立し、その数だけの方程式が成立するため、その方程式の数を減らすことで、簡易演算とすることができる。
これによって、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整する形で統合し、距離演算を行い、さらに、誤差の分布が大きい特徴点を削除し、必要に応じて他の特徴点について再演算することで、各特徴点及びカメラ位置での演算の精度を上げることができる。
Here, there are various simple calculation methods depending on the accuracy. For example, when (1) many feature points of 100 or more are used in high-precision calculation, the minimum number of simple calculation is about ten. (2) Even if the number of the same feature points is the same as the feature points and camera positions, innumerable triangles are established there, and equations for that number are established. By reducing the number of equations, it can be simplified.
In this way, integration is performed by adjusting the scale so that the error of each feature point and camera position is minimized, distance calculation is performed, and feature points with large error distribution are deleted, and other features are added as necessary. By recalculating the points, the calculation accuracy at each feature point and camera position can be improved.

また、このように高速な簡易演算を行うことにより、カメラベクトルのリアルタイム処理が可能となる。カメラベクトルのリアルタイム処理は、目的の精度をとれる最低のフレーム数と、自動抽出した最低の特徴点数で演算を行い、カメラベクトルの概略値をリアルタイムで求め、表示し、次に、画像が蓄積するにつれて、フレーム数を増加させ、特徴点の数を増加させ、より精度の高いカメラベクトル演算を行い、概略値を精度の高いカメラベクトル値に置き換えて表示することができる。   In addition, by performing high-speed simple calculation in this way, camera vector real-time processing becomes possible. In real-time processing of camera vectors, calculation is performed with the minimum number of frames that can achieve the target accuracy and the minimum number of feature points that are automatically extracted, the approximate value of the camera vector is obtained and displayed in real time, and then the image is accumulated. Accordingly, the number of frames can be increased, the number of feature points can be increased, camera vector calculation with higher accuracy can be performed, and approximate values can be replaced with camera vector values with higher accuracy for display.

さらに、本実施形態では、より高精度のカメラベクトルを求めるために、三次元情報(三次元形状)の追跡を行うことができる。
具体的には、まず、三次元情報追跡部23eで、カメラベクトル演算部23c,誤差最小化部23dを経て得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで生成される画像の一部として得られる三次元情報(三次元形状)に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレーム間で連続的に追跡して三次元形状の自動追跡を行う。
そして、この三次元情報追跡部23eで得られた三次元情報の追跡結果から、高精度カメラベクトル演算部においてより高精度なカメラベクトルが求められる。
Furthermore, in this embodiment, it is possible to track three-dimensional information (three-dimensional shape) in order to obtain a more accurate camera vector.
Specifically, first, the three-dimensional information tracking unit 23e positions the camera vector obtained through the camera vector calculation unit 23c and the error minimization unit 23d as an approximate camera vector, and the image generated in the subsequent process Based on the three-dimensional information (three-dimensional shape) obtained as a part, partial three-dimensional information included in a plurality of frame images is continuously tracked between adjacent frames to automatically track the three-dimensional shape.
Then, from the tracking result of the three-dimensional information obtained by the three-dimensional information tracking unit 23e, a high-precision camera vector calculation unit obtains a more accurate camera vector.

上述した特徴点抽出部23a及び特徴点対応処理部23bでは、特徴点を複数のフレーム間画像内に自動追跡するが、特徴点が消失するなどして特徴点の追跡フレーム数に制限が出てくることがある。また、画像は二次元であり、追跡途中で形状が変化するために追跡精度にも一定の限界がある。
そこで、特徴点追跡で得られるカメラベクトルを概略値と位置づけ、その後のプロセスで得られる三次元情報(三次元形状)を各フレーム画像上に追跡して、その軌跡から高精度カメラベクトルを求めることができる。
三次元形状の追跡は、マッチング及び相関の精度を得やすく、三次元形状はフレーム画像によって、その三次元形状も大きさも変化しないので、多くのフレームに亘って追跡が可能であり、そのことでカメラベクトル演算の精度を向上させることができる。これはカメラベクトル演算部23cにより概略のカメラベクトルが既知であり、三次元形状が既に分かっているから可能となるものである。
The feature point extraction unit 23a and the feature point correspondence processing unit 23b described above automatically track feature points in a plurality of inter-frame images, but the number of feature point tracking frames is limited due to disappearance of feature points. May come. In addition, since the image is two-dimensional and the shape changes during tracking, there is a certain limit in tracking accuracy.
Therefore, the camera vector obtained by the feature point tracking is regarded as an approximate value, and the three-dimensional information (three-dimensional shape) obtained in the subsequent process is traced on each frame image, and a high-precision camera vector is obtained from the trajectory. Can do.
The tracking of 3D shapes is easy to obtain matching and correlation accuracy, and the 3D shape does not change in size and size depending on the frame image, so it can be tracked over many frames. The accuracy of the camera vector calculation can be improved. This is possible because the approximate camera vector is known by the camera vector calculation unit 23c and the three-dimensional shape is already known.

カメラベクトルが概略値の場合、非常に多くのフレームに亘る三次元座標の誤差は、特徴点追跡による各フレームに関係するフレームが少ないので、誤差が累積して長距離では次第に大きな誤差になるが、画像の一部分を切り取ったときの三次元形状の誤差は相対的に少なく、形状の変化と大きさに及ぼす影響はかなり少ないものとなる。このため、三次元形状での比較や追跡は、二次元形状追跡の時よりも極めて有利となる。追跡において、二次元形状での追跡の場合、複数のフレームにおける形状の変化と大きさの変化を避けられないまま追跡することになるので、誤差が大きかったり、対応点が見つからないなどの問題があったが、三次元形状での追跡においては形状の変化が極めて少なく、しかも原理的に大きさの変化もないので、正確な追跡が可能となる。   When the camera vector is an approximate value, the error of 3D coordinates over a very large number of frames is small because there are few frames related to each frame by feature point tracking. The error of the three-dimensional shape when a part of the image is cut is relatively small, and the influence on the change and size of the shape is considerably small. For this reason, the comparison and tracking in the three-dimensional shape is extremely advantageous over the two-dimensional shape tracking. In tracking, when tracking with 2D shape, tracking changes in shape and size in multiple frames are unavoidable, so there are problems such as large errors and missing corresponding points. However, in tracking with a three-dimensional shape, there is very little change in shape, and in principle there is no change in size, so accurate tracking is possible.

ここで、追跡の対象となる三次元形状データとしては、例えば、特徴点の三次元分布形状や、特徴点の三次元分布形状から求められるポリゴン面等がある。
また、得られた三次元形状を、カメラ位置から二次元画像に変換して、二次元画像として追跡することも可能である。カメラベクトルの概略値が既知であることから、カメラ視点からの二次元画像に投影変換が可能であり、カメラ視点の移動による対象の形状変化にも追従することが可能となる。
Here, as the three-dimensional shape data to be tracked, there are, for example, a three-dimensional distribution shape of feature points, a polygon surface obtained from the three-dimensional distribution shape of feature points, and the like.
It is also possible to convert the obtained three-dimensional shape from a camera position into a two-dimensional image and track it as a two-dimensional image. Since the approximate value of the camera vector is known, projection conversion can be performed on a two-dimensional image from the camera viewpoint, and it is also possible to follow a change in the shape of the object due to movement of the camera viewpoint.

以上のようにして求められたカメラベクトルは、ビデオカメラ機器部11で撮影されたビデオ映像中に重ねて表示することができる。
例えば、図15に示すように、車載カメラからの映像を平面展開して、各フレーム画像内の目的平面上の対応点を自動で探索し、対応点を一致させるように結合して目的平面の結合画像を生成し、同一の座標系に統合して表示する。
さらに、その共通座標系の中にカメラ位置とカメラ方向を次々に検出し、その位置や方向、軌跡をプロットしていくことができる。
The camera vector obtained as described above can be displayed superimposed on the video image shot by the video camera device unit 11.
For example, as shown in FIG. 15, the video from the in-vehicle camera is developed in a plane, the corresponding points on the target plane in each frame image are automatically searched, and the corresponding points are combined to match the target plane. A combined image is generated and displayed in the same coordinate system.
Furthermore, the camera position and camera direction can be detected one after another in the common coordinate system, and the position, direction, and locus can be plotted.

そして、以上のようにして求められたCVデータが、移動体計測部10の位置計測機器部11で取得された位置計測データに基づいて補正されることになる。
上述したように、動画像からCV値を求めると、スケールも相対値となるため、長区間のCV演算データは、誤差が累積することになり、特に長距離区間における計測等で誤差が増大する。
一方、GPSでは、地平近くのGPS衛星は電離層の影響を強く受け、マルチパスによる誤差を発生させる。また、受信可能な衛星が地平近くで切り替わる時点では、計測値の精度が変化して計測位置が不連続となる相対誤差を発生させる。
但し、GPSは絶対距離計測であるため、計測地点で種々の誤差が発生するが、誤差は累積せず、長距離計測になるほど、計測距離に対する誤差の比率は小さくなる。
And the CV data calculated | required as mentioned above will be correct | amended based on the position measurement data acquired in the position measurement apparatus part 11 of the mobile body measurement part 10. FIG.
As described above, when the CV value is obtained from the moving image, the scale also becomes a relative value. Therefore, the error is accumulated in the CV calculation data in the long section, and the error increases particularly in the measurement in the long distance section. .
On the other hand, in GPS, GPS satellites near the horizon are strongly affected by the ionosphere and generate errors due to multipath. Further, when the receivable satellite is switched near the horizon, the accuracy of the measurement value changes and a relative error that causes the measurement position to become discontinuous is generated.
However, since GPS is an absolute distance measurement, various errors occur at measurement points. However, errors do not accumulate, and the longer the distance measurement, the smaller the ratio of the error to the measurement distance.

図16に、CVデータとGPSデータの誤差態様の対比を示す。
同図に示すように、移動体の移動が短区間であれば、累積誤差はCVデータよりGPSデータの方が大きくなる。従って、この区間では、GPSデータをCVデータによって補正することが有利となる。
一方、移動体の移動が長距離区間に及ぶと、CVデータの累積誤差が増大するが、GPSデータの誤差は累積せず、結果的に計測距離に対する誤差の比率は小さくなる。従って、長距離区間では、CVデータをGPSデータによって補正することが有利となる。
FIG. 16 shows a comparison between error modes of CV data and GPS data.
As shown in the figure, if the movement of the moving body is a short section, the accumulated error is larger in the GPS data than in the CV data. Therefore, it is advantageous to correct the GPS data with the CV data in this section.
On the other hand, when the movement of the moving body reaches a long distance section, the accumulated error of CV data increases, but the error of GPS data does not accumulate, and as a result, the ratio of the error to the measured distance decreases. Therefore, it is advantageous to correct the CV data with the GPS data in the long distance section.

以上のようにして、本発明では、CV演算により得られたCVデータと、GPS等の絶対誤差の少ない計測データとを結合させ、相互の補完・補正することにより、誤差累積のないより高精度な位置情報を生成するようにしたものである。
以下、CVデータを絶対座標に基づいて補正する高精度CV演算装置のより具体的な実施形態について説明する。
As described above, in the present invention, the CV data obtained by the CV calculation and the measurement data with a small absolute error such as GPS are combined and complemented and corrected to achieve higher accuracy without error accumulation. Position information is generated.
Hereinafter, a more specific embodiment of a high-precision CV arithmetic device that corrects CV data based on absolute coordinates will be described.

[複数カメラによる視差三次元形状からのCV演算]
まず、図17を参照して、複数カメラによる視差三次元形状からのCV演算を行う高精度CV演算装置171の実施形態について説明する。
同図に示すように、本実施形態の高精度CV演算装置171は、図2に示した基本構成の高精度CV演算装置1とほぼ同様の構成となっているが、データ生成部1720に視差方式カメラ座標三次元化部1724を備えることを特徴としている。
[CV calculation from 3D parallax with multiple cameras]
First, an embodiment of a high-precision CV calculation device 171 that performs CV calculation from a three-dimensional parallax shape by a plurality of cameras will be described with reference to FIG.
As shown in the figure, the high-accuracy CV arithmetic device 171 of this embodiment has almost the same configuration as the high-precision CV arithmetic device 1 having the basic configuration shown in FIG. A system camera coordinate three-dimensionalization unit 1724 is provided.

移動体計測部1710は、視差のある複数画像を撮影するための複数ビデオカメラ機器1771を備える。
データ生成部1720は、複数ビデオカメラ機器1771から得られたビデオ映像の視差ある複数画像から、カメラ間視差により、カメラ座標系における三次元形状を生成する視差方式座標三次元化部1724を備える。
また、データ生成部1720は、マルチCVデータ演算部1723を備える。
The moving body measurement unit 1710 includes a plurality of video camera devices 1771 for capturing a plurality of images with parallax.
The data generation unit 1720 includes a parallax coordinate coordinate three-dimensionalization unit 1724 that generates a three-dimensional shape in the camera coordinate system from a plurality of images with parallax of video images obtained from the plurality of video camera devices 1771 using inter-camera parallax.
In addition, the data generation unit 1720 includes a multi-CV data calculation unit 1723.

マルチCVデータ演算部1723は、視差方式座標三次元化部1724で生成されるカメラ座標における三次元形状の中から三次元特徴部位を抽出し、その三次元特徴部位を隣接するフレームに追跡し、三次元特徴部位とカメラ位置で構成される三角形を解くことで、移動体に設置されたカメラの相対移動軌跡とその3軸回転角を演算(CV演算)で求める機能を有する。
あるいは、マルチCV演算部は1723は、視差方式座標三次元化部1724で生成されるカメラ座標における三次元形状の中から、複数の三次元特徴点を抽出し、その三次元特徴点を隣接するフレームに追跡し、三次元特徴点とカメラ位置で構成される三角形を解くことで、移動体に設置されたカメラの相対移動軌跡とその3軸回転角を演算(CV演算)で求める機能を有する。
The multi-CV data calculation unit 1723 extracts a three-dimensional feature part from the three-dimensional shape in the camera coordinates generated by the parallax method coordinate three-dimensionalization unit 1724, tracks the three-dimensional feature part in an adjacent frame, By solving a triangle composed of a three-dimensional feature part and a camera position, it has a function of calculating (CV calculation) the relative movement trajectory of the camera installed on the moving body and its three-axis rotation angle.
Alternatively, the multi-CV calculation unit 1723 extracts a plurality of three-dimensional feature points from the three-dimensional shape in the camera coordinates generated by the parallax method coordinate three-dimensionalization unit 1724, and adjoins the three-dimensional feature points. It has the function of tracking the frame and finding the relative movement trajectory of the camera installed on the moving body and its three-axis rotation angle by calculation (CV calculation) by solving the triangle composed of the three-dimensional feature point and the camera position. .

上述したCV演算は、画像中の二次元点を特徴点としていたが、本実施形態のマルチCV演算では、既にカメラ座標として三次元形状が分かっている三次元特徴点を用いることで、演算の精度を上げ、また、演算速度を向上し、誤差の累積を減少させている。
二次元の特徴点では、6〜8点以上の独立した二次元特徴点でそのCV値を求めることができるが、三次元特徴点では、3〜4点の独立した三次元特徴点で、そのCV値を求めることができる。
The CV calculation described above uses a two-dimensional point in the image as a feature point. However, in the multi-CV calculation according to the present embodiment, the calculation can be performed by using a three-dimensional feature point whose three-dimensional shape is already known as a camera coordinate. Accuracy is increased, calculation speed is improved, and error accumulation is reduced.
In a two-dimensional feature point, the CV value can be obtained from 6 to 8 or more independent two-dimensional feature points, but in a three-dimensional feature point, 3 to 4 independent three-dimensional feature points. A CV value can be determined.

さらに、特徴部位として三次元形状の一部をそのまま用いれば、前記三次元形状は特徴点の集まりと見なされるので、三次元形状の一部の中には無数(最大ピクセル数)の特徴点が有ることになり、最低一個の三次元特徴部位が有れば、CV演算が可能となる。実際には、多数の三次元部位を用いて、統計的に扱うことで精度を向上させることが望ましい。
以上のように、本実施形態では、図2に示した高精度CV演算装置1を利用しつつ、既知の技術である視差方式で求められた三次元形状の中に三次元特徴部位を一個以上、又は三次元特徴点を3個以上抽出して、それを追跡することでCV値を求める方法を取り入れたものである。
なお、三次元特徴点又は三次元特徴部位の数を多く抽出し、統計処理することで、精度を向上できることは二次元特徴点のCV演算と同様である。
Further, if a part of the three-dimensional shape is used as a feature part as it is, the three-dimensional shape is regarded as a collection of feature points, and therefore, innumerable (maximum number of pixel) feature points are included in a part of the three-dimensional shape. If there is at least one three-dimensional feature part, CV calculation is possible. In practice, it is desirable to improve accuracy by using a large number of three-dimensional parts and treating them statistically.
As described above, in the present embodiment, one or more three-dimensional feature parts are included in the three-dimensional shape obtained by the parallax method, which is a known technique, while using the high-precision CV arithmetic device 1 shown in FIG. Alternatively, a method for obtaining a CV value by extracting three or more three-dimensional feature points and tracking them is adopted.
Note that the accuracy can be improved by extracting a large number of three-dimensional feature points or three-dimensional feature parts and performing statistical processing, similar to the CV calculation of two-dimensional feature points.

[複数カメラの絶対長CV値によるCVデータ補正]
次に、図18〜図22を参照して、複数カメラの絶対長CV値によるCVデータ補正を行う高精度CV演算装置181の実施形態について説明する。
同図に示すように、本実施形態の高精度CV演算装置181は、図2に示した基本構成の高精度CV演算装置1とほぼ同様の構成となっているが、移動体計測部1710の位置計測機器部として複数ビデオカメラ機器部1812を備えることを特徴としている。
[CV data correction by absolute length CV value of multiple cameras]
Next, an embodiment of a high-precision CV arithmetic device 181 that performs CV data correction based on the absolute length CV values of a plurality of cameras will be described with reference to FIGS.
As shown in the figure, the high-accuracy CV arithmetic device 181 of this embodiment has substantially the same configuration as the high-accuracy CV arithmetic device 1 having the basic configuration shown in FIG. A plurality of video camera device units 1812 are provided as position measurement device units.

図18に本実施形態の高精度CV演算装置181の基本形を示す。
移動体計測部1810は、移動体に固定され、移動体の移動とともに、移動体周辺を撮影する目的の全周ビデオカメラ(図3,図4参照)からなる全周ビデオカメラ機器部1811を備える。
また、移動体計測部1810は、移動体に固定され、移動体の三次元位置を取得する目的の複数ビデオカメラ機器部1812を備える。
全周ビデオカメラ機器部1811と複数ビデオカメラ機器部1812を構成する機器類は、相互に三次元的位置と姿勢の関係が既知として設置されるようになっている。
FIG. 18 shows a basic form of the high-precision CV arithmetic unit 181 of this embodiment.
The moving body measuring unit 1810 includes an omnidirectional video camera device unit 1811 that is fixed to the moving body and includes a omnidirectional video camera (see FIGS. 3 and 4) for photographing the periphery of the moving body as the moving body moves. .
In addition, the moving body measuring unit 1810 includes a plurality of video camera device units 1812 that are fixed to the moving body and for obtaining a three-dimensional position of the moving body.
The devices constituting the all-round video camera device unit 1811 and the multiple video camera device unit 1812 are installed such that the relationship between the three-dimensional position and the posture is known.

データ生成部1820は、全周ビデオカメラ機器部1811によって得られた全周ビデオ映像を記録する全周ビデオ映像記録部1821を備える。
また、データ生成部1820は、全周ビデオ映像記録部1821に記録された全周ビデオ映像の各フレーム画像内に、十分多くの特徴点を抽出し、特徴点を隣接するフレームに追跡し、特徴点とカメラ位置で構成される十分多くの三角形を解くことで、移動体に設置された全周カメラの相対移動軌跡と全周カメラの3軸回転角を演算で求めるCV演算部1823を備える。
The data generation unit 1820 includes an omnidirectional video image recording unit 1821 that records the omnidirectional video image obtained by the omnidirectional video camera device unit 1811.
In addition, the data generation unit 1820 extracts a sufficiently large number of feature points from each frame image of the all-around video image recorded in the all-around video image recording unit 1821, tracks the feature points in adjacent frames, and features By solving a sufficiently large number of triangles composed of points and camera positions, a CV calculation unit 1823 is provided that calculates the relative movement trajectory of the all-around camera and the three-axis rotation angle of the all-around camera by calculation.

また、データ生成部1820は、複数ビデオカメラ機器部1812について、全周ビデオカメラ機器部1811と同じようにCV演算を行い、隣接する各フレーム画像内に、十分多くの特徴点を抽出し、しかも単体の全周カメラの場合とは異なり、隣接するフレーム内だけではなく、隣接し、距離の分かっている他のカメラの各フレームについても対応を取り、追跡することで絶対距離を取得し、高精度のカメラ三次元座標と3軸回転姿勢を取得するマルチCV演算部1824を備える。
マルチCV演算部1824は、カメラ座標系における三次元形状の中から複数の三次元的特徴部位を切り取り、その三次元的特徴部位を、隣接するフレームに追跡し、三次元的特徴部位とカメラ位置で構成される三角形を解くことで、移動体に設置されたカメラの相対移動軌跡とその3軸回転角を演算(CV演算)で求める機能を有する。
In addition, the data generation unit 1820 performs CV computation on the multiple video camera device unit 1812 in the same manner as the all-round video camera device unit 1811, extracts a sufficient number of feature points in each adjacent frame image, and Unlike the case of a single omnidirectional camera, the absolute distance is obtained by tracking and tracking not only within adjacent frames, but also with each adjacent frame of another camera with a known distance. A multi-CV calculation unit 1824 is provided that acquires accurate camera three-dimensional coordinates and a three-axis rotation posture.
The multi-CV calculation unit 1824 cuts out a plurality of three-dimensional feature parts from the three-dimensional shape in the camera coordinate system, tracks the three-dimensional feature parts in adjacent frames, and determines the three-dimensional feature parts and the camera position. Is obtained by calculating (CV calculation) the relative movement trajectory of the camera installed on the moving body and its three-axis rotation angle.

本実施形態では、複数ビデオカメラ機器部1812を構成する高精度の代表カメラの三次元座標と3軸回転角のCV値が、全周ビデオカメラ機器部1811から得られたCV値と比較され、これによって全周ビデオカメラ機器部1811のCV値を校正しようとするのである。
さらに、複数ビデオカメラ機器部1812からは、既知の技術によって直接簡単にカメラ周囲の三次元形状を取得することができるが、この三次元形状はカメラ位置から見たカメラ座標系における三次元形状であるため、移動するカメラでは座標系が定まらず目的を達しない。そこで、CV値と組み合わせることで、静止座標系に変換することができ、既知の技術を組み合わせることで、さらに精度を向上させることができるようになる。
In the present embodiment, the three-dimensional coordinates and the CV value of the three-axis rotation angle of the high-precision representative camera constituting the multiple video camera device unit 1812 are compared with the CV value obtained from the all-round video camera device unit 1811. Thus, the CV value of the all-round video camera device unit 1811 is calibrated.
Furthermore, the three-dimensional shape around the camera can be easily and directly obtained from the plurality of video camera equipment units 1812 by a known technique. This three-dimensional shape is a three-dimensional shape in the camera coordinate system viewed from the camera position. For this reason, a moving camera cannot achieve its purpose because the coordinate system is not fixed. Therefore, it can be converted into a stationary coordinate system by combining with the CV value, and the accuracy can be further improved by combining known techniques.

時間軸整合部1830は、CVデータ演算部1823からの信号とマルチCV演算部1824からの信号に、時刻データを供給する時計部1831を備える。
また、時間軸整合部1830は、時計部1831から供給される時刻信号でCVデータを関係付けて記録する時刻同期CVデータ記録部1832と、時計部1831から供給される時刻信号で絶対座標データを関連付けて記録する時刻同期マルチCVデータ記録部1833を備える。
また、CVデータに関しては、動画像の処理時間等に由来する遅れを考慮し、記録時刻との時間差を補正して遅延調整CV信号を出力する遅延調整CV信号出力部1834を備える。
絶対座標データに関しては、絶対座標信号出力と計測時刻との時間差を補正して、遅延調整絶対座標信号を出力する遅延マルチCV信号出力部を備える。
The time axis matching unit 1830 includes a clock unit 1831 that supplies time data to the signal from the CV data calculation unit 1823 and the signal from the multi-CV calculation unit 1824.
The time axis alignment unit 1830 also associates and records the CV data with the time signal supplied from the clock unit 1831 and records the absolute coordinate data with the time signal supplied from the clock unit 1831. A time-synchronized multi-CV data recording unit 1833 for recording in association is provided.
In addition, the CV data includes a delay adjustment CV signal output unit 1834 that outputs a delay adjustment CV signal by correcting a time difference from the recording time in consideration of a delay due to a moving image processing time or the like.
The absolute coordinate data includes a delayed multi-CV signal output unit that corrects a time difference between the absolute coordinate signal output and the measurement time and outputs a delay adjustment absolute coordinate signal.

CV補正部1840は、複数ビデオカメラ機器部1812と全周ビデオカメラ機器部1811との設置位置の差に起因する座標のズレをCV信号から生成して、全周ビデオ映像機器部1811の位置に複数ビデオカメラ機器部(マルチCVデータ機器部)1812の位置を補正する機器座標位置補正部1841を備える。
また、CV補正部1840は、遅延調整マルチCV信号の座標配列形状と、遅延調整CV信号の座標配列形状とを比較して、座標配列形状差を検出する座標配列形状比較部を備える。
また、CV補正部1840は、遅延調整マルチCV信号の座標配列形状と、遅延調整CV信号の座標配列形状と、両者の対応関係が付いた区間の座標配列形状差から、3軸方向のスケール誤差補正するための補正信号を生成する補正信号生成部1843を備える。
The CV correction unit 1840 generates a shift in coordinates due to the difference in installation position between the plurality of video camera device units 1812 and the all-round video camera device unit 1811 from the CV signal, and puts it at the position of the all-round video image device unit 1811. A device coordinate position correction unit 1841 for correcting the position of a plurality of video camera device units (multi-CV data device unit) 1812 is provided.
The CV correction unit 1840 includes a coordinate array shape comparison unit that detects a coordinate array shape difference by comparing the coordinate array shape of the delay adjustment multi-CV signal with the coordinate array shape of the delay adjustment CV signal.
Also, the CV correction unit 1840 determines the scale error in the three-axis direction from the coordinate array shape of the delay adjustment multi-CV signal, the coordinate array shape of the delay adjustment CV signal, and the difference in the coordinate array shape of the section with the corresponding relationship between them. A correction signal generation unit 1843 that generates a correction signal for correction is provided.

また、CV補正部1840は、上記の区間に対応するCVデータによる座標配列形状を、相対精度が高いマルチCVデータによる座標配列形状と一致させるように、CVデータを補正するCVデータスケール補正部を備える。
また、CV補正部1840は、以上の処理を、目的区間の全域に渡り繰り返すことで、一連の位置補正CVデータを生成する全域スケール補正部を備える。
さらに、CV補正部1840は、全域スケール補正された、CVデータの三次元座標を既知として、再度3軸回転まで含めた高精度CVデータの再演算を行うCV再演算部1846を備える。
In addition, the CV correction unit 1840 includes a CV data scale correction unit that corrects the CV data so that the coordinate arrangement shape based on the CV data corresponding to the section matches the coordinate arrangement shape based on the multi-CV data with high relative accuracy. Prepare.
The CV correction unit 1840 includes a global scale correction unit that generates a series of position correction CV data by repeating the above process over the entire target section.
Furthermore, the CV correction unit 1840 includes a CV recalculation unit 1846 that performs the recalculation of high-accuracy CV data including the three-axis rotation again with the three-dimensional coordinates of the CV data that have been globally scale corrected.

高精度CVデータ出力部1850は、全周ビデオ映像を出力する全周ビデオ映像出力部1852を備えるとともに、全周ビデオ映像出力の各画像フレームに同期して、全域スケール位置補正され、さらに再演算され3軸回転補正施されたCVデータ信号を出力するCVデータ出力部1851を備える。   The high-precision CV data output unit 1850 includes an all-around video image output unit 1852 that outputs an all-around video image, and the entire scale is corrected in synchronization with each image frame of the all-around video image output, and further recalculated. And a CV data output unit 1851 for outputting the CV data signal subjected to the three-axis rotation correction.

図19〜20に、本実施形態の複数ビデオカメラ機器部1812を構成する同期したカメラ二台と、全周ビデオカメラ機器部1811を構成する非同期の全周カメラを固定し、車輌の進行方法に向けて取り付けた場合の一例を示す。
この例によれば、車輌進行方向の対象物をカメラ二台で重複して捉え、対応関係からその距離を求める。二台のカメラから得られた映像中の特徴点は、図20(a),(b)に示すように多面体を形成する。
この多面体を構成する特徴点を追跡して、カメラ位置をCV演算で求める。多面体形状は変形しないとの条件で、精度を向上させることができる。また、車輌の進行方向(又は進行逆方向)に向けてカメラを取り付けることで、特徴点を長距離追跡できるという利点がある。また、精度をさらに上げるために、図20(c)に示すように、カメラ方向を全方位とすることもできる。
19 to 20, two synchronized cameras constituting the multiple video camera device unit 1812 of this embodiment and an asynchronous all-round camera constituting the all-around video camera device unit 1811 are fixed, and the vehicle traveling method is fixed. An example in the case of attaching toward is shown.
According to this example, the object in the vehicle traveling direction is captured by two cameras, and the distance is obtained from the correspondence. The feature points in the video obtained from the two cameras form a polyhedron as shown in FIGS. 20 (a) and 20 (b).
By tracking feature points constituting the polyhedron, the camera position is obtained by CV calculation. The accuracy can be improved under the condition that the polyhedral shape is not deformed. In addition, there is an advantage that feature points can be tracked over a long distance by attaching a camera in the traveling direction of the vehicle (or the reverse direction of traveling). In order to further improve the accuracy, the camera direction can be set to all directions as shown in FIG.

このとき、得られるCV値は相対値ではなく、スケールを持った絶対長である。
なお、二台のカメラに関するCV演算のための特徴点と、全周カメラに関するCV演算に関する特徴点とは、一般に一致する必要はない。
図19に示すように、カメラ二台単位で用いるのが、操作性等において有利であるが、複数カメラで共通の特徴点を追跡することも精度向上に貢献することから好ましい。従って、カメラは、二台一組とし、それぞれ独自に特徴点を抽出し追跡することもでき、また特徴点が共通であっても良い。
また、本実施形態では、全周カメラは非同期で用いることを重要視し、二台のビデオカメラのみの同期をとるようにしてある。
また、図20に示した例では、1台の全周カメラと2台の複数カメラとを用いるようにしてあるが、これ以外にも、例えば、複数カメラに広角画像を用いることで、全周カメラの替わりをさせることも可能である。その場合には、全周カメラを省略して、複数カメラのみで本実施形態の移動体計測部1810を構成することができる。
全周カメラと複数カメラの組み合わせのバリエーションを図21に示す。
At this time, the obtained CV value is not a relative value but an absolute length having a scale.
It should be noted that the feature points for the CV calculation relating to the two cameras and the feature points relating to the CV calculation relating to the all-around camera generally do not need to match.
As shown in FIG. 19, using two cameras as a unit is advantageous in terms of operability and the like, but tracking a common feature point with a plurality of cameras is also preferable because it contributes to improving accuracy. Therefore, two cameras are used as a set, and the feature points can be extracted and tracked independently, and the feature points may be common.
In this embodiment, it is important to use the all-around camera asynchronously, and only two video cameras are synchronized.
In addition, in the example shown in FIG. 20, one omnidirectional camera and two multiple cameras are used, but other than this, for example, by using a wide-angle image for multiple cameras, It is also possible to change the camera. In that case, the all-around camera can be omitted, and the moving object measuring unit 1810 of this embodiment can be configured with only a plurality of cameras.
FIG. 21 shows a variation of the combination of the omnidirectional camera and the plurality of cameras.

以上のように、複数カメラによってカメラ座標の映像の三次元座標と同時にCV値を求めるが、全周カメラを併設すれば、全周映像の中で、複数カメラの範囲内での三次元形状を取得できることになる。
なお、CV演算と複数カメラの視差方式とでは、相反する性質がある。
すなわち、複数カメラを使う視差方式では、視差によって三次元計測を行うために、レンズの焦点距離は長い方が、つまり狭角の方が精度は上がる。ただし、狭角のため計測範囲が狭くなり、また、(静止座標系ではなく)カメラ座標系での三次元座標が求まる。
As described above, the CV value is obtained simultaneously with the three-dimensional coordinates of the image of the camera coordinates by a plurality of cameras. You can get it.
Note that the CV calculation and the parallax method of a plurality of cameras have conflicting properties.
That is, in the parallax method using a plurality of cameras, since the three-dimensional measurement is performed based on the parallax, the accuracy is improved when the focal length of the lens is long, that is, when the angle is narrow. However, the measurement range is narrow due to the narrow angle, and the three-dimensional coordinates in the camera coordinate system (not the stationary coordinate system) are obtained.

これに対して、CV演算方式の方は、反対に焦点距離の短い広角レンズの方が精度は上がり、広角レンズの方が視野を広く取れ、静止座標系で座標が求まることになる。従って、CV演算用には広角レンズ、視差方式用には狭角レンズと、使い分けることが精度の点では有利となる。
但し、装置等が大がかりとなるため、本実施形態では、複数カメラにも広角レンズを用いて、CV演算方式と視差方式の双方の要求を同時に満たすようにしてある。
On the other hand, in the CV calculation method, the accuracy of the wide-angle lens with a short focal length is higher, and the wide-angle lens has a wider field of view, and the coordinates are obtained in a stationary coordinate system. Therefore, it is advantageous in terms of accuracy to use a wide-angle lens for CV calculation and a narrow-angle lens for a parallax method.
However, since the apparatus and the like are large, in this embodiment, a wide-angle lens is also used for a plurality of cameras so that the requirements for both the CV calculation method and the parallax method are satisfied simultaneously.

勿論、装置等が大がかりになることや、データ量が増加すること等を考慮する必要がない場合には、複数カメラのすべてを全周カメラとするとか、CV演算用の広角レンズと、視差演算用の標準レンズのいずれをも用意して機能分離することで、より高精度化を図ることができる。
また、複数カメラにおいては、カメラ座標系での距離計測の精度を上げるために白黒カメラとし、それ以外にカラーカメラを一台設置して、白黒カメラで取得した三次元データをカラー映像と重ねて表示することで、計測された三次元データをカラー画像として観察することも可能である(図21(d)参照)。
Of course, when it is not necessary to consider the fact that the device becomes large or the amount of data increases, all of the cameras are all-round cameras, wide angle lenses for CV calculation, and parallax calculation. By preparing any of the standard lenses for use and separating the functions, higher accuracy can be achieved.
For multiple cameras, use a monochrome camera to increase the accuracy of distance measurement in the camera coordinate system, and install a single color camera in addition to the 3D data acquired by the monochrome camera. By displaying, it is possible to observe the measured three-dimensional data as a color image (see FIG. 21D).

さらに、図22に示す高精度CV演算装置221のようにし、複数カメラの視差ある複数画像から、カメラ座標三次元形状を生成する視差方式カメラ座標三次元化部2225を備えることも可能である。
視差方式カメラ座標三次元化部2225は、図17の高精度CV演算装置171の視差方式カメラ座標三次元化部1724と同様であり、その他の構成要素は、図18に示した高精度CV演算装置181と同様に構成することができる。
このように、本実施形態の高精度CV演算装置では、全周カメラと複数カメラの組み合わせ等を含めて様々なバリエーションや組み合わせを採用することが可能であり、装置の規模やコスト等を考慮して柔軟な対応ができるようになる。
Furthermore, it is also possible to provide a parallax-type camera coordinate three-dimensionalization unit 2225 that generates a camera coordinate three-dimensional shape from a plurality of images with parallax from a plurality of cameras, as in the high-precision CV arithmetic device 221 shown in FIG.
The parallax type camera coordinate three-dimensionalization unit 2225 is the same as the parallax type camera coordinate three-dimensionalization unit 1724 of the high-precision CV calculation device 171 in FIG. 17, and the other components are the high-precision CV calculation shown in FIG. The configuration can be similar to that of the device 181.
As described above, the high-precision CV arithmetic device according to the present embodiment can adopt various variations and combinations including the combination of the omnidirectional camera and a plurality of cameras, taking into consideration the scale and cost of the device. Flexible response.

[GPSによるCVデータ補正]
次に、図23を参照して、GPSによりCVデータ補正を行う高精度CV演算装置231の実施形態について説明する。
同図に示す本実施形態の高精度CV演算装置231は、移動体計測部2310の位置計測機器部としてGPS機器部2312を備えることを特徴としている。
移動体計測部2310は、自動車や航空機等の移動体の屋根に固定され、移動体の移動とともに、移動体周辺を撮影する目的の全周囲映像カメラや通常ビデオカメラ等の映像を取得する全周ビデオカメラ機器部2311と、自動車や航空機等の移動体に固定され、移動体の三次元位置を緯度経度高度で取得する目的のGPSやIMU等の絶対座標を取得するGPS計測機器部2312を備える。
全周ビデオカメラ機器部2311とGPS計測機器部2312を構成する機器類は、相互に位置関係が分かるように、三次元的位置と姿勢の関係を既知として設置される。
[CV data correction by GPS]
Next, with reference to FIG. 23, an embodiment of a high-precision CV arithmetic unit 231 that performs CV data correction by GPS will be described.
The high-precision CV arithmetic device 231 of this embodiment shown in the figure is characterized by including a GPS device unit 2312 as a position measurement device unit of the moving body measurement unit 2310.
The moving body measuring unit 2310 is fixed to the roof of a moving body such as an automobile or an aircraft, and moves around the moving body to acquire images of an all-around video camera or a normal video camera for photographing the periphery of the moving body. A video camera device unit 2311 and a GPS measurement device unit 2312 that is fixed to a moving body such as an automobile or an aircraft and that acquires absolute coordinates such as GPS and IMU for acquiring a three-dimensional position of the moving body at a latitude and longitude altitude are provided. .
The devices constituting the all-round video camera device unit 2311 and the GPS measurement device unit 2312 are installed with a known relationship between the three-dimensional position and orientation so that the positional relationship can be understood from each other.

データ生成部2320は、全周ビデオカメラ機器部2311によって得られた全周ビデオ映像を記録する全周ビデオ映像記録部2321を備える。
また、データ生成部2320は、全周ビデオ映像記録部2321に記録された全周ビデオ映像の各フレーム画像内に、十分多くの特徴点を抽出し、特徴点を隣接するフレームに追跡し、特徴点とカメラ位置で構成される十分多くの三角形を解くことで、移動体に設置されたカメラの相対移動軌跡とカメラの3軸回転角を演算(CV演算)で求めるCVデータ取得部(CVデータ演算部)2323と、GPSやIMU等のGPS計測機器部2310により、三次元位置データを取得する絶対座標データ取得部2322を備える。
The data generation unit 2320 includes an omnidirectional video image recording unit 2321 that records the omnidirectional video image obtained by the omnidirectional video camera device unit 2311.
In addition, the data generation unit 2320 extracts a sufficiently large number of feature points from each frame image of the all-around video image recorded in the all-around video image recording unit 2321, tracks the feature points in adjacent frames, and features A CV data acquisition unit (CV data) for calculating a relative movement locus of a camera installed on a moving body and a three-axis rotation angle of the camera by calculation (CV calculation) by solving a sufficiently large number of triangles composed of points and camera positions An arithmetic unit) 2323 and an absolute coordinate data acquisition unit 2322 for acquiring three-dimensional position data by a GPS measurement device unit 2310 such as GPS or IMU.

時間軸整合部2330は、CVデータ取得部2323から出力される信号と絶対座標データ取得部2322から出力される信号に、同一の時計から発生する高相対精度の時刻データを供給する時計部2331を備える。
また、時間軸整合部2330は、時計部2331から供給される時刻信号でCVデータを関係付けて記録する時刻同期CVデータ記録部2332と、時計部2331から供給される時刻信号で絶対座標データを関連付けて記録する時刻同期絶対座標記録部2333を備える。
また、CVデータに関しては、一部のカメラには原理的に存在する動画像の画像処理時間等に由来する一定の時間遅れを考慮し、記録時刻とのズレを補正してCV信号出力する遅延調整CV信号出力部2334を備える。
また、絶対座標データに関しては、絶対座標信号出力時刻と計測時刻との遅延時間補正して、信号出力する遅延調整絶対座標信号出力部2335を備える。
なお、それぞれの時刻の遅延時間に依らずとも、遅延調整CV信号と遅延調整絶対座標信号との一致を取ることで両者を対応づける。
The time axis matching unit 2330 includes a clock unit 2331 that supplies time data with high relative accuracy generated from the same clock to the signal output from the CV data acquisition unit 2323 and the signal output from the absolute coordinate data acquisition unit 2322. Prepare.
In addition, the time axis alignment unit 2330 associates and records the CV data with the time signal supplied from the clock unit 2331 and records absolute coordinate data with the time signal supplied from the clock unit 2331. A time-synchronized absolute coordinate recording unit 2333 for recording in association is provided.
In addition, regarding CV data, in consideration of a certain time delay derived from image processing time of a moving image that exists in principle in some cameras, a delay for correcting a deviation from a recording time and outputting a CV signal An adjustment CV signal output unit 2334 is provided.
Further, the absolute coordinate data includes a delay adjustment absolute coordinate signal output unit 2335 that corrects a delay time between the absolute coordinate signal output time and the measurement time and outputs a signal.
Note that the delay adjustment CV signal and the delay adjustment absolute coordinate signal are matched to each other regardless of the delay time of each time.

CV補正部2340は、GPS計測機器部2312と全周ビデオカメラ機器部2311との設置位置の差に起因する座標と3軸回転のズレをCV信号から生成して、全周ビデオ映像機器部2311の位置にGPS計測器の位置を補正して、遅延座標回転補正信号を出力する座標回転補正部2341を備える。
また、CV補正部2340は、絶対精度の高い遅延調整絶対座標信号の座標配列形状と、相対精度の高いCV値の座標配列形状を比較するために、遅延調整絶対座標信号が座標回転補正信号による座標配列形状と、遅延調整CV信号の座標配列形状とを比較する座標配列形状比較部2342を備える。
The CV correction unit 2340 generates, from the CV signal, a coordinate and a three-axis rotation shift caused by a difference in installation position between the GPS measurement device unit 2312 and the all-around video camera device unit 2311, and the all-around video image device unit 2311. Is provided with a coordinate rotation correction unit 2341 that corrects the position of the GPS measuring device to output a delayed coordinate rotation correction signal.
Also, the CV correction unit 2340 compares the coordinate arrangement shape of the delay adjustment absolute coordinate signal with high absolute accuracy with the coordinate arrangement shape of the CV value with high relative accuracy, and the delay adjustment absolute coordinate signal is generated by the coordinate rotation correction signal. A coordinate array shape comparison unit 2342 is provided for comparing the coordinate array shape with the coordinate array shape of the delay adjustment CV signal.

また、CV補正部2340は、両者座標配列の座標配列形状比較により、相対精度の高い遅延調整CV信号の座標配列形状から大きくはずれるGPS配列形状の地点をGPS側の絶対座標の精度変更地点として検出する絶対座標精度変更地点検出部2343を備える。
また、CV補正部2340は、遅延調整絶対座標信号から、GPS等の絶対座標データが、例えば衛星の切り替え地点等で発生する絶対誤差が変更される場合には、絶対精度は向上することがあっても、相対誤差が著しく低下するので、そのような相対精度が低下する区間をCV値と比較することで削除し、又は、地下や建造物内のGPS信号が受信できない区間を削除するなどして、絶対座標精度変更地点を排除し、相対精度が高い区間のみを複数選択する、高精度相対値区間選択部2344を備える。
In addition, the CV correction unit 2340 detects a GPS array shape point greatly deviating from the coordinate array shape of the delay adjustment CV signal with high relative accuracy by comparing the coordinate array shapes of the two coordinate arrays as the accuracy change point of the absolute coordinate on the GPS side. An absolute coordinate accuracy change point detection unit 2343 is provided.
Also, the CV correction unit 2340 may improve the absolute accuracy when the absolute coordinate data such as GPS is changed from the delay adjustment absolute coordinate signal, for example, at the satellite switching point. However, since the relative error is significantly reduced, the section where the relative accuracy is reduced is deleted by comparing with the CV value, or the section where the GPS signal in the basement or the building cannot be received is deleted. Thus, a high-accuracy relative value section selection unit 2344 that eliminates the absolute coordinate accuracy change point and selects a plurality of sections having high relative accuracy is provided.

また、CV補正部2340は、演算誤差の累積によりスケール誤差を含むCVデータに関して、絶対座標データによる高精度相対値区間選択部に対応する地点の区間と、動画像から演算で求めたCVデータによる地点と区間を、時刻をパラメータとして対応させ、もしくは、一般にCVデータのサンプリング周波数はGPSのサンプリング周波数よりも高いので、上記の区間によって区切られた始点と終点の時刻の一致点に計測値が存在しないときは、内挿によって一致点を求めて対応させる計測区間対応部2345を備える。
また、CV補正部2340は、上記の対応関係がついた両者の区間の始点と終点の絶対座標間の距離を区間距離として、CV演算による誤差の累積に起因するスケール誤差を含むCVデータを補正するための補正信号を生成する補正信号生成部2346を備える。
また、CV補正部2340は、上記の区間に対応するCVデータを、相対精度が高い絶対座標データによる区間距離データに一致させることで、もしくは調整することで、CVデータを補正するCVデータスケール補正部2347を備える。
さらに、CV補正部2340は、上記の処理を、目的区間全域に亘り、複数回繰り返すことで、高精度な一連のCVデータを生成する全域スケール補正部2348を備える。
Also, the CV correction unit 2340 uses the section of the point corresponding to the high-precision relative value section selection unit based on the absolute coordinate data and the CV data obtained by calculation from the moving image for the CV data including the scale error due to the accumulation of the calculation error. Corresponding points and sections using time as a parameter, or the sampling frequency of CV data is generally higher than the sampling frequency of GPS, so there is a measured value at the coincidence point of the start point and end point divided by the above section If not, a measurement section corresponding unit 2345 is provided for finding and matching the matching points by interpolation.
In addition, the CV correction unit 2340 corrects CV data including a scale error caused by accumulation of errors by CV calculation, using the distance between the absolute coordinates of the start point and the end point of both sections having the above correspondence as the section distance. A correction signal generation unit 2346 that generates a correction signal for performing the correction.
Also, the CV correction unit 2340 corrects the CV data by correcting or adjusting the CV data corresponding to the above section by matching or adjusting the section distance data based on the absolute coordinate data with high relative accuracy. Part 2347 is provided.
Furthermore, the CV correction unit 2340 includes a global scale correction unit 2348 that generates a series of high-precision CV data by repeating the above process a plurality of times over the entire target section.

高精度CVデータ出力部2350は、全周ビデオ映像を出力する全周ビデオ出力部2352と、全周ビデオ映像出力の各画像フレームに同期して、全域スケール補正されたCVデータ信号を出力するCVデータ出力部2351を備える。   The high-precision CV data output unit 2350 is an all-around video output unit 2352 that outputs an all-around video image, and a CV that outputs a CV data signal that is globally scaled in synchronization with each image frame of the all-around video image output. A data output unit 2351 is provided.

以上のような構成からなる本実施形態の高精度CV演算装置231による高精度CV演算処理は、以下のようにして行われる。
まず、GPS装置と動画像取得のためのカメラ装置を同一車輌等に積載する。このとき、GPS装置とカメラ装置との三次元的位置関係は実測により既知としておく。
GPS計測地点とカメラ撮影地点を、時刻で関係づけて取得できるようにし、GPSによる計測データとカメラによるCVデータを同一の時計の時刻の関数として表現して記録する。
The high-precision CV calculation processing by the high-precision CV calculation device 231 of the present embodiment configured as described above is performed as follows.
First, a GPS device and a camera device for moving image acquisition are loaded on the same vehicle or the like. At this time, the three-dimensional positional relationship between the GPS device and the camera device is known by actual measurement.
The GPS measurement point and the camera shooting point can be acquired in relation to each other by time, and the GPS measurement data and the camera CV data are expressed and recorded as a function of the same clock time.

GPSから取得されたデータに関しては、GPSから得られた時刻と距離が対応したデータから適切な区間を複数設定し、さらに、上記の区間の中からGPSの相対精度が高い区間のみを複数選択して、当該区間を構成する時刻と移動距離データを取得する。
次に、動画像から求めたCVデータに関しては、GPSによる三次元距離データに対応する同一場所の同一時刻の区間における計測データに、画像から求めたCVデータを対応させる。上記の区間によって区切られた始点と終点の時刻の一致点に計測値が存在しないときは、内挿によって一致点を求め、上記の区間の始点と終点のGPSデータから得られる距離をCVデータから得られた距離に差し替えることで、CVデータを補正する。以上の操作を、選択された複数の区間で繰り返すことにより、GPSデータによって補正された高精度な一連のCVデータを生成することができる。
For data acquired from GPS, set multiple appropriate sections from the data corresponding to the time and distance obtained from GPS, and select only multiple sections with high GPS relative accuracy from the above sections. Thus, the time and movement distance data constituting the section are acquired.
Next, regarding the CV data obtained from the moving image, the CV data obtained from the image is made to correspond to the measurement data in the same time section of the same place corresponding to the three-dimensional distance data by GPS. When the measured value does not exist at the coincidence point of the start point and the end point time divided by the above section, the coincidence point is obtained by interpolation, and the distance obtained from the GPS data of the start point and end point of the above section is obtained from the CV data. The CV data is corrected by replacing the obtained distance. By repeating the above operation in a plurality of selected sections, it is possible to generate a series of highly accurate CV data corrected by GPS data.

[GPSデータ補正]
次に、図24を参照して、GPSデータ補正を行う高精度CV演算装置241の実施形態について説明する。
同図に示す本実施形態の高精度CV演算装置241は、基本構成は図23に示した高精度CV演算装置231と同様となっており、さらに、GPSの計測データの誤差を補正する補正手段を備えることを特徴としている。
なお、図24中、鎖線で示す要素は上述した実施形態と共通する部分であり、適宜重複説明は省略する。以下の実施形態においても同様である。
[GPS data correction]
Next, with reference to FIG. 24, an embodiment of a high-precision CV arithmetic unit 241 that performs GPS data correction will be described.
The high-precision CV calculation device 241 of the present embodiment shown in the figure has the same basic configuration as the high-precision CV calculation device 231 shown in FIG. 23, and further, correction means for correcting an error in GPS measurement data It is characterized by having.
In FIG. 24, elements indicated by chain lines are portions common to the above-described embodiment, and redundant description is omitted as appropriate. The same applies to the following embodiments.

図24に示すように、本実施形態の高精度CV演算装置241では、CV補正部2440が、分布統計2441と、仮の真値演算部2442と、仮の真値補正データ取得部2443と、絶対座標補正部2444を備えている。
分布統計2441は、GPSの衛星切り替え地点などによる、絶対精度変更地点検出部(図23の2343)で検出された絶対精度変更地点の分布を統計処理する。
仮の真値演算部2442は、絶対精度変更地点検出部で検出されたGPS等の絶対精度変更地点の分布を統計処理し、GPSの仮の真値を求める。具体的には、仮の真値演算部2442は、GPSによる絶対精度変更地点の分布の統計的中心を最小自乗法等により、分布の重心を求め、仮の真値として求める。
As shown in FIG. 24, in the high-precision CV calculation device 241 of the present embodiment, the CV correction unit 2440 includes a distribution statistics 2441, a temporary true value calculation unit 2442, a temporary true value correction data acquisition unit 2443, An absolute coordinate correction unit 2444 is provided.
The distribution statistics 2441 statistically processes the distribution of the absolute accuracy change points detected by the absolute accuracy change point detection unit (2343 in FIG. 23) due to GPS satellite switching points or the like.
The temporary true value calculation unit 2442 performs statistical processing on the distribution of absolute accuracy change points such as GPS detected by the absolute accuracy change point detection unit, and obtains a temporary true value of GPS. Specifically, the provisional true value calculation unit 2442 obtains the centroid of the distribution by using the least square method or the like for the statistical center of the distribution of the absolute accuracy change points by GPS, and obtains the provisional true value.

仮の真値補正データ取得部2443と、上記の仮の真値により、衛星切り替え地点等に起因する絶対精度変更地点の始点及び終点を区間の絶対誤差補正値を取得する。
絶対座標補正部2444は、上記の区間の補正値により、先ず絶対座標の配列を補正したGPSの高精度の絶対座標配列を求める。
絶対座標補正部2444で補正された絶対座標配列は、高精度CVデータ出力部2450に出力される。
With the provisional true value correction data acquisition unit 2443 and the provisional true value, the absolute error correction value of the section of the start point and end point of the absolute accuracy change point caused by the satellite switching point or the like is acquired.
The absolute coordinate correction unit 2444 first obtains a high-accuracy GPS absolute coordinate array in which the absolute coordinate array is corrected based on the correction values of the above-described sections.
The absolute coordinate array corrected by the absolute coordinate correction unit 2444 is output to the high-precision CV data output unit 2450.

本実施形態の高精度CVデータ出力部2450は、図23の高精度CVデータ出力部2350に加えて、絶対座標付加CVデータ統合部2451と、絶対座標CVデータ出力部2452をさらに備えている。
絶対座標付加CVデータ統合部2451は、GPSデータから得られた絶対座標のデータを基準として、CVデータ出力部(図23の2351)から出力されたスケール補正されたCVデータに、絶対座標を与える。
全周ビデオ映像は、全周ビデオ出力部(図23の2352)から出力されるとともに、絶対座標CVデータ出力部2452により、各画像フレームに、絶対座標が付加されたCVデータが出力される。
The high-precision CV data output unit 2450 of this embodiment further includes an absolute coordinate addition CV data integration unit 2451 and an absolute coordinate CV data output unit 2452 in addition to the high-precision CV data output unit 2350 of FIG.
The absolute coordinate addition CV data integration unit 2451 gives absolute coordinates to the scale-corrected CV data output from the CV data output unit (2351 in FIG. 23) using the absolute coordinate data obtained from the GPS data as a reference. .
The all-around video image is output from the all-around video output unit (2352 in FIG. 23), and the absolute coordinate CV data output unit 2452 outputs CV data in which absolute coordinates are added to each image frame.

以上のような構成からなる本実施形態の高精度CV演算装置241によるGPSデータの補正処理は、以下のようにして行われる。
まず、GPS装置と動画像取得のためのカメラ装置を同一車輌等に積載し、GPS装置とカメラ装置との三次元的位置関係と三次元的3軸回転関係は実測により既知としておく。
次に、GPS計測地点とカメラ撮影地点を、時刻で関係づけて取得できるようにし、GPSによる計測データとカメラによるCVデータを同一の時計の時刻の関数として表現して記録する。
The correction processing of GPS data by the high-precision CV arithmetic unit 241 of the present embodiment configured as described above is performed as follows.
First, the GPS device and the camera device for moving image acquisition are loaded on the same vehicle or the like, and the three-dimensional positional relationship and the three-dimensional three-axis rotation relationship between the GPS device and the camera device are known by actual measurement.
Next, the GPS measurement point and the camera photographing point can be acquired in relation to each other by time, and the GPS measurement data and the camera CV data are expressed and recorded as a function of the time of the same clock.

そして、GPSデータとCVデータを同一時刻で比較し、時刻に対して、CVデータが連続的に配列されていて、しかもGPSの取得データが不連続となった地点を、GPSによる絶対誤差が変化したことによる誤差変更地点として検出し、十分に長時間のデータから、十分に多い誤差変更地点のデータを取得して、十分に多い誤差変更地点の分布を求める。
上記の分布から最小自乗法等の演算で統計処理し、GPSの仮の補正真値を取得し、それを仮の補正真値として、各誤差変更地点のデータを仮の補正真値に差し替えて、GPSの修正値として採用する。
さらに、上記の誤差変更地点を始点とする区間の一部のGPSデータをリニアリティーの高いCVデータで置き換えることで、GPSの絶対精度を高め、その絶対精度の高まったGPSデータよって、CV値に絶対座標を与えることができるようになる。
Then, the GPS data and CV data are compared at the same time, and the absolute error due to GPS changes at the point where the CV data is continuously arranged with respect to the time and the GPS acquisition data becomes discontinuous. As a result, the data is detected as an error change point, and a sufficiently large number of error change point data is acquired from sufficiently long time data to obtain a sufficiently large distribution of error change points.
Statistical processing is performed from the above distribution by operations such as least squares, and the provisional correction true value of GPS is obtained. Adopted as a GPS correction value.
Furthermore, by replacing some GPS data in the section starting from the above error change point with CV data with high linearity, the absolute accuracy of GPS is improved, and the GPS data with the increased absolute accuracy makes absolute CV values Coordinates can be given.

[IMUによる3軸回転累積誤差補正]
次に、図25を参照して、IMUによる3軸回転累積誤差補正を行う高精度CV演算装置251の実施形態について説明する。
同図に示す本実施形態の高精度CV演算装置251は、基本構成は図23に示した高精度CV演算装置231と同様となっており、さらに、IMUによる3軸回転累積誤差を補正する補正手段を備えることを特徴としている。
[3-axis rotation accumulated error correction by IMU]
Next, with reference to FIG. 25, an embodiment of a high-precision CV arithmetic unit 251 that performs three-axis rotation cumulative error correction by the IMU will be described.
The high-precision CV calculation device 251 of this embodiment shown in the figure has the same basic configuration as the high-precision CV calculation device 231 shown in FIG. 23, and further, a correction for correcting a 3-axis rotation accumulated error by the IMU. It is characterized by providing a means.

具体的には、まず、移動体計測部2510は、IMU等の絶対3軸回転姿勢を計測できるIMU計測機器部2511を備える。
データ生成部2520は、IMU計測機器部2511により、絶対3軸回転姿勢のデータを取得する、絶対3軸回転姿勢データ取得部2521を備える。
時間軸整合部2530は、時計部(図23の2331)から新たに供給される時刻信号で絶対3軸回転姿勢データを関係付けて記録する時刻同期3軸回転姿勢記録部2531を備える。
また、時間軸整合部2530は、絶対3軸回転姿勢データに関して、機器部の処理時間等に由来する遅れを考慮して、記録時刻とのズレを補正して信号出力する遅延調整3軸回転姿勢出力部2532を備える。
Specifically, first, the moving body measurement unit 2510 includes an IMU measurement device unit 2511 that can measure an absolute three-axis rotation posture such as an IMU.
The data generation unit 2520 includes an absolute three-axis rotation posture data acquisition unit 2521 that acquires data of an absolute three-axis rotation posture by the IMU measurement device unit 2511.
The time axis alignment unit 2530 includes a time-synchronized triaxial rotational attitude recording unit 2531 that records absolute triaxial rotational attitude data in association with a time signal newly supplied from the clock unit (2331 in FIG. 23).
In addition, the time axis alignment unit 2530 corrects a deviation from the recording time and outputs a signal by correcting a deviation from the recording time in consideration of a delay derived from the processing time of the device unit with respect to the absolute triaxial rotational posture data. An output unit 2532 is provided.

CV補正部2540は、遅延調整CV信号出力部(図23の2334)からの3軸回転姿勢信号と遅延調整3軸回転姿勢出力部2532からの絶対回転3軸姿勢信号とを比較する3軸回転姿勢比較部2541を備える。
また、CV補正部2540は、3軸回転姿勢信号と、絶対回転3軸姿勢信号との両者の差を、前もって定めた閾値と比較する3軸回転閾値比較部2542を備えるとともに、両者の差が上記の閾値を超えたときに、補正区間を指定する3軸回転補正区間設定部2543を備える。
また、CV補正部2540は、上記の補正区間における補正値を生成する3軸回転補正信号生成部2544を備える。
The CV correction unit 2540 compares the three-axis rotation posture signal from the delay adjustment CV signal output unit (2334 in FIG. 23) with the absolute rotation three-axis posture signal from the delay adjustment three-axis rotation posture output unit 2532. A posture comparison unit 2541 is provided.
The CV correction unit 2540 includes a triaxial rotation threshold value comparison unit 2542 that compares the difference between the triaxial rotation posture signal and the absolute rotation triaxial posture signal with a predetermined threshold value. A triaxial rotation correction section setting unit 2543 is provided that specifies a correction section when the threshold value is exceeded.
Further, the CV correction unit 2540 includes a triaxial rotation correction signal generation unit 2544 that generates a correction value in the correction section.

高精度CVデータ出力部2550は、3軸回転補正CVデータ出力部2551と、3軸回転絶対座標付加CVデータ出力部2552を備える。
3軸回転絶対座標付加CVデータ出力部2552は、遅延調整CV信号出力部(図23の34)からのCVデータに対して、又はCVデータ出力部(図23の2351)からのCVデータに対して、又は絶対座標CVデータ出力部(図24の2452)からのCVデータに対して、各画像フレームに絶対座標CVデータ出力部から3軸回転姿勢データに3軸回転補正と絶対座標とを加えて出力する。
この場合、補正された3軸回転データは絶対座標となる。
3軸回転補正CVデータ出力部2551は、CVデータ出力部の出力に3軸回転補正のみを加えた3軸回転補正CVデータを出力する。
The high-precision CV data output unit 2550 includes a triaxial rotation correction CV data output unit 2551 and a triaxial rotation absolute coordinate addition CV data output unit 2552.
The triaxial rotation absolute coordinate addition CV data output unit 2552 corresponds to the CV data from the delay adjustment CV signal output unit (34 in FIG. 23) or the CV data from the CV data output unit (2351 in FIG. 23). Or, for the CV data from the absolute coordinate CV data output unit (2452 in FIG. 24), triaxial rotation correction and absolute coordinates are added to the triaxial rotation attitude data from the absolute coordinate CV data output unit to each image frame. Output.
In this case, the corrected triaxial rotation data becomes absolute coordinates.
The triaxial rotation correction CV data output unit 2551 outputs triaxial rotation correction CV data obtained by adding only the triaxial rotation correction to the output of the CV data output unit.

図26〜33を参照しつつ、本実施形態のGPSとIMUを備えた高精度CV演算装置251のより具体的な一実施例について説明する。
図26に示すように、全周囲カメラとGPSとIMU,二台の広角カメラを固定して、小型車輌の屋根に固定して積載する。各機器は、図27(a)に示すように、車輌に搭載した情報処理装置(PC)に接続され、リアルタイムに演算処理が行われる。
A more specific example of the high-precision CV arithmetic unit 251 including the GPS and the IMU according to the present embodiment will be described with reference to FIGS.
As shown in FIG. 26, the omnidirectional camera, GPS and IMU, and two wide-angle cameras are fixed and fixed on the roof of a small vehicle. As shown in FIG. 27 (a), each device is connected to an information processing device (PC) mounted on a vehicle and performs arithmetic processing in real time.

ここでは、全周カメラとして360度全周囲を撮影可能なPGR社製のLadybugを使用している。
IMUは3軸が望ましいが、1軸又は軸でも十分効果はある。
GPSとIMUは、それぞれ車輌に一台取り付ける。GPSとIMUと二台のカメラの三次元的位置関係、及び車輌と各機器との関係は前もって正確に計測して求めておく(図26参照)。
なお、GPSとカメラを一体化させた移動体計測部とすることで、一体化したまま着脱・取り外し可能であり、他の車輌等への付け替えも容易に行えるようになる。
Here, a Ladybug made by PGR Co., which can shoot the entire 360 ° circumference is used as the all-around camera.
The IMU preferably has three axes, but a single axis or axis is sufficient.
One GPS and one IMU are attached to each vehicle. The three-dimensional positional relationship between the GPS, the IMU, and the two cameras and the relationship between the vehicle and each device are obtained by accurately measuring in advance (see FIG. 26).
In addition, by setting it as the moving body measurement part which integrated GPS and the camera, it can attach or detach and detach while integrated, and can also be easily replaced with other vehicles.

GPSにより、車輌の絶対座標が計算で求められ、またIMUのデータが取得されることで、車輌の3軸絶対回転量が計算により得られることになる。
ただ、GPSとIMUによるそれぞれのデータの精度は低いので、それを二台の広角カメラによるCV値で補正することになる。
また、GPSは、長時間かけてその静止位置を求めることにより、精度の高い位置関係を求めることができる。
全周カメラとGPSデータとIMUデータと二台の広角カメラから取得した画像の各フレーム画像との関係は、図27(b),図28に示すように、共通の時計による時刻で関係づけられる。例えば、GPSデータとIMUデータと全周カメラと広角カメラから取得した画像の各フレーム画像との関係は、PCのクロックから生成される時刻で完全に同期して記録される。
By calculating the absolute coordinates of the vehicle by GPS and acquiring IMU data, the three-axis absolute rotation amount of the vehicle can be obtained by calculation.
However, since the accuracy of each data by GPS and IMU is low, it corrects it with the CV value by two wide angle cameras.
Further, the GPS can obtain a highly accurate positional relationship by obtaining the stationary position over a long period of time.
The relationship between the omnidirectional camera, GPS data, IMU data, and each frame image of the images acquired from the two wide-angle cameras is related to the time by a common clock as shown in FIGS. . For example, the relationship between the GPS data, the IMU data, and the frame images of the images acquired from the all-around camera and the wide-angle camera are recorded in complete synchronization with the time generated from the PC clock.

絶対座標はGPCにより取得され、また、二台の広角カメラにより、絶対長が取得され、また、IMUからは絶対3軸回転角が取得される。
そして、図23に示した高精度CV演算装置231によって、GPSデータによりCV値のスケールキャリブレーションを行う。
GPSは、一般に絶対座標を取得できるが、絶対誤差についての誤差も含んでいる。そこで、先ずGPSの持つ相対スケールの高精度の特徴を利用し、GPSの相対スケールのみに着目して、高精度のGPSの区間距離を求める。
衛星切り替えやマルチパス等により、突然GPSの絶対誤差精度が変化する地点,区間があり、そこでは相対精度が著しく低下するので、GPSデータは不連続となる。この絶対誤差が変化したために相対誤差が低下した地点又は区間を「誤差変更地点」とする(図29参照)。
The absolute coordinates are acquired by GPC, the absolute length is acquired by two wide-angle cameras, and the absolute triaxial rotation angle is acquired from the IMU.
Then, the scale calibration of the CV value is performed with the GPS data by the high-precision CV arithmetic device 231 shown in FIG.
In general, GPS can acquire absolute coordinates, but also includes errors regarding absolute errors. Therefore, first, the high-accuracy feature of the relative scale of the GPS is used, and the high-accuracy GPS section distance is obtained by focusing on only the GPS relative scale.
There are points and sections where the absolute error accuracy of GPS suddenly changes due to satellite switching, multipath, etc., and the relative accuracy is significantly reduced there, so the GPS data becomes discontinuous. A point or section where the relative error has decreased due to the change in the absolute error is defined as an “error change point” (see FIG. 29).

そして、先ず当該誤差精度変更地点を含む区間を相対誤差補正区間から誤差変更地点を削除する。上記の区間選択により、GPSの相対座標として精度の高い部分のみを選択することができる。
そこで、相対誤差の高い区間により、GPSのある時間間隔に対応するGPSデータとCVデータを比較し、その相対距離をCVデータに反映させて、高精度なCV値を生成する。これにより、CVデータ特有の誤差の累積を補正することができる。
First, the error change point is deleted from the relative error correction interval in the interval including the error accuracy change point. By the above section selection, it is possible to select only a highly accurate part as GPS relative coordinates.
Therefore, GPS data corresponding to a certain time interval of GPS and CV data are compared with a section having a high relative error, and the relative distance is reflected in the CV data to generate a highly accurate CV value. Thereby, accumulation of errors peculiar to CV data can be corrected.

CVデータは全周ビデオ映像中の特徴点を自動抽出し、それを隣接する複数のフレームに追跡し、移動するカメラ位置と各特徴点で作る複数の三角形を解析することで、カメラの三次元位置と3軸回転姿勢が求められる。CVデータの座標とスケールは相対座標となる。
ここで、GPSデータは絶対誤差を含んでいるが、ここでは相対値のみに着目して、CVデータの相対値を補正する。図30に示すように、相対値補正により、CVデータが持つ累積誤差を補正することができ、スケールのリニアリティーがよりよく補正されたことになる。
GPSデータから区間選択において、削除されたことでスケール補正されない区間については、隣接する区間での累積誤差は微少であると考えられので、スケール補正された前後の区間からの比例配分でスケール補正を行う。
The CV data automatically extracts feature points in the all-round video image, tracks them to a plurality of adjacent frames, and analyzes the position of the moving camera and a plurality of triangles formed by each feature point, so that the three-dimensional camera A position and a triaxial rotational attitude are required. The coordinates and scale of CV data are relative coordinates.
Here, although the GPS data includes an absolute error, here, the relative value of the CV data is corrected by focusing only on the relative value. As shown in FIG. 30, the accumulated error of the CV data can be corrected by the relative value correction, and the linearity of the scale is corrected better.
For sections that are not scale-corrected due to deletion of sections from GPS data, the accumulated error in adjacent sections is considered to be very small. Do.

次に、二台の広角カメラによるCV値(図18参照)により、全周カメラのCV値は絶対長補正され、スケールキャリブレーションされる。
さらに、CV値のリニアリティーを利用して、GPSの不連続点を補正する。
以下、図29〜図31を参照しつつ、CVデータでGPSデータを補正しながら、その絶対座標により、CVデータに絶対座標値を与える方法を説明する。
GPSは絶対誤差を含んで出力されるが、その誤差精度は衛星が切り替わることなどで急に変化すると、GPSデータは不連続となり相対誤差が増加する。このとき、CVデータはGPSとはまったく異なる方法で位置を検出しているので、衛星切り替え等の影響は受けずに、連続的にデータが取得される。
Next, the absolute length of the CV value of the all-around camera is corrected by the CV value (see FIG. 18) by the two wide-angle cameras, and the scale is calibrated.
Further, the GPS discontinuity is corrected using the linearity of the CV value.
Hereinafter, a method of giving absolute coordinate values to CV data based on the absolute coordinates while correcting GPS data with CV data will be described with reference to FIGS. 29 to 31.
The GPS is output including an absolute error, but if the error accuracy changes suddenly due to satellite switching or the like, the GPS data becomes discontinuous and the relative error increases. At this time, since the position of CV data is detected by a method completely different from that of GPS, data is continuously acquired without being affected by satellite switching or the like.

GPSが不連続となることで、相対誤差は増加し、絶対誤差が変化したと言えるが、このとき絶対誤差が増加するとは限らず、絶対誤差は減少していることもある。そこで、誤差変更点を抽出して、その区間をCV値の高サンプリングの特徴と短区間の相対値の高精度性を利用して、GPSの不連続点を検出することで、GPSをリニアリティー補正することができる(図29〜図31参照)。
このようにして、検出した不連続点の相対座標をCVデータで置き換えることで、GPSの連続性を回復でき、また、相対座標の精度が向上する。
It can be said that the relative error increases and the absolute error changes due to the discontinuity of the GPS, but the absolute error does not always increase at this time, and the absolute error may decrease. Therefore, by extracting the error change point, and detecting the GPS discontinuity using the high sampling characteristics of the CV value and the high accuracy of the relative value of the short interval, the GPS is linearly corrected. (See FIGS. 29 to 31).
Thus, by replacing the relative coordinates of the detected discontinuous points with the CV data, the continuity of GPS can be recovered, and the accuracy of the relative coordinates is improved.

但し、以上の処理だけでは、相対精度は向上されるが、絶対精度は必ずしも向上していないことになる。
そこで、誤差変更点の移動量を統計処理することで、平均的な移動量を求め、これによって絶対精度も向上させることができる。
図32に示すように、正しい座標の周りに誤差が発生すると仮定できるので、統計処理により、仮の補正真値を求めることができる。
However, the relative accuracy is improved only by the above processing, but the absolute accuracy is not necessarily improved.
Therefore, by statistically processing the movement amount of the error change point, an average movement amount can be obtained, thereby improving the absolute accuracy.
As shown in FIG. 32, since it can be assumed that an error occurs around the correct coordinates, a provisional corrected true value can be obtained by statistical processing.

具体的には、まず、図32(a)に示すように、定点観測ではなく、移動しながらGPSデータの不連続部分を抽出する。この不連続部分で衛星受信の切り替わりが行われていると考えられ、当該不連続部分の予想値と観測値との2点間GPSからその差分「δns」を多数取り、図32(b)に示すような分布図を生成する。同図に示す「+」は一つ一つの観測点を示す。
ここで、「δns」は、図32(a)に示すように、不連続地点における、予想値と実測値との差分値ベクトルである。また、予想値とは、図32(a)に示すように、誤差を含む前回までの連続観測データが、そのままの誤差で継続したとして得られる予想地点の予想値を意味する。
Specifically, first, as shown in FIG. 32A, the discontinuous portion of the GPS data is extracted while moving, instead of fixed point observation. It is considered that the satellite reception is switched at the discontinuous portion, and a number of differences “δns” are obtained from the GPS between the two points of the predicted value and the observed value of the discontinuous portion, and FIG. A distribution map as shown is generated. “+” Shown in the figure indicates each observation point.
Here, “δns” is a difference value vector between an expected value and an actual measurement value at a discontinuous point, as shown in FIG. Further, as shown in FIG. 32 (a), the predicted value means the predicted value of the predicted point obtained when the continuous observation data up to the previous time including the error is continued with the error as it is.

次に、分布図の重心を最小自乗法により求める。なお、図32(b)には分布を二次元的に示してあるが、実際は三次元の分布となる。
具体的には、未知数の真値(図32(b)に示す■)から観測点差分値「+」までの距離をδnsとし、その二乗(**2)の合計をΣδns**2として、その最小値となる所を真値として求める。Σns**2=0は真値から観測点差分値までの距離の二乗の和が0となることを意味する。
真値δ0が求まれば、実測値から、真値を求める式は図32(c)に示すようになる。
式:[G0Tn=GmTn+(δns−δ0s)]
(δns−δ0s)は、求められた真値から、観測実行値までの距離である、真値差分距離を示す。この真値差分距離を、実測生データGmTnに加えることにより、求める実効値G0Tnが得られることになる。
以上のようにして、各誤差変更地点に仮の補正真値を代入して置換することで、精度の高いGPSの絶対座標が得られることになる。
Next, the center of gravity of the distribution map is obtained by the method of least squares. In FIG. 32 (b), the distribution is shown two-dimensionally, but in reality it is a three-dimensional distribution.
Specifically, the distance from the true value of the unknown (■ shown in FIG. 32 (b)) to the observation point difference value “+” is δns, and the sum of the squares (** 2) is Σδns ** 2. The minimum value is obtained as a true value. Σns ** 2 = 0 means that the sum of squares of the distance from the true value to the observation point difference value becomes zero.
If the true value δ0 is obtained, the formula for obtaining the true value from the actually measured value is as shown in FIG.
Formula: [G0Tn = GmTn + (δns−δ0s)]
(Δns−δ0s) indicates a true value difference distance that is a distance from the obtained true value to the observation execution value. By adding this true value difference distance to the measured raw data GmTn, the effective value G0Tn to be obtained is obtained.
As described above, the absolute coordinates of GPS with high accuracy can be obtained by substituting and replacing the temporary correction true values at the respective error change points.

そして、図33に示すように、絶対精度の高まったGPSデータにより、GPSサンプリング地点とCVのフレームと対応する地点のすべてにおいて、CVデータを補正して、絶対値を与えることで精度の高いCVデータを取得することができる。
さらに、IMUにより、絶対3軸回転角によってCVデータの3軸回転角の誤差の累積を消去し、CVデータから絶対3軸回転角を取得する。
画像フレームとGPSデータのそれぞれのサンプリングは独立に行われるので、それぞれのサンプリングが極めて近い地点のタイミングで、誤差の累積を消去して絶対3軸回転角を取得することが好ましい。
以上のようにして、精度の高いCV演算が実現できる。
Then, as shown in FIG. 33, CV data with high accuracy is obtained by correcting CV data at all points corresponding to GPS sampling points and CV frames by using GPS data with increased absolute accuracy. Data can be acquired.
Further, the IMU deletes the accumulation of errors of the triaxial rotation angle of the CV data by the absolute triaxial rotation angle, and acquires the absolute triaxial rotation angle from the CV data.
Since each sampling of the image frame and the GPS data is performed independently, it is preferable to acquire the absolute three-axis rotation angle by deleting the error accumulation at the timing at which each sampling is very close.
As described above, highly accurate CV calculation can be realized.

[鉛直方向検出による1軸回転累積誤差補正]
次に、図34を参照して、鉛直方向検出による1軸回転累積誤差補正を行う高精度CV演算装置341の実施形態について説明する。
同図に示す本実施形態の高精度CV演算装置341は、取得されたビデオ映像から鉛直方向を検出し、それによってCVデータを補正する補正手段を備えることを特徴としている。
具体的には、本実施形態の高精度CV演算装置341は、データ生成部3420が、概略両極平面展開部3422と、概略赤道平面展開部3423と、鉛直方向検出部3424を備えている。
[Single axis rotation accumulated error correction by vertical direction detection]
Next, with reference to FIG. 34, an embodiment of a high-accuracy CV arithmetic unit 341 that performs one-axis rotation accumulated error correction by vertical direction detection will be described.
The high-precision CV arithmetic unit 341 of the present embodiment shown in the figure is characterized by comprising correction means for detecting the vertical direction from the acquired video image and thereby correcting the CV data.
Specifically, in the high-precision CV arithmetic device 341 of the present embodiment, the data generation unit 3420 includes a general bipolar plane expansion unit 3422, a general equator plane expansion unit 3423, and a vertical direction detection unit 3424.

上述のように、全周映像は一般に球面変換座標で記録されている(図5参照)。
そこで、概略両極平面展開部3422は、全周ビデオ映像記録部3421に記録された全周ビデオ映像から、概略真上方向及び真下方向に平面変換(パースペクティブ変換)する(図35及び図36参照)。
また、概略赤道平面展開部3423は、全周ビデオ映像を、複数の赤道面方向に平面変換(パースペクティブ変換)する(図37参照)。
鉛直方向検出部3424は、真上・真下方向と赤道面方向に平面変換された画像から鉛直方向を画像処理で検出する。
そして、検出された鉛直方向は、CVデータ取得部3425に出力・反映され、CV演算に鉛直方向が付加されることになる。
As described above, the all-round image is generally recorded in spherical transformation coordinates (see FIG. 5).
Therefore, the schematic bipolar plane expansion unit 3422 performs plane conversion (perspective conversion) in the generally upward direction and the downward direction from the omnidirectional video image recorded in the omnidirectional video image recording unit 3421 (see FIGS. 35 and 36). .
In addition, the schematic equator plane development unit 3423 performs plane conversion (perspective conversion) on all-round video images in a plurality of equatorial plane directions (see FIG. 37).
The vertical direction detection unit 3424 detects the vertical direction by image processing from the image plane-converted into the directly above / downward direction and the equatorial plane direction.
The detected vertical direction is output / reflected to the CV data acquisition unit 3425, and the vertical direction is added to the CV calculation.

平面変換された画像は、図35〜37に示すように、人工構造物が含まれていれば、一般に鉛直成分を多く含むことから、その鉛直成分に着目して、平面変換された映像に含まれる人工構造物の鉛直線を、両極平面では極点(天頂)で交差する放射線群として検出し、赤道平面では、垂直線群として検出する。
例えば、両極平面の画像を重ね合わせれば、平面変換の軸が、画像内の鉛直と合致していれば、それぞれの鉛直方向の船群が作る極は一致する。合致しなければ二つの極ができる。
従って、それぞれの平面変換面の鉛直線の交点が作る極を一致するように、平面変換の軸を移動させることで、変換軸と映像中の鉛直方向を合わせることができる。
As shown in FIGS. 35 to 37, the plane-converted image generally includes a lot of vertical components if an artificial structure is included. Therefore, paying attention to the vertical components, the plane-converted image is included in the plane-converted video. The vertical line of the artificial structure to be detected is detected as a group of radiation intersecting at the pole (zenith) on the bipolar plane, and as a vertical line group on the equator plane.
For example, if the images of both polar planes are superimposed, if the axis of plane conversion matches the vertical in the image, the poles created by the respective ship groups in the vertical direction match. If they do not match, there are two poles.
Therefore, by moving the plane conversion axis so that the poles formed by the intersections of the vertical lines of the plane conversion planes coincide with each other, the conversion axis and the vertical direction in the video can be matched.

また、概略赤道変換面では、映像中に含まれる鉛直線群は画像中に並行垂線として表記させる。変換軸と映像中の鉛直船群が一致すれば、すべての垂線が平行な垂直線となる。一致しなければ、平行性は崩れ、一部のみ垂線が残る。
従って、垂線群が最も増加する変換軸が鉛直方向を示していることになる。
Further, on the approximate equator conversion plane, a group of vertical lines included in the video is expressed as parallel perpendicular lines in the image. If the conversion axis matches the vertical ship group in the video, all perpendicular lines become parallel vertical lines. If they do not match, the parallelism will be lost and only a part of the perpendicular will remain.
Therefore, the conversion axis in which the vertical line group increases most indicates the vertical direction.

映像中の直線部分を検出するには、ハフ変換が有効である。ハフ変換により、直線成分を方程式で表記できる。
両極平面では、方程式で表記できた各直線から、各直線の座標軸との切片を求めれば、それが座標原点からどれだけずれているかが分かる。各直線が原点を通るような座標原点を求めることで、変換軸と画像内の鉛直成分を一致させることができる。
また、赤道変換平面では、ハフ変換で求められた直線成分の、多くの直線が垂直となる変換軸を求めることで、映像内の鉛直が平行垂直となる位置を求めればよい。
以上のようにして両極平面変換から求めた鉛直方向と赤道平面変換から求めた鉛直方向は原理的に一致する。従って、双方を用いても良いがいずれか一方のみでもよい。画像の様々な状況に対応するためには両方を用いるのが好ましい。
Hough transform is effective for detecting a straight line portion in an image. By Hough transform, linear components can be expressed by equations.
In the bipolar plane, if the intercept of each straight line from the coordinate axis is obtained from each straight line that can be expressed by an equation, it can be determined how much it deviates from the coordinate origin. By obtaining the coordinate origin such that each straight line passes through the origin, the conversion axis and the vertical component in the image can be matched.
Further, in the equator conversion plane, the position where the vertical in the video is parallel / vertical may be obtained by obtaining the transformation axis in which many straight lines of the linear component obtained by the Hough transformation are vertical.
As described above, the vertical direction obtained from the bipolar plane transformation and the vertical direction obtained from the equator plane transformation are in principle the same. Accordingly, both may be used, but only one of them may be used. It is preferable to use both in order to cope with various situations of the image.

[空撮映像と地上撮映像による高精度CV演算]
次に、図38を参照して、空撮映像と地上撮映像による高精度CV演算を行う高精度CV演算装置381の実施形態について説明する。
同図に示す本実施形態の高精度CV演算装置381は、取得されたビデオ映像から鉛直方向を検出し、それによってCVデータを補正する補正手段を備えることを特徴としている。
具体的には、本実施形態の高精度CV演算装置381は、低縮尺CV演算では、主として対象物の形状及び隣接形状をCV値で取得し、高縮尺CV演算では、主として対象物の空間配置形状をCV値で取得し、両者を結合することで、両者に矛盾のない高精度CVデータを取得するようにしたものである。
[High-precision CV calculation using aerial and ground images]
Next, an embodiment of a high-precision CV calculation device 381 that performs high-precision CV calculation using an aerial image and a ground image will be described with reference to FIG.
The high-accuracy CV arithmetic device 381 of this embodiment shown in the figure is characterized by comprising correction means for detecting the vertical direction from the acquired video image and thereby correcting the CV data.
Specifically, the high-accuracy CV calculation device 381 of the present embodiment mainly acquires the shape of the object and the adjacent shape by the CV value in the low-scale CV calculation, and mainly uses the spatial arrangement of the object in the high-scale CV calculation. By acquiring the shape as a CV value and combining the two, high-precision CV data consistent with the two is acquired.

図38に示すように、移動体計測部3810は、低縮尺映像と高縮尺映像の二つの全周ビデオ映像機器部3811,3812を備えている。
低縮尺全周ビデオ映像機器部3811は、CV演算を目的とする、広角画像で地上の対象物を撮影するために車輌に積載されるビデオ映像機器からなる。
高縮尺全周ビデオ映像機器部3812は、同様にCV演算を目的とする、広角画像で地上の対象物を映り込むように撮影する空撮のために航空機等に積載されるビデオ映像機器からなる。
低縮尺全周ビデオ映像機器部3811と高縮尺全周ビデオ映像機器部3812は、異なる二種類のビデオ機器部で構成し、それぞれが撮影を行っても良いし、同一のビデオ機器部で構成し、異なる時間に利用して、地上と空中での撮影をするようにしてもよい。
As shown in FIG. 38, the moving body measurement unit 3810 includes two video video equipment units 3811 and 3812 of a low scale image and a high scale image.
The low-scale all-round video image equipment unit 3811 is composed of a video image equipment mounted on a vehicle for photographing a ground object with a wide-angle image for the purpose of CV calculation.
The high-scale all-round video image equipment unit 3812 is composed of a video image equipment mounted on an aircraft or the like for aerial photography that similarly captures an object on the ground with a wide-angle image for the purpose of CV calculation. .
The low-scale all-around video image equipment unit 3811 and the high-scale all-around video image equipment unit 3812 are composed of two different types of video equipment units, each of which may perform shooting, or the same video equipment unit. It may be used at different times for shooting on the ground and in the air.

データ生成部3820は、図38に示すように、低縮尺全周ビデオ映像機器部3811と、高縮尺全周ビデオ映像機器部3812に対応して、低縮尺,高縮尺のビデオ映像を処理する構成となっている。
低縮尺ビデオ映像記録部3821aは、低縮尺全周ビデオ映像機器部3811から低縮尺ビデオ信号を取得し、映像を記録する。
高縮尺ビデオ映像記録部3821bは、高縮尺全周ビデオ映像機器部3812から高縮尺ビデオ信号を取得し、映像を記録する。
As shown in FIG. 38, the data generation unit 3820 is configured to process low-scale and high-scale video images corresponding to the low-scale all-around video image device unit 3811 and the high-scale all-around video image device unit 3812. It has become.
The low-scale video image recording unit 3821a acquires the low-scale video signal from the low-scale all-around video image device unit 3811 and records the video.
The high scale video image recording unit 3821b acquires a high scale video signal from the high scale all-around video image equipment unit 3812 and records the video.

共通特徴点検出部3823は、低縮尺全周ビデオ映像機器部3811から出力される低縮尺全周ビデオ映像と、高縮尺全周ビデオ映像機器部3812から出力される高縮尺全周ビデオ映像とを比較し、二者の映像に含まれる共通特徴点を探し、その対応点を取り、共通特徴点を検出する。
共通特徴点重み設定部3824は、後のCV演算のためにそれぞれの共通特徴点に対し、重み関数により重みを与える。
The common feature point detection unit 3823 receives a low-scale all-around video image output from the low-scale all-around video image unit 3811 and a high-scale all-around video image output from the high-scale all-around video image unit 3812. The comparison is performed to find a common feature point included in the two images, take the corresponding point, and detect the common feature point.
The common feature point weight setting unit 3824 gives a weight to each common feature point by a weight function for later CV calculation.

低縮尺特徴点検出部3822aは、低縮尺全周ビデオ映像から低縮尺の特徴点を検出する。
低縮尺フレーム間追跡部3825aは、低縮尺の特徴点を隣接するフレームに追跡する。
高縮尺特徴点検出部3822bは、高縮尺全周ビデオ映像から高縮尺の特徴点を検出する。
高縮尺フレーム間追跡部3825bは、高縮尺の特徴点を隣接するフレームに追跡する。
The low-scale feature point detection unit 3822a detects low-scale feature points from the low-scale all-around video image.
The low-scale inter-frame tracking unit 3825a tracks low-scale feature points in adjacent frames.
The high-scale feature point detection unit 3822b detects high-scale feature points from the high-scale all-around video image.
The high-scale inter-frame tracking unit 3825b tracks high-scale feature points in adjacent frames.

CV演算部3826は、低縮尺の特徴点と、高縮尺の特徴点と、重み共通特徴点から、低縮尺の地上撮の全周ビデオ映像と、高縮尺の空撮の全周ビデオ映像を、一括統合してCV演算を行う。
CVデータ取得部3827は、CV演算部3826で得られた精度の高いCV演算データを取得して出力する。このCV演算データは、必要に応じて時刻同期CVデータ記録部3828に記録される。
The CV calculation unit 3826 generates a low-scale ground video and a high-scale aerial video from a low-scale feature point, a high-scale feature point, and a weight common feature point. Perform CV calculation by integrating all together.
The CV data acquisition unit 3827 acquires and outputs highly accurate CV calculation data obtained by the CV calculation unit 3826. The CV calculation data is recorded in the time synchronization CV data recording unit 3828 as necessary.

以上のようにして、本実施形態では、目的地点が映っているスケールの異なる映像を複数用意して、それぞれをCV演算し、スケールの大きい映像(縮尺率の大きい映像、例えば空撮映像)のCV値で、小さいスケールの映像(縮尺の小さい映像、例えば地上撮影像)全体をキャリブレーションすることで、小さいスケール側の映像のCV値の誤差の累積を除去することができる。
なお、空撮映像において、計測範囲に対して十分高度が高ければ、カメラ位置を無限大と見なすことができ、このことは二次元地図を高度無限大からの空撮映像として扱うことで、空撮映像の替わりに二次元地図を用いることができることを示している。
As described above, in the present embodiment, a plurality of images with different scales showing the destination point are prepared, and each of them is subjected to CV calculation, and a large-scale image (an image with a large scale, for example, an aerial image) By calibrating the entire small scale image (a small scale image, for example, a ground image) with the CV value, it is possible to eliminate accumulation of errors in the CV value of the small scale image.
In aerial images, if the altitude is sufficiently high relative to the measurement range, the camera position can be regarded as infinite. This is because the 2D map is treated as an aerial image from altitude infinite. It shows that a two-dimensional map can be used instead of a captured image.

[地図を備えた高精度CV演算]
次に、図39を参照して、地図を備えた高精度CV演算装置391の実施形態について説明する。
同図に示す本実施形態の高精度CV演算装置391は、データ生成部3920に二次元地図部3921を備えている。
二次元地図部3921は、記載された地点の二次元座標が既知として与えられた地図である。
[High-precision CV calculation with map]
Next, with reference to FIG. 39, an embodiment of a high-precision CV arithmetic device 391 having a map will be described.
The high-precision CV arithmetic device 391 of the present embodiment shown in the figure includes a two-dimensional map unit 3921 in the data generation unit 3920.
The two-dimensional map unit 3921 is a map in which the two-dimensional coordinates of the described points are given as known.

また、データ生成部3920は、特徴点抽出部3922a,特徴点追跡部3922b,CV演算部3922cを備えたCVデータ取得部3922を備える。
特徴点抽出部3922aは、全周ビデオ映像記録部の映像の中に、追跡の手がかりとなる特徴点を抽出する。
特徴点追跡部3922bは、特徴点を複数の隣接する画像フレームの中にその対応点を追跡する。
CV演算部3922cは、複数の特徴点の対応点と、カメラ位置座標が作る三角形を解析して、カメラの三次元位置と3軸回転姿勢を求める。
から成り、CVデータを取得するCVデータ取得部を設置する。
The data generation unit 3920 includes a CV data acquisition unit 3922 including a feature point extraction unit 3922a, a feature point tracking unit 3922b, and a CV calculation unit 3922c.
The feature point extraction unit 3922a extracts a feature point serving as a clue to tracking from the video of the all-around video video recording unit.
The feature point tracking unit 3922b tracks feature points in a plurality of adjacent image frames.
The CV calculation unit 3922c analyzes the corresponding points of the plurality of feature points and the triangle formed by the camera position coordinates, and obtains the three-dimensional position and the three-axis rotation posture of the camera.
The CV data acquisition part which acquires CV data is comprised.

時間軸整合部3930は、共通点検出部3931を備える。
共通点検出部3931は、二次元地図部の地点二次元座標と対応する全周ビデオ映像の内の共通地点部分を検出する。この共通点検出処理は自動でも手動でも良い。
ここで、共通点部分とは、共通する「点」でも良いが、形状を持つものの方が検出しやすいので、道路形状や交差点形状や構造物立体形状や、複数の構造体の一部で作る立体空間等が有利である。そこで映像と地図の共通形状を検出して、その形状を構成する複数の点群を共通点とするのが適している。
The time axis alignment unit 3930 includes a common point detection unit 3931.
The common point detection unit 3931 detects a common point portion in the all-around video image corresponding to the point two-dimensional coordinates of the two-dimensional map unit. This common point detection process may be automatic or manual.
Here, the common point portion may be a common “point”, but a shape having a shape is easier to detect. Therefore, the common point portion is formed by a road shape, an intersection shape, a three-dimensional structure, or a part of a plurality of structures. A three-dimensional space is advantageous. Therefore, it is suitable to detect a common shape of the image and the map and use a plurality of point groups constituting the shape as a common point.

CV補正部3940は、共通点三次元座標演算部3941,共通点二次元座標検出部3942,二次元平面座標変換部3943,共通点二次元形状比較部3944,共通点領域CV値補正部3945,CV補正演算部3946を備える。
共通点三次元座標検出部3941は、CV演算データにより共通点検出部3931で検出された共通地点の三次元座標を演算により求める。
二次元平面座標変換部(オルソ変換部)3943は、全周ビデオ映像から得られた共通点の三次元座標を二次元平面に投影して複数の共通点二次元座標を変換・生成する。
The CV correction unit 3940 includes a common point three-dimensional coordinate calculation unit 3941, a common point two-dimensional coordinate detection unit 3944, a two-dimensional plane coordinate conversion unit 3944, a common point two-dimensional shape comparison unit 3944, a common point region CV value correction unit 3945, A CV correction calculation unit 3946 is provided.
The common point three-dimensional coordinate detection unit 3941 obtains the three-dimensional coordinates of the common point detected by the common point detection unit 3931 from the CV calculation data by calculation.
A two-dimensional plane coordinate conversion unit (ortho conversion unit) 3944 projects and outputs a plurality of common point two-dimensional coordinates by projecting the three-dimensional coordinates of the common points obtained from the all-around video image onto the two-dimensional plane.

共通点二次元座標検出部3942は、共通点検出部3931で検出された共通地点の二次元地図上の二次元座標を検出する。
共通点二次元形状比較部3944は、二次元地図部3921のデータから得られた共通点二次元座標(比較信号1)と、全周ビデオ映像から得られた共通点の三次元座標を二次元平面に投影して得られた複数の共通点二次元座標(比較信号2)とを比較する。
共通点領域CV値補正部3945は、比較される両二次元座標の差分を検出し、差分が最小になるような、両者の比較信号の位置座標を決定し、さらに、同一比率でもう一つの座標軸方向の座標を補正し、共通点の補正量をその周囲に分散的に配分し、共通点の補正の影響を周囲に分散させることでCV値の位置座標全体を補正するCV値の位置座標と置換する。
The common point two-dimensional coordinate detection unit 3942 detects the two-dimensional coordinates on the two-dimensional map of the common point detected by the common point detection unit 3931.
The common point two-dimensional shape comparison unit 3944 uses the two-dimensional common point two-dimensional coordinates (comparison signal 1) obtained from the data of the two-dimensional map unit 3921 and the three-dimensional coordinates of the common points obtained from the all-around video image. A plurality of common point two-dimensional coordinates (comparison signal 2) obtained by projecting on a plane are compared.
The common point region CV value correction unit 3945 detects the difference between the two-dimensional coordinates to be compared, determines the position coordinates of the comparison signals of the two so that the difference is minimized, and further, another point with the same ratio. The coordinates of the CV value are corrected by correcting the coordinates in the coordinate axis direction, distributing the correction amount of the common point in a distributed manner, and distributing the influence of the correction of the common point in the periphery. Replace with

CV補正演算部3946は、共通点部分で、地図と一致したカメラ位置座標データを固定し、共通点と特徴点追跡結果を使って再度CV演算をして、より精度の高い3軸回転データを取得する。
以上の補正・再演算により精度が高まった補正CV値は、高精度CVデータ出力部3950のCVデータ出力部3951により出力される。
なお、図39の高精度CV演算装置391では、各要素を図1〜2に示した高精度CV演算装置1の基本構成に対応させて分類したが、図40に示す高精度CV演算装置401のように、本実施形態に係る各要素4021〜4027を、CVデータ取得部4028までの高精度化処理と捉えることもでき、その場合には、各要素をすべてデータ生成部4020として位置づけることも可能である。
The CV correction calculation unit 3946 fixes the camera position coordinate data that matches the map at the common point portion, performs the CV calculation again using the common point and the feature point tracking result, and obtains more accurate three-axis rotation data. get.
The corrected CV value whose accuracy has been improved by the above correction / recalculation is output by the CV data output unit 3951 of the high-precision CV data output unit 3950.
39, each element is classified according to the basic configuration of the high-precision CV arithmetic device 1 shown in FIGS. 1 and 2, but the high-precision CV arithmetic device 401 shown in FIG. As described above, the elements 4021 to 4027 according to the present embodiment can be regarded as high-precision processing up to the CV data acquisition unit 4028. In this case, all the elements can be positioned as the data generation unit 4020. Is possible.

[既知三次元点を用いた高精度CV演算]
次に、図41を参照して、既知の三次元点を用いて高精度CV演算を行う高精度CV演算装置411の実施形態について説明する。
取得された映像内にカメラ位置ではなく既知の三次元点を探すことができれば、既知の点まで計測器を移動させることなく、映像内の三次元座標を使って、キャリブレーションできることが可能であり、本実施形態では、このような既知三次元点を用いて高精度CV演算を行うことを特徴としている。
[High-precision CV calculation using known 3D points]
Next, with reference to FIG. 41, an embodiment of a high-precision CV calculation device 411 that performs high-precision CV calculation using known three-dimensional points will be described.
If you can find a known 3D point instead of the camera position in the acquired image, you can calibrate using the 3D coordinates in the image without moving the measuring instrument to the known point. In the present embodiment, high-precision CV calculation is performed using such known three-dimensional points.

具体的には、本実施形態の高精度CV演算装置411は、既知の三次元点情報を有する地図部4121を備えている。
地図部4121は、二次元座標が既知として与えられた三次元地図4121a、二次元地図上に複数点の既知の三次元座標点を座標とともに記した既知三次元点記載地図4121b、三次元地図の形態をなさないが既知の複数点の三次元座標を印した三次元地点リスト4121cのうちの何れか、又はその複数の組み合わせによる地図部を構成している。
GPSを定点で長時間かけて計測した三次元データ等がこれに相当する。
また、正確な三次元地図が先に存在している場合もこれに相当する。
Specifically, the high-precision CV calculation device 411 of the present embodiment includes a map unit 4121 having known three-dimensional point information.
The map unit 4121 includes a three-dimensional map 4121a in which two-dimensional coordinates are given as known, a known three-dimensional point description map 4121b in which a plurality of known three-dimensional coordinate points are described together with coordinates on the two-dimensional map, Although it does not form, the map part by any one of the three-dimensional spot list | wrist 4121c which marked the three-dimensional coordinate of the known several points, or its combination is comprised.
This corresponds to three-dimensional data obtained by measuring GPS at a fixed point for a long time.
This also corresponds to the case where an accurate three-dimensional map exists in advance.

共通点検出部4123aは、地図部4121の既知の三次元地点と、対応する全周ビデオ映像記録部4122aから出力される画像フレームの中に共通地点部分を検出する。
共通特徴点追跡部4123bは、共通点地点部分を共通特徴点として、全周ビデオ映像記録部4122aの複数の画像フレームの中に対応地点を見つけることで追跡する。
共通特徴点点重み付け部4123cは、共通特徴点を一般特徴点と区別して、演算時の優先順位を決める重み付けをする。ここでは、共通特徴点を一般特徴点に対してどの程度優先させて演算するかを決定する。
The common point detection unit 4123a detects a common point portion in a known three-dimensional point of the map unit 4121 and an image frame output from the corresponding all-around video image recording unit 4122a.
The common feature point tracking unit 4123b uses the common point portion as a common feature point to track by finding corresponding points in the plurality of image frames of the all-around video image recording unit 4122a.
The common feature point weighting unit 4123c distinguishes the common feature points from the general feature points and performs weighting for determining the priority order during the calculation. Here, how much priority is given to the common feature points over the general feature points is determined.

CV演算部4122dは、重み付けされた複数の共通特徴点の追跡結果と、一般特徴点追跡部4122cによる一般特徴点の追跡結果と、カメラの三次元位置座標とが作る複数の三角形を解析して、カメラの三次元位置と3軸回転姿勢を演算で求める。
CV値は、三次元位置座標と3軸回転姿勢を持つが、ここではCV値と同時に得られる一般特徴点及び共通特徴点の三次元座標に着目する。すなわち、ここでは、CV値を取得することは、特徴点の三次元座標を取得することと同じ意味として扱う。
共通点三次元座標検出部4124aは、CV演算部4122dからCV値と同時に出力される出力される共通特徴点の三次元座標を取得する。原理的には、CV値は特徴点の三次元座標と同時に求まるので、CV値と特徴点の三次元出力の同時出力が可能である。
The CV calculation unit 4122d analyzes a plurality of triangles formed by the tracking result of the plurality of weighted common feature points, the tracking result of the general feature points by the general feature point tracking unit 4122c, and the three-dimensional position coordinates of the camera. Then, the three-dimensional position of the camera and the three-axis rotation posture are obtained by calculation.
The CV value has a three-dimensional position coordinate and a three-axis rotation posture. Here, attention is paid to the three-dimensional coordinates of the general feature point and the common feature point obtained simultaneously with the CV value. That is, here, acquiring the CV value is treated as the same meaning as acquiring the three-dimensional coordinates of the feature point.
The common point three-dimensional coordinate detection unit 4124a acquires the three-dimensional coordinates of the common feature point that is output simultaneously with the CV value from the CV calculation unit 4122d. In principle, since the CV value is obtained simultaneously with the three-dimensional coordinates of the feature point, the CV value and the three-dimensional output of the feature point can be output simultaneously.

共通点三次元座標比較部4124bは、地図部4121のデータから既知として得られている共通点三次元座標と、共通特徴点の三次元座標を比較する。
三次元差分検出部4124cは、比較される両三次元座標の差分を検出する。
一般特徴点三次元化部4125は、CV演算部4122dから出力される一般特徴点の三次元座標を取得する。
画像二次元差分検出部4126は、一般特徴点三次元化部4125で取得された一般特徴点の三次元座標を、全周ビデオ映像記録部4122aから出力される各フレームの中の映像面に投影した二次元座標と、全周ビデオ映像記録部4122aから出力される各フレームの中の一般特徴点の全周ビデオ映像の映像面での二次元座標との二次元差分を検出する。
The common point three-dimensional coordinate comparison unit 4124b compares the common point three-dimensional coordinates obtained as known from the data of the map unit 4121 with the three-dimensional coordinates of the common feature points.
The three-dimensional difference detection unit 4124c detects a difference between both three-dimensional coordinates to be compared.
The general feature point three-dimensionalization unit 4125 acquires the three-dimensional coordinates of the general feature points output from the CV calculation unit 4122d.
The image two-dimensional difference detection unit 4126 projects the three-dimensional coordinates of the general feature points acquired by the general feature point three-dimensionalization unit 4125 onto the video plane in each frame output from the all-around video image recording unit 4122a. A two-dimensional difference between the two-dimensional coordinates and the two-dimensional coordinates of the general feature points in each frame output from the all-around video image recording unit 4122a on the image plane of the all-around video image is detected.

そして、CV補正演算部4127により、以上の三次元差分と二次元差分が、最小になるように、CV演算のパラメータを変更して、CV演算部4122dでのCV演算を繰り返し行う。
以上の補正・再演算により精度が高まった補正CV値は、CVデータ取得部4128により取得・出力される。
Then, the CV calculation parameters are changed by the CV correction calculation unit 4127 so that the three-dimensional difference and the two-dimensional difference are minimized, and the CV calculation in the CV calculation unit 4122d is repeated.
The corrected CV value whose accuracy has been improved by the above correction / recalculation is acquired and output by the CV data acquisition unit 4128.

[三次元地図生成装置]
次に、以上のような本発明の高精度CV演算装置を備えた三次元地図生成装置の具体的な実施形態について説明する。
まず、図42を参照して、本発明に係る三次元地図の一実施形態の基本構成について説明する。
図42は、本発明に係る高精度CV演算装置を備えた三次元地図生成装置4200の基本構成を示すブロック図である。
三次元地図生成装置4200は、上述した本発明に係る高精度CV演算装置421を備えるとともに、以下に示す対象物指定部4210,対象物三次元計測部4220,三次元地図部品生成部4320,三次元空間定義部4240,対象物地点測量部4250,三次元座標決定部4260,三次元地図出力部4270の各部を備えている。
[3D map generator]
Next, a specific embodiment of the three-dimensional map generation apparatus provided with the high-precision CV arithmetic apparatus of the present invention as described above will be described.
First, with reference to FIG. 42, a basic configuration of an embodiment of a three-dimensional map according to the present invention will be described.
FIG. 42 is a block diagram showing a basic configuration of a 3D map generation apparatus 4200 provided with a high-precision CV arithmetic apparatus according to the present invention.
The three-dimensional map generation device 4200 includes the high-precision CV calculation device 421 according to the present invention described above, and also includes an object designation unit 4210, an object three-dimensional measurement unit 4220, a three-dimensional map component generation unit 4320, and a tertiary Each unit includes an original space definition unit 4240, an object spot surveying unit 4250, a 3D coordinate determination unit 4260, and a 3D map output unit 4270.

対象物指定部4210は、全周ビデオ映像と各フレームに対応したCVデータ取得部からの出力から、全周ビデオ映像の中に有って、三次元地図として表現するべき対象物を、自動又は手動で指定する。
対象物三次元計測部4220は、地図として取り入れるべき対象物を、対象物指定部4210で指定し、当該対象物を三次元計測する。
三次元地図部品生成部4230は、対象物指定部4210で三次元計測されたデータから、三次元地図に記載する形式で三次元部品を生成する。
三次元空間定義部4240は、三次元地図としての三次元空間を三次元座標で定義する。
対象物地点測量部4250は、対象物の実空間座標上の位置を測量して、その三次元座標を求める。
三次元座標決定部4260は、三次元地図部品を、三次元空間定義部4240で定義された仮想三次元空間内に、測量で求められた三次元座標により三次元配置を決定する。
そして、三次元地図出力部4270は、上記の三次元地図部品の三次元座標配置を繰り返して三次元地図を出力する。
The object specifying unit 4210 automatically or automatically selects an object to be expressed as a three-dimensional map in the all-around video image from the all-around video image and the output from the CV data acquisition unit corresponding to each frame. Specify manually.
The target object three-dimensional measuring unit 4220 specifies a target object to be taken in as a map by the target object specifying unit 4210, and three-dimensionally measures the target object.
The three-dimensional map component generation unit 4230 generates a three-dimensional component in the format described in the three-dimensional map from the data three-dimensionally measured by the object specifying unit 4210.
The three-dimensional space definition unit 4240 defines a three-dimensional space as a three-dimensional map with three-dimensional coordinates.
The object spot surveying unit 4250 surveys the position of the object on the real space coordinates to obtain the three-dimensional coordinates.
The three-dimensional coordinate determination unit 4260 determines the three-dimensional arrangement of the three-dimensional map component in the virtual three-dimensional space defined by the three-dimensional space definition unit 4240 based on the three-dimensional coordinates obtained by surveying.
Then, the 3D map output unit 4270 repeats the 3D coordinate arrangement of the 3D map component and outputs a 3D map.

次に、図43及び図44を参照して、本実施形態の三次元地図生成装置4200における具体的な処理動作について説明する。
まず、CV値の誤差累積を防ぐために、図43に示すように、地図生成のための測量走行車輌を一定区間で交差するように走行させる。
このようにすることで、共通の特徴点を用いることができるので、誤差の累積をかなり防ぐことが可能となる。
また、スケールキャリブレーションのために、空撮と地上撮をCV演算で結合して、同時にCV値を求めることで、誤差累積を低減することができる。
地上撮CV演算と空撮CV演算とを適宜結合して、結合係数を設定し、近距離誤差と長距離誤差を分離して調節する。
先にCV結合を行い、その後に部分スケール調整を行う。
短距離はCV値から三角形で距離演算し、長距離はCV値から、カメラ座標を積算して、フレーム間距離を出す。フレーム間距離は空撮CVを使う。
Next, with reference to FIGS. 43 and 44, a specific processing operation in the 3D map generation apparatus 4200 of the present embodiment will be described.
First, in order to prevent the error accumulation of the CV value, as shown in FIG. 43, a surveying traveling vehicle for generating a map is caused to travel so as to intersect in a certain section.
By doing in this way, since a common feature point can be used, accumulation of errors can be considerably prevented.
For scale calibration, aerial photography and ground photography are combined by CV calculation, and the CV value is obtained at the same time, so that error accumulation can be reduced.
The ground shooting CV calculation and the aerial shooting CV calculation are appropriately combined, a coupling coefficient is set, and the short distance error and the long distance error are separated and adjusted.
CV coupling is performed first, and then partial scale adjustment is performed.
The short distance is calculated with a triangle from the CV value, and the long distance is calculated from the CV value by integrating the camera coordinates to obtain the interframe distance. Aerial CV is used for the distance between frames.

実際の作業としては、図31に示すように行う。なお、以下の操作はビュア(表示手段)上に表示される表示内容に従って行えるようにすることができる。
対象物指定部4410での操作としては、以下の対象部指定操作を行う。
・マウス操作による地点指定
・マウス操作による直線指定
・マウス操作による輪郭指定
・マウス操作による面指定
The actual work is performed as shown in FIG. The following operations can be performed according to the display contents displayed on the viewer (display means).
As an operation in the object specifying unit 4410, the following object unit specifying operation is performed.
-Point specification by mouse operation-Line specification by mouse operation-Outline specification by mouse operation-Surface specification by mouse operation

次に、対象物三次元計測部4420において、以下のようにして対象物の形状を取得する。これは、地上撮影CVを中心に、対象物に対して近距離の場合の操作である。
・指定点部分切り取り
・指定点周囲画像切り取り
・特徴点抽出
・特徴点と指定点の位置関係取得
・指定点周囲画像の隣接フレームへの追跡
・特徴点の隣接フレームへの追跡
・指定点部分の位置決め
・CV値による指定点三次元計測
Next, in the object three-dimensional measurement unit 4420, the shape of the object is acquired as follows. This is an operation in the case of a short distance from the object centering on the ground photography CV.
・ Cut the specified point part ・ Cut the image around the specified point ・ Extract the feature point ・ Acquire the positional relationship between the feature point and the specified point ・ Track the surrounding image of the specified point to the adjacent frame ・ Track the feature point to the adjacent frame ・ The specified point part Specified point 3D measurement by positioning and CV value

さらに、対象物地点測量部4430において、以下のように対象物の空間配置を取得する。これは、空撮CV映像が主体の場合の操作である。
・始点の位置指定
・始点の座標の部分画像追跡→三次元位置計測
・終点の位置指定
・終点の座標の部分画像 追跡→三次元位置計測
・指定点周囲画像の隣接フレームへの追跡
以上のようにして、三次元地図生成が行えるようになる。
Further, in the object point surveying unit 4430, the spatial arrangement of the object is acquired as follows. This is an operation in the case where the aerial CV video is mainly used.
・ Specify the start point ・ Partial image tracking of the coordinates of the start point → 3D position measurement ・ Specify the end point ・ Partial image of the coordinates of the end point Tracking → 3D position measurement ・ Track the surrounding image of the specified point to the adjacent frame Thus, 3D map generation can be performed.

[PRM三次元地図生成装置]
次に、図45を参照して、PRM技術を付加した三次元地図生成装置の実施形態について説明する。
同図に示す三次元地図生成装置4500は、図42で示した基本構成の三次元地図生成装置にPRM技術を付加したことを特徴とするものである。
ここで、PRMとは、Parts Reconstruction Method(3D空間認識方法)の略であり、本願発明者により開発された対象物を認識するための技術である(国際出願PCT/JP01/05387号参照)。具体的には、PRM技術は、前もって予想される対象物の形状と属性を部品(オペレータ部品)としてすべて用意しておき、それら部品と現実の実写映像を対比して、一致する部品を選択して対象物を認識する技術である。例えば、走行車輌等に必要となる対象物の「部品」は、道路標示としての車線、白線、黄線、横断道、道路標識としての速度標識、案内標識などであり、これらは定形のものであるので、PRM技術によりその認識は容易に行える。また対象物をCV映像中に検索する場合においても、その対象物の存在する予想三次元空間を狭い範囲に限定することが可能となり、認識の効率化が可能となる。
[PRM 3D map generator]
Next, with reference to FIG. 45, an embodiment of a 3D map generation apparatus to which the PRM technology is added will be described.
The 3D map generation apparatus 4500 shown in the figure is characterized by adding the PRM technology to the 3D map generation apparatus having the basic configuration shown in FIG.
Here, PRM is an abbreviation for Parts Reconstruction Method (3D space recognition method), and is a technique for recognizing an object developed by the present inventor (see International Application PCT / JP01 / 05387). Specifically, the PRM technology prepares all the shapes and attributes of the object to be predicted in advance as parts (operator parts), compares these parts with actual live-action images, and selects matching parts. Technology that recognizes objects. For example, “parts” of objects required for traveling vehicles and the like are lanes as road markings, white lines, yellow lines, crossing roads, speed signs as road signs, guide signs, etc. Therefore, the recognition can be easily performed by the PRM technology. Further, even when searching for an object in the CV video, it is possible to limit the expected three-dimensional space in which the object exists to a narrow range, and to improve the efficiency of recognition.

具体的には、本実施形態では、PRM手段として、三次元部品データベース4510,三次元部品候補選択部4520,比較部4530,不一致信号出力部4540,一致信号出力部4550,一致部品選択部4560,部品修正部4570の各部を備えている。
三次元部品データベース4510には、前もって三次元地図を構成する三次元地図部品を複数用意しておく。
三次元部品候補選択部4520は、対象物指定部(図42の4210)で指定された対象物と比較するための候補となる三次元部品をデータベースから引き出して、選択的に用意しておく。
比較部4530は、対象物指定部で指定された全周ビデオ映像の一部分と、三次元部品候補選択部4520から出力される三次元部品とを三次元的に、又は同一面に投影して、比較する。
Specifically, in this embodiment, as the PRM means, a 3D component database 4510, a 3D component candidate selection unit 4520, a comparison unit 4530, a mismatch signal output unit 4540, a match signal output unit 4550, a match component selection unit 4560, Each component correction unit 4570 is provided.
In the three-dimensional parts database 4510, a plurality of three-dimensional map parts constituting a three-dimensional map are prepared in advance.
The three-dimensional component candidate selection unit 4520 extracts a three-dimensional component that is a candidate for comparison with the target specified by the target specifying unit (4210 in FIG. 42) from the database and selectively prepares it.
The comparison unit 4530 projects a part of the all-around video image specified by the object specifying unit and the three-dimensional component output from the three-dimensional component candidate selection unit 4520 three-dimensionally or on the same plane, Compare.

不一致信号出力部4540は、比較部4530で比較した結果不一致の場合に不一致信号を出力し、この不一致信号により、三次元部品候補選択部4520から、次の候補となる三次元部品が、順次に送り出される。
一致信号出力部4550は、比較部4530で比較した結果、一致した場合に一致信号を出力する。
一致部品選択部4560は、上記の一致信号により、三次元部品候補部品選択部4520から最終的に送られた部品を一致部品として出力する。
部品修正部4570は、一致部品が現実の映像と多少異なる場合に、修正して修正部品を生成する。
以上のようにして、修正部品又は修正のない場合には一致部品選択部4560からの一致部品が、三次元地図部品生成部(図42の4230)に送られ、三次元地図が生成されることになる。
The mismatch signal output unit 4540 outputs a mismatch signal when there is a mismatch as a result of the comparison performed by the comparison unit 4530. The mismatch signal causes the 3D component candidate selection unit 4520 to sequentially output the next candidate 3D component. Sent out.
The coincidence signal output unit 4550 outputs a coincidence signal when the comparison unit 4530 matches the result of the comparison.
The matching part selection unit 4560 outputs the part finally sent from the three-dimensional part candidate part selection unit 4520 as a matching part in accordance with the matching signal.
The component correction unit 4570 corrects and generates a corrected component when the matching component is slightly different from the actual video.
As described above, a corrected part or a matching part from the matching part selection unit 4560 is sent to the three-dimensional map part generation unit (4230 in FIG. 42) when there is no correction, and a three-dimensional map is generated. become.

このPRMによる方法は、三次元地図を生成するだけではなく、特に三次元地図の自動更新において極めて有効である。
PRMによる三次元地図はもちろん、一般の三次元地図であっても、既に対象物単位で部品化され、それらの部品の集合として表現されているので、新規生成と同様な方法により、既に座標が既知である旧三次元地図の部品の形状又は属性を、最新の映像内の同じ座標で比較することで、旧データとの差異の有無を確認することができる。
また、新旧の三次元地図の部品を確認するだけではなく、新旧の映像(二次元)間での新旧データの確認も可能である。
This PRM method is very effective not only for generating a three-dimensional map, but particularly for automatically updating a three-dimensional map.
PRM 3D maps as well as general 3D maps are already part-by-object and expressed as a set of these parts, so the coordinates are already set in the same way as for new generation. By comparing the shape or attribute of a known part of the old 3D map with the same coordinates in the latest video, it is possible to confirm whether there is a difference from the old data.
In addition to confirming new and old 3D map parts, it is also possible to confirm old and new data between old and new images (2D).

三次元地図の自動更新装置としての具体的実施の一例を以下に示す。
更新されるべき旧三次元地図を、図45における三次元部品データベース4510に含めておく。
このように自動更新装置においては、旧三次元地図を三次元データベース4510として用いることになる。
旧三次元地図は座標を持つ三次元部品の集合から成っているので、旧三次元地図を構成する各部品の更新の有無を旧三次元地図の部品の配列の順番で行うことができるので、新規に三次元地図を生成するより、かなり効率的になる。
An example of specific implementation as an automatic update device for a three-dimensional map is shown below.
The old three-dimensional map to be updated is included in the three-dimensional component database 4510 in FIG.
Thus, in the automatic updating apparatus, the old three-dimensional map is used as the three-dimensional database 4510.
Since the old 3D map consists of a set of 3D parts with coordinates, it is possible to update each part of the old 3D map in the order of the arrangement of the parts of the old 3D map. This is much more efficient than creating a new 3D map.

三次元部品候補選択部4520では、旧三次元地図を構成する各部品を順番に送り出し、同じ座標の新映像の一部分と比較する。
新映像は三次元部品化して、三次元部品間の比較としてもよいが、新映像は映像(二次元)のまま三次元部品との形状又は属性比較を行う新映像内の部分映像との比較方式の方が簡単であり、ここではこの方式を採用する。
比較部4530により、旧三次元地図の各部品と新映像の座標対応部分との一致不一致を確認し、一致の場合は変更無しとし、旧三次元地図をそのまま新三次元地図とする。
In the 3D part candidate selection unit 4520, each part constituting the old 3D map is sent in order and compared with a part of the new video having the same coordinates.
The new video may be converted into 3D parts and compared between 3D parts, but the new video is compared with the partial video in the new video that compares the shape or attributes of the 3D parts with the video (2D). The method is simpler, and this method is adopted here.
The comparison unit 4530 confirms whether or not the parts of the old 3D map and the coordinate-corresponding portion of the new video match, and if there is a match, no change is made, and the old 3D map is directly used as the new 3D map.

一方、不一致の場合は不一致信号出力部(4540)を三次元部品候補選択部(4520)に送り、候補部品を繰り返し比較をして、一致する部品を探して、その新部品により旧部品を自動更新すれば、三次元地図は部品単位で自動更新されることになり、この作業を自動的に繰り返すことで旧三次元地図は自動更新されることになる。
ここで、三次元地図を自動更新することで何時でも二次元地図に変換できるので、二次元地図の自動更新であっても同様である。
旧三次元地図にはなく、新規に追加される新部品については、新たに三次元地図を生成する上述のPRMによる方法と同様である。
On the other hand, in the case of a mismatch, the mismatch signal output unit (4540) is sent to the three-dimensional component candidate selection unit (4520), the candidate components are repeatedly compared to find a matching component, and the old component is automatically used by the new component. If updated, the 3D map is automatically updated in parts, and the old 3D map is automatically updated by automatically repeating this operation.
Here, since a 3D map can be converted to a 2D map at any time by automatically updating the 3D map, the same applies to the automatic update of a 2D map.
New parts that are newly added but not in the old 3D map are the same as the above-described PRM method for generating a new 3D map.

[空撮映像による三次元地図生成]
次に、図46〜図48を参照して、空撮映像による三次元地図生成を行う三次元地図生成装置の実施形態について説明する。
図46A及び図46Bに示す三次元地図生成装置4600は、空撮映像に基づいて三次元地図生成を行うことを特徴とするものである。
具体的には、図46Aに示すように、三次元地図生成装置4600は、以下のような各要素を備えている。
[3D map generation from aerial images]
Next, with reference to FIGS. 46 to 48, an embodiment of a 3D map generation apparatus that generates a 3D map using an aerial image will be described.
The 3D map generation device 4600 shown in FIGS. 46A and 46B is characterized by generating a 3D map based on aerial images.
Specifically, as shown in FIG. 46A, the 3D map generation apparatus 4600 includes the following elements.

対象範囲指定部4610は、全周ビデオ映像と各フレームに対応したCVデータ取得部の出力から、全周ビデオ映像の中に有って、三次元地図として生成すべき対象範囲を指定する。
計測点密度指定部4620は、上記の対象範囲の中に計測点密度を指定する。
計測点生成部4630は、上記の対象範囲と計測点密度で、計測点を自動的に、あるいは手動で、任意の位置に生成する。
計測点追跡部4640は、上記の計測点を全周ビデオ映像の隣接する複数のフレームに亘って追跡する。
計測点演算部4650は、CVデータ取得部から出力されるCV値と、計測点と追跡による追跡データを取得した計測点により、計測点の三次元座標を演算で求める。
対象範囲測量部4660は、対象範囲にあるすべての計測点の三次元分布を求める。
The target range designation unit 4610 designates a target range to be generated as a three-dimensional map in the all-around video image from the output of the CV data acquisition unit corresponding to the all-round video image and each frame.
The measurement point density specifying unit 4620 specifies the measurement point density in the target range.
The measurement point generator 4630 generates a measurement point at an arbitrary position automatically or manually with the above target range and measurement point density.
The measurement point tracking unit 4640 tracks the measurement points over a plurality of adjacent frames of the all-around video image.
The measurement point calculation unit 4650 calculates the three-dimensional coordinates of the measurement points from the CV value output from the CV data acquisition unit and the measurement points obtained from the measurement data and tracking data obtained by tracking.
The target range surveying unit 4660 obtains a three-dimensional distribution of all measurement points in the target range.

一方、特定計測点指定登録部4680は、全周ビデオ映像の中の対象範囲内に、人工物に多く見られる直線部分から構成される対象物の角や縁や面や立体、又はその一部を特定計測点として、指定して、属性とともに登録する。
特定計測点は、特定されているので、その属性を登録されたまま計測点生成部4630に送られ、一般の計測点と同じように追跡され、演算され、前記計測点演算部4650され、出力される。
特定計測点形成部4690は、計測点演算部4650からの出力の中から、特定計測点のみ抽出し、その属性に適合した形状を与える。
三次元形状生成部4670は、特定計測点形成部4690から出力される特定計測点で形成される三次元形状を生成する。
三次元座標統合部46100は、三次元形状生成部4670で生成された三次元形状を、特定計測点以外の計測点から得られた三次元形状とともに統合する。
そして、上記のように生成・統合された三次元形状が、三次元地図出力部46110により三次元地図として生成・出力される。
On the other hand, the specific measurement point designation registration unit 4680 has a corner, an edge, a surface, a solid, or a part of the object composed of a straight line portion often seen in an artificial object within the target range in the all-round video image. Is designated as a specific measurement point and registered together with the attribute.
Since the specific measurement point is specified, it is sent to the measurement point generation unit 4630 with the attribute registered, and is tracked and calculated in the same manner as a general measurement point, and the measurement point calculation unit 4650 is output. Is done.
The specific measurement point formation unit 4690 extracts only specific measurement points from the output from the measurement point calculation unit 4650, and gives a shape suitable for the attribute.
The three-dimensional shape generation unit 4670 generates a three-dimensional shape formed by the specific measurement points output from the specific measurement point formation unit 4690.
The three-dimensional coordinate integration unit 46100 integrates the three-dimensional shape generated by the three-dimensional shape generation unit 4670 together with the three-dimensional shape obtained from measurement points other than the specific measurement point.
Then, the 3D shape generated and integrated as described above is generated and output as a 3D map by the 3D map output unit 46110.

さらには、本実施形態の三次元地図生成装置4600は、図46Bに示すように、以下の三次元形状生成部4601と結合条件設定部4602を備えることもできる。
三次元形状生成部4601は、計測点の三次元分布をワイヤフレームで表現するワイヤフレーム生成部4601aと、ワイヤフレームに、全周ビデオ映像の対象範囲のテクスチャーを貼り付けるテクスチャー貼り付け部4601bを備える。
また、結合条件設定部4602は、上記の三次元座標分布からワイヤフレームが一義的に定まらない場合に、適切な三次元形状を生成するためのワイヤフレームの結合条件を変更する。
Furthermore, as shown in FIG. 46B, the 3D map generation apparatus 4600 of the present embodiment can also include a 3D shape generation unit 4601 and a combination condition setting unit 4602 described below.
The three-dimensional shape generation unit 4601 includes a wire frame generation unit 4601a that represents a three-dimensional distribution of measurement points in a wire frame, and a texture pasting unit 4601b that pastes the texture of the target range of the all-around video image on the wire frame. .
Further, the combination condition setting unit 4602 changes the combination condition of the wire frame for generating an appropriate three-dimensional shape when the wire frame is not uniquely determined from the above three-dimensional coordinate distribution.

図47及び図48に、以上のような空撮映像から三次元地図を生成する三次元生成装置の具体的な一実施例を示す。
図47(a)に示すような航空機の一部に、図47(b)に示すようにGPS1個と広角ビデオカメラ五台を取りつける。
それぞれのカメラは、図48(a),(b)に示すように、50°×70°程度の視野を持ち、一部視野を重複して地上を撮影する。
カメラ間距離は精度良く計測しておくことで、後の演算に反映させる。また、カメラの取り付け角度については、振動による揺らぎを考慮し、概略設定として、後に演算で求める。
47 and 48 show a specific example of a three-dimensional generation apparatus that generates a three-dimensional map from the aerial image as described above.
One GPS and five wide-angle video cameras are attached to a part of the aircraft as shown in FIG. 47 (a) as shown in FIG. 47 (b).
Each camera has a field of view of about 50 ° × 70 ° as shown in FIGS. 48 (a) and 48 (b), and images the ground with a partial field of view overlapping.
The distance between the cameras is accurately measured and reflected in later calculations. Further, the camera mounting angle is obtained by calculation later as a rough setting in consideration of fluctuation due to vibration.

広角レンズを有する五台のビデオカメラで地上を撮影したビデオ映像は、降格ビデオ映像記録部に同期して記憶する。
各広角カメラからの画像データとGPSデータは、同一の時計による時刻と同時に記録される。
広角ビデオ映像からGPSにより、絶対座標校正を行い、CV演算を行い、CVデータによりGPSデータの揺らぎを補正し、CVデータとしてCVデータ取得部によりCVデータとして取得する。
Video images taken by the five video cameras having wide-angle lenses are stored in synchronization with the demoted video image recording unit.
Image data and GPS data from each wide-angle camera are recorded simultaneously with the time by the same clock.
From the wide-angle video image, absolute coordinate calibration is performed by GPS, CV calculation is performed, fluctuation of GPS data is corrected by CV data, and CV data is acquired as CV data by the CV data acquisition unit.

[二次元動画映像から三次元映像の生成]
次に、図49〜図57を参照して、二次元動画映像から三次元映像を生成する三次元地図生成装置の実施形態について説明する。
図49に示す三次元地図生成装置4700は、二次元動画映像から三次元映像を生成することを特徴とするものである。
具体的には、図49に示すように、三次元地図生成装置4700は、以下のような処理動作を行う各要素を備えている。
[Generation of 3D video from 2D video]
Next, an embodiment of a 3D map generation apparatus that generates a 3D video from a 2D video image will be described with reference to FIGS. 49 to 57.
A 3D map generation apparatus 4700 shown in FIG. 49 generates a 3D video from a 2D video image.
Specifically, as shown in FIG. 49, the 3D map generation apparatus 4700 includes elements that perform the following processing operations.

対象範囲指定部4710は、高精度CV演算装置471からの出力である全周ビデオ映像の中に有って、三次元映像として生成すべき対象範囲を指定する。
図50及び図51に、オペレータの単純ブロック化の例(図51(a)参照)と、オペレータを一般画像に適応して範囲を指定している例(図50,図51(b)参照)を示す。
ここでは、オペレータを用いて、範囲を決めて三次元化することにより演算時間が短くなるメリットがある。もちろん、一度に全域を三次元化することも同様に可能である。
また、対象範囲を限定し、対象物一個程度に狭く指定することで、図45に示したPRMによる三次元地図生成における対象物認識の前段階として、PRM三次元地図生成装置を含めて利用することも可能である。
A target range specifying unit 4710 specifies a target range to be generated as a three-dimensional video in the all-around video video that is output from the high-precision CV arithmetic device 471.
FIGS. 50 and 51 show an example of making the operator a simple block (see FIG. 51A), and an example in which the operator is specified for a general image (see FIGS. 50 and 51B). Indicates.
Here, there is an advantage that the calculation time is shortened by determining the range and making it three-dimensional using an operator. Of course, it is possible to make the entire area three-dimensional at a time.
Further, by limiting the target range and specifying as narrow as one target object, the PRM three-dimensional map generation device is used as a pre-stage of target recognition in the three-dimensional map generation by PRM shown in FIG. It is also possible.

計測点密度指定部4720では、画像安定化部4720aにより、CVデータ取得部から取得したCV値から、動画映像の回転成分を停止した映像が生成される。このとき、3軸回転成分を固定するように、座標変換を施すことは可能である。このことにより、画像は安定化し、カメラ移動による画像の動きは、湧きだし点方向に規定される。
次に、湧きだし点決定部4720bにより、上記の回転成分を停止した時に、動画映像の動きの原点となる湧きだし点が決定される。
In the measurement point density designation unit 4720, the image stabilization unit 4720a generates a video in which the rotation component of the moving image is stopped from the CV value acquired from the CV data acquisition unit. At this time, it is possible to perform coordinate transformation so as to fix the three-axis rotation component. This stabilizes the image, and the movement of the image due to camera movement is defined in the direction of the source point.
Next, the spring point determination unit 4720b determines the spring point that is the origin of the motion of the moving image when the rotation component is stopped.

次いで、画像ブロック分割部4720cにより、映像の指定範囲を画像ブロックに分割する。ここで、画像ブロック分割は、例えば、単純に長方形を単位とした単純ブロック分割による矩形オペレータ、あるいは湧きだし点からエピポーラ線に沿って放射状に伸びる放射線とそれと交わる方向の曲線又は直線が作る領域を単位とする湧きだし点方向オペレータなどを使用して行える。
矩形オペレータは各ブロックをエピポーラ線上に追跡することで、実質的に一次元と扱うことができるので、湧きだし点方向オペレータと同じ結果を得ることができる。
湧きだし点方向オペレータには、画像展開方式により様々なものが考えられる。
Next, the image block dividing unit 4720c divides the designated range of the video into image blocks. Here, image block division is, for example, a rectangular operator based on simple block division in units of rectangles, or a region formed by radiation extending radially from the source point along the epipolar line and a curve or straight line intersecting with the radiation. This can be done using a source point direction operator.
Since the rectangular operator can treat each block on the epipolar line as a substantially one-dimensional object, the same result as the source point direction operator can be obtained.
There are various types of source direction operators depending on the image development method.

エピポーラ線に沿った放射線は、平面変換した画像(遠近法画像)においては直線となるが、メルカトール画像では曲線となる。又、球面展開画像(魚眼レンズの射影方式)でも曲線となるが、前記湧きだし点を画像中心近くに取ることで、直線に近くすることが可能であり、その後の追跡演算には有利である。
なお、オペレータは画像全域まで拡張することが可能である。
図50には、湧きだし点方向オペレータを交通標識部分に適応した例を示す。
また、図52には、平面変換画像における湧きだし点位置と、湧きだし点方向分割オペレータの関係を示す。
The radiation along the epipolar line becomes a straight line in a plane-converted image (perspective image), but becomes a curve in a Mercator image. Also, a spherically developed image (fish-eye lens projection method) is curved, but it is possible to make it close to a straight line by taking the source point near the center of the image, which is advantageous for subsequent tracking calculations.
Note that the operator can expand the entire image.
FIG. 50 shows an example in which the source point direction operator is applied to the traffic sign portion.
FIG. 52 shows the relationship between the source point position in the plane conversion image and the source point direction division operator.

また、図53には、メルカトール画像における湧きだし点位置と吸い込み点位置と、画像分割例として、矩形オペレータと湧きだし点オペレータの例を示す。
同図に示すように、メルカトール画像では、画像分割された各分割領域は、湧きだし点から生成されて、上記のエピポーラ線上を曲線的に移動し、吸い込み点で消失するように運動する。遠近法に対応する平面展開の画像では、上記領域は直線的に移動する。
FIG. 53 shows a source point position and a suction point position in a Mercator image, and examples of a rectangular operator and a source point operator as image division examples.
As shown in the figure, in a Mercator image, each divided region obtained by image division is generated from a spring point, moves on the epipolar line in a curved manner, and moves so as to disappear at the suction point. In a plane development image corresponding to the perspective method, the region moves linearly.

また、各分割領域の実際の運動は、カメラの方向が変化し、移動方向が変化するにつれて、湧きだし点と吸い込み点の位置が刻々変化するので、上記の運動の一部分が、連続的に積み重なる運動きとなる。
回転の方向が変わる一般画像では、上記の状態が微分的に成立する。
画像の回転とカメラ方向を後処理で安定化させることで、上記の状態を連続的に実現することが可能である。すなわち、画像の回転とカメラ方向を安定化させる処理により、湧きだし点と吸い込み点が固定され、回転が無くなり、上記状態が長く保たれることになる。
湧きだし点方向オペレータはこのエピポーラ線とそれに交わるラインとで分割される領域に分割される。なお、図53では垂直線としているが、特に制限はない。
In addition, the actual motion of each divided area changes as the direction of the camera changes, and as the movement direction changes, the position of the source point and the suction point changes every moment, so a part of the above motion is continuously stacked. Become an exerciser.
In a general image in which the direction of rotation changes, the above state is established differentially.
By stabilizing the rotation of the image and the camera direction by post-processing, it is possible to realize the above state continuously. That is, the process of stabilizing the rotation of the image and the camera direction fixes the source point and the suction point, eliminates the rotation, and maintains the above state for a long time.
The source point direction operator is divided into regions divided by this epipolar line and the line intersecting it. In FIG. 53, a vertical line is used, but there is no particular limitation.

以上の点は、図54に示す球面展開画像でも同様である。
図54は、球面展開画像(魚眼レンズの射影方式)における画像分割例とオペレータ例と湧きだし点位置を示す。
具体的には、魚眼レンズの投影法による画像の湧きだし点位置と吸い込み点位置の例を示す。なお、魚眼レンズの投影法には主に2種類有るが、湧きだし点と吸い込み点に関してはどちらも同じことが言える。
画像分割領域は、湧きだし点と吸い込み点の2点間をつなぐエピポーラ線上を曲線的に移動する。曲線ではあるが、湧きだし点が定まれば一義的に決まった経路をたどるので、実質的に一次元ベクトルとして扱うことができる。
The above points are the same in the spherical development image shown in FIG.
FIG. 54 shows an example of image division, an example of an operator, and a source point position in a spherically developed image (fisheye lens projection method).
Specifically, an example of an image spring point position and a suction point position by a fish-eye lens projection method is shown. Although there are mainly two types of fish-eye lens projection methods, the same can be said about the spring point and the suction point.
The image segmentation area moves in a curve on the epipolar line connecting the two points of the spring point and the suction point. Although it is a curve, it can be treated as a one-dimensional vector substantially because it follows a uniquely determined path once the spring point is determined.

以上のようにして画像ブロック分割部4720cで分割された画像ブロックのすべてについて、特徴点抽出部4720dにより特徴点となり得るブロックが抽出される。特徴点はそのまま追跡可能であり、この特徴点を追加してCV演算を再度行うことも可能である。
また、画像ブロックは、境界点抽出部4720eにより、境界線の一部となり得る境界点が抽出される。
さらに、領域点抽出部4720fにより、上記の特徴点及び境界点以外の点を領域点として、その領域点が抽出される。
この特徴点,境界点,領域点を三種の点要素と呼ぶ。
図55に、全ブロックについて特徴点、境界点、領域点を定義して分類したものを示す。
With respect to all the image blocks divided by the image block dividing unit 4720c as described above, blocks that can be feature points are extracted by the feature point extracting unit 4720d. The feature points can be tracked as they are, and the CV calculation can be performed again by adding the feature points.
In addition, boundary points that can be part of the boundary line are extracted from the image block by the boundary point extraction unit 4720e.
Further, the region point extraction unit 4720f extracts the region points using the points other than the feature points and the boundary points as region points.
These feature points, boundary points, and region points are called three types of point elements.
FIG. 55 shows the classification and classification of feature points, boundary points, and area points for all blocks.

そして、画像ブロックの各点は、二次元ゴム紐結合映像生成部4720gにより、湧きだし点から放射状に伸びる線状で結合され、その順番が固定され、かつ、距離関係が自由となるように結合される。
図56にはその二次元ゴム紐結合状況が示してある。
なお、以上の計測密度指定部4720においては、画像安定化部4720aは必ずしも必要ではなく、湧きだし点決定部4720bも必ずしも必要ではなく、その場合には、画像ブロック分割部4720cは、単純に長方形のブロックに分割することでも、特徴点、境界点、領域点の分類は可能である。
もし、画像ブロック分割が湧きだし点に依らずに、長方形のような単純分割である場合には、ゴム紐結合はブロックの順番を変えずに、垂直水平両方向へのゴム紐結合が必要となる。
Then, each point of the image block is combined by a two-dimensional rubber string combined image generation unit 4720g so that the points are radially connected from the spring point, the order is fixed, and the distance relationship is free. Is done.
FIG. 56 shows the two-dimensional rubber string connection state.
In the above measurement density designating unit 4720, the image stabilizing unit 4720a is not necessarily required, and the source point determining unit 4720b is not necessarily required. In this case, the image block dividing unit 4720c is simply a rectangle. It is also possible to classify feature points, boundary points, and region points by dividing the block into blocks.
If the image block division is a simple division like a rectangle without depending on the starting point, the rubber string coupling requires the rubber string coupling in both the vertical and horizontal directions without changing the order of the blocks. .

次に、計測点生成部4730では、まず、特徴点選択部4730aにより、特徴点を計測点として選択する。
また、領域生成部4730bにより、領域点とそれを取り囲む特徴点及び境界点で作る領域を生成する。
最終画像ブロック分類を図57(b)に示す。同図において、境界点又は特徴点に囲まれる閉じた領域点が集合した領域はハッチ部分、不完全な領域は塗潰し部分で分類している。
そして、計測点決定部4730cにより、特徴点を計測点、領域を計測領域として、追跡計測対象として決定する。
Next, in the measurement point generation unit 4730, a feature point is first selected as a measurement point by the feature point selection unit 4730a.
In addition, the region generation unit 4730b generates a region created by the region points and the feature points and boundary points that surround them.
The final image block classification is shown in FIG. In the figure, a region where closed region points surrounded by boundary points or feature points are classified is a hatched portion, and an incomplete region is classified by a filled portion.
Then, the measurement point determination unit 4730c determines the feature point as a measurement point and the region as a measurement region as a tracking measurement target.

計測点追跡部4740においては、計測点としての特徴点、境界点、及び計測領域を、湧き出し点方向に、隣接する複数のフレームの中に追跡する。
特徴点は、そのまま複数の隣接フレームに追跡可能である。
境界点は、湧きだし方向に追跡することで、その対応点が決定できる場合はあるが、一部は決定できない。また、領域点はそれ自身を追跡しても対応点を発見できないが、閉じた領域全域の形状を用いて追跡すれば、追跡可能なものが存在する。
しかしながら、追跡不可能な点であっても、ゴム紐で結合され、配列順番が決定されていることから、また、湧きだし点からの距離と速度は一次関数で表せることから、未知のブロックを比例関係で内装することで、一部の未知のブロックの追跡点を想定することは十分可能である。
The measurement point tracking unit 4740 tracks feature points, boundary points, and measurement areas as measurement points in a plurality of adjacent frames in the direction of the spring point.
The feature points can be traced to a plurality of adjacent frames as they are.
By tracking the boundary points in the direction of springing, the corresponding points may be determined, but some of them cannot be determined. In addition, although a region point cannot be found by tracking itself, there are some points that can be tracked if tracking is performed using the shape of the entire closed region.
However, even if the points cannot be traced, they are connected by rubber straps and the arrangement order is determined, and since the distance and speed from the source point can be expressed by a linear function, unknown blocks can be represented. It is possible to assume tracking points of some unknown blocks by decorating them in proportion.

隣接フレームに亘って追跡する場合、追跡ブロックが湧き出し点の近くにあると、隣接フレームへの追跡を重ねるにつれて、対応する画像ブロックの変化が大きくなるために、単にブロックを移動させて対応を取るだけでは、形状が異なり対応が不完全となる。
その画像ブロックの大きさの変化は、湧き出し点からの距離に依存し、演算可能であり、前もって予想がつく。従って、その予想を反映させて、湧き出し点からの距離の関数として画像ブロックの大きさと形状を変更して、追跡を行うことも可能である。このようにすることで、より適切な追跡が可能となり、追跡精度が向上する。なお、画像ブロック分割部4720cにおいて、湧きだし点を用いずに画像を単純分割した場合には、対応演算は単純化されるが、計測点追跡部において、追跡方向が二次元となることによる非効率化と演算速度の増加というデメリットが発生する。
When tracking over adjacent frames, if the tracking block is near the source point, as the tracking to the adjacent frame increases, the change in the corresponding image block increases. Just taking it makes the shape different and incomplete correspondence.
The change in the size of the image block depends on the distance from the spring point, can be calculated, and can be predicted in advance. Therefore, it is possible to perform tracking by reflecting the expectation and changing the size and shape of the image block as a function of the distance from the spring point. In this way, more appropriate tracking is possible, and tracking accuracy is improved. Note that, when the image block dividing unit 4720c simply divides the image without using the source point, the corresponding calculation is simplified, but the measurement point tracking unit does not use the tracking direction in two dimensions. The demerits of increased efficiency and increased computation speed occur.

計測点演算部4750においては、計測点の追跡結果とCVデータ取得部の出力によるCVデータから、計測点の三次元座標、及び領域の三次元座標を取得する。
ここで、特徴点、及び追跡可能な境界点、追跡可能な閉じた領域点集合については三次元計測が可能となり、その三次元座標を演算で求められる。
In the measurement point calculation unit 4750, the three-dimensional coordinates of the measurement point and the three-dimensional coordinates of the region are acquired from the tracking result of the measurement point and the CV data output from the CV data acquisition unit.
Here, three-dimensional measurement is possible for the feature points, traceable boundary points, and traceable closed region point sets, and the three-dimensional coordinates can be obtained by calculation.

対象範囲測量部4760においては、計測点、及び計測領域を囲む境界点の三次元座標を、対象範囲に亘って繰り返し演算して求め、追跡部において、未だ追跡不可能な画像ブロックがあれば、その画像ブロックを演算済みの既知の三次元座標から内挿で求めて、その三次元位置を予想して、対象範囲を測量する。
追跡不可能な点であっても、ゴム紐で結合され、配列順番が決定されていることから、また、湧きだし点からの距離と速度は実質的に一次関数で表せることから、三次元座標の未知のブロックについては、隣接する三次元座標の既知の画像ブロックから、比例関係で内装することで、未知のブロックの三次元座標を推測できる。
ここでは、対象範囲を限定して処理することにするが、まったく同じ原理と方法で画像全域に亘って、一度の全域変換も可能であるが、演算時間がかかるというデメリットがある。
In the target range surveying unit 4760, the three-dimensional coordinates of the measurement points and the boundary points surrounding the measurement region are repeatedly calculated over the target range, and if there is an image block that cannot be tracked yet in the tracking unit, The image block is obtained by interpolation from the already calculated three-dimensional coordinates, the three-dimensional position is predicted, and the target range is surveyed.
Even if the points cannot be traced, they are connected with rubber straps, and the order of arrangement is determined, and the distance and speed from the source point can be expressed by a linear function, so the three-dimensional coordinates For the unknown block, the three-dimensional coordinates of the unknown block can be inferred from the adjacent image blocks of the three-dimensional coordinates in a proportional relationship.
Here, the processing is limited to the target range, but the entire image can be converted once over the entire image by the same principle and method, but there is a demerit that it takes a calculation time.

三次元形状生成部4770においては、境界線所属分類部4770aにより、特徴点と境界点の三次元座標から、特徴点と境界点が所属する領域を決定する。
次に、ゴム紐切断部4770bにより、特徴点と境界点の所属により、ゴム紐結合の一方を切断して、片方の領域間の結合を立ち、もう一方の領域に結合させる。境界点は一般に連続して複数の領域の境界線を作るが、その複数の領域のどの領域に当該境界点が所属するかを決定しなければならない。また、境界点を先に決めて、その境界点に属する領域を決めることでも同じである。
さらに、三次元ゴム紐結合映像部4770cにより、対象範囲のすべてのブロックを、特徴点、境界点、領域点に分類し、特徴点は計測点として求めた座標で固定し、最後に残った未だ座標の定まらない画像ブロックついてはゴム紐上で内挿し、それぞれの三次元座標を与えることで、すべてのブロックには三次元座標が与えられ、最終的に全ブロックを三次元的にゴム紐で結合する。
In the three-dimensional shape generation unit 4770, the boundary line belonging classification unit 4770a determines the region to which the feature point and the boundary point belong from the three-dimensional coordinates of the feature point and the boundary point.
Next, the rubber cord cutting portion 4770b cuts one of the rubber cord connections by the affiliation of the feature point and the boundary point, and establishes the connection between the one region and connects it to the other region. A boundary point generally forms a boundary line of a plurality of regions in succession, but it is necessary to determine which region of the plurality of regions the boundary point belongs to. It is also the same that the boundary point is determined first and the region belonging to the boundary point is determined.
Furthermore, all blocks in the target range are classified into feature points, boundary points, and area points by the three-dimensional rubber band combination video unit 4770c, and the feature points are fixed at the coordinates obtained as measurement points, and the last remaining still For image blocks whose coordinates are not fixed, by interpolating on the rubber string and giving each three-dimensional coordinate, all blocks are given three-dimensional coordinates, and finally all blocks are three-dimensionally connected with the rubber string. To do.

追跡によって三次元座標が決定されるのは特徴点のみである。境界点は追跡方向を限定できる湧きだし点方向の追跡によって追跡が可能なものがあり、一部はその三次元座標が求められる。また、単純画像ブロックでの分割であれば、各ブロックをエピポーラ線上に追跡すれば、特徴点以外の追跡は困難になるが、ほぼ湧きだし点方向分割と同じ効果が得られ、さらにゴム紐結合により、追跡位置を予想できるし、それができない場合でも、三次元座標が既知となった周囲の特徴点分布から、その三次元座標を推論できる。さらに、領域を作るものについては、その領域の形状そのものを複数の隣接フレームに追跡することで、領域単位の三次元座標を求めることができる。従って、最終的にはすべての画像ブロックは三次元座標を取得することができる。
図57(b)に示す例は二次元ゴム紐結合であるが、これに各ブロックに三次元座標を与えたものが三次元ゴム紐結合となる。
Only the feature points are determined by tracking. Some boundary points can be traced by tracking the source direction, which can limit the tracking direction, and some of the boundary points are required to have three-dimensional coordinates. In addition, in the case of segmentation with simple image blocks, tracking each block on the epipolar line makes it difficult to track other than the feature points. Thus, even when the tracking position can be predicted, the three-dimensional coordinates can be inferred from the surrounding feature point distribution where the three-dimensional coordinates are known. Furthermore, with respect to what creates a region, the shape of the region itself is traced to a plurality of adjacent frames, whereby the three-dimensional coordinates of the region unit can be obtained. Therefore, finally, all image blocks can acquire three-dimensional coordinates.
The example shown in FIG. 57 (b) is a two-dimensional rubber string connection, but three-dimensional rubber string connection is obtained by giving a three-dimensional coordinate to each block.

三次元座標統合部47100においては、画像分割密度変更部47100aにより、三次元ゴム紐結合された画像の分割密度を荒い密度から順次より高密度に変更する。
また、三次元画像記録統合部47100bにより、画像ブロック分割の密度を最初に設定したことによる三次元ゴム紐結合された画像を一旦記録し、次の行程により、より詳細な三次元形状を順次生成し、それを繰り返し、目的の密度まで順次生成し、より詳細な三次元映像を生成する。
三次元ゴム紐結合映像は、最初は粗い三次元形状を生成し、それを修正する形で次第に密の形状の三次元形状を生成する。
以上により生成された三次元形状により、三次元地図出力部で三次元地図が生成・出力される。
In the three-dimensional coordinate integration unit 47100, the image division density changing unit 47100a changes the division density of the image combined with the three-dimensional rubber string from a rough density to a higher density sequentially.
Also, the three-dimensional image recording integration unit 47100b once records the three-dimensional rubber string-coupled image by setting the density of the image block division first, and sequentially generates more detailed three-dimensional shapes by the next process. Then, it is repeated and sequentially generated up to the target density to generate a more detailed three-dimensional image.
The three-dimensional rubber string connection image first generates a rough three-dimensional shape, and then gradually generates a dense three-dimensional shape by correcting it.
Based on the three-dimensional shape generated as described above, a three-dimensional map is generated and output by the three-dimensional map output unit.

なお、映像が単純であれば、一回の三次元ゴム紐結合画像を生成するだけでも十分である。
但し、複雑な形状の対象においては、複数回密度を変更し、次第に細かくしていく作業が必要である。また、対象範囲指定部の指定範囲によっても、密度を変更し、繰り返しを変更することで、画像と範囲に適した、密度変更が必要となる。
If the video is simple, it is sufficient to generate a single three-dimensional rubber string combined image.
However, in the case of a complicated shape, it is necessary to change the density a plurality of times and make it gradually finer. Also, depending on the specified range of the target range specifying unit, changing the density and changing the repetition requires a density change suitable for the image and the range.

以下に、上述した領域分割による領域分けのより具体的な実施例について説明する。
ここで、本発明に係る領域分割による領域分けは、空撮映像においても地上撮映像においても同様に有効であり、それを一般化したものが、図52及び図55〜57に示す例である。
領域分割は、まず、広角ビデオ映像の中に、目的とする測量対象範囲を指定する。図55(a)に示す例では全域の110%を指定した場合である。
次に、対象部分をブロック化する。ブロック化するときに、CVデータから湧きだし点を求めて、湧きだし点からの延長線上に配列されるようにブロック化する(図52(a)参照)。
Hereinafter, a more specific example of the area division by the area division described above will be described.
Here, the area division by the area division according to the present invention is equally effective in the aerial image and the ground image, and a generalized example is shown in FIGS. 52 and 55 to 57. .
In the area division, first, a target survey target range is designated in a wide-angle video image. In the example shown in FIG. 55A, 110% of the entire area is designated.
Next, the target portion is blocked. When making a block, a spring point is obtained from the CV data, and is blocked so as to be arranged on an extension line from the spring point (see FIG. 52A).

また、湧きだし点を中心とする放射直線と同心円状で作られるブロックに分割する。このブロックは後の追跡等により、その位置を変えても、ゴム紐で結合された短冊を伸び縮するようにその隣接ブロックとの関係は保たれる。これが二次元ゴム紐結合映像である(図52(b)参照)。
この二次元ゴム紐映像の生成処理により、後の追跡作業が容易になる。追跡はこの放射直線上を追跡すればよいことになる。
対象指定範囲の全領域をブロック化し、各ブロックを自己相関演算により、内部にピークを持つブロックを特徴点とし、ピークを持つが縁に位置する場合を境界線候補とし、それ以外を図及び地とする。
Also, it is divided into blocks that are concentric with the radial line centered at the spring point. Even if the position of this block is changed by subsequent tracking or the like, the relationship with the adjacent block is maintained so that the strip connected by the rubber string is expanded and contracted. This is a two-dimensional rubber string coupling image (see FIG. 52B).
This two-dimensional rubber string video generation process facilitates subsequent tracking work. The tracking may be performed on this radiation line.
Block the entire area of the target specification range, and each block is subjected to autocorrelation, and the block with a peak inside is used as a feature point. And

図及び地の領域はそれを塗りつぶして図57(a)のようになる。
この段階で、図と地の区別はまだ無いが、特徴点、及び輪郭候補点に囲まれているものが図であり、囲まれていないものが地となる。それを分離したものが図57(b)である。
この段階で、映像はブロックに分割され、それぞれのブロックは特徴点、境界線、図、地の4種類に分割され、しかも各ブロックは前記4種類の何れかに属することになる。ただし、全周映像では最終的に図と地の区別はなくなる。
さらに、地を除く三種類から、輪郭を形成する点と、図となる領域と地となる領域に分類することができる。
The area of the figure and the ground is filled in as shown in FIG.
At this stage, there is no distinction between the figure and the ground, but the figure surrounded by the feature points and the contour candidate points is the figure, and the one not enclosed is the ground. FIG. 57 (b) shows a separated version.
At this stage, the video is divided into blocks, and each block is divided into four types of feature points, boundary lines, diagrams, and grounds, and each block belongs to one of the four types. However, in the all-round video, there is no distinction between the figure and the ground.
Furthermore, from the three types excluding the ground, it is possible to classify into points that form contours, regions that are illustrated, and regions that are ground.

特徴点の中から近距離に重なる部分や、移動体部分等の不適切なものを排除し、を計測点と決定し、計測点を映像内に追跡する。
計測点と既に求められているCVデータから、各計測点の三次元座標を演算で求める。
この計測点演算出力から、矛盾する計測結果を排除して、対象範囲の三次元座標の分布を求める。
そして、特徴点、領域境界、図、地等の分類により、映像の全ブロックを反映させた三次元ゴム紐結合映像を生成する。
A portion that overlaps a short distance from a feature point or an inappropriate part such as a moving body is excluded, and is determined as a measurement point, and the measurement point is tracked in the video.
From the measurement points and the already obtained CV data, the three-dimensional coordinates of each measurement point are obtained by calculation.
From this measurement point calculation output, the contradictory measurement results are excluded, and the three-dimensional coordinate distribution of the target range is obtained.
Then, a three-dimensional rubber string combined image reflecting all blocks of the image is generated by classification of feature points, region boundaries, diagrams, grounds, and the like.

一方、測量対象範囲の中で、特に重要となる特定計測点を手動により指定して、登録する。特定計測点とは、画像の中の垂直部分、水平部分、直角部分等の人工構造物に由来する部分を特定することで、後の三次元地図の精度を向上させる。また、その属性を記憶させておいて、後に垂直水平部分を三次元地図に反映させる。特定計測点の中から、演算に適しないものを排除して、適切な特定計測点を決定する。
そして、特定計測点を広角ビデオ映像内に追跡し、追跡結果とCVデータから、特定計測点の演算を行う。このとき、特定計測点の垂直、水平等の属性を反映させる。
On the other hand, specific measurement points that are particularly important in the survey target range are manually specified and registered. The specific measurement point specifies a part derived from an artificial structure such as a vertical part, a horizontal part, or a right-angled part in the image, thereby improving the accuracy of the subsequent three-dimensional map. Further, the attribute is stored, and the vertical and horizontal portion is later reflected on the three-dimensional map. From the specific measurement points, those that are not suitable for calculation are excluded, and appropriate specific measurement points are determined.
Then, the specific measurement point is tracked in the wide-angle video image, and the specific measurement point is calculated from the tracking result and the CV data. At this time, the vertical and horizontal attributes of the specific measurement point are reflected.

三次元ゴム紐結合された三次元画像は既に三次元地図であり、この段階でも三次元地図として利用できるが、さらに精度を高めるためには特徴点となった計測点でサンプリングするポリゴン化に分解することができる。
ポリゴン化した骨格には既に三次元ゴム紐化した三次元映像がテクスチャーとして貼り付けてあるので、この場合はテクスチャー貼り付け部(図46Bの4601b)は不要となる。
ポリゴンの結節点は現実に合わせて、関係を調整するポリゴン生成条件を設定する。ポリゴンの結合関係は一義的に定まらないので、現実に合わせる必要があるためである。
The 3D image combined with the 3D rubber string is already a 3D map, and can be used as a 3D map at this stage as well. can do.
Since the 3D image formed as a 3D rubber string has already been pasted as a texture on the polygonal skeleton, in this case, the texture pasting portion (4601b in FIG. 46B) is not necessary.
Polygon nodal points are set with polygon generation conditions for adjusting the relationship according to the actual situation. This is because the connection relationship between the polygons is not uniquely determined and needs to be matched to reality.

三次元ゴム紐結合映像、又はポリゴン化された三次元映像と、特定計測点測量の出力を座標統合し、その過程で特定特徴点の属性を取り入れて三次元座標統合する。
そして、統合されたものを三次元地図として出力する。
このようにすることで、空撮映像から直接三次元地図を生成することができる。
撮影時点では、カメラ姿勢、即ち航空機の姿勢を心配することなく、オルソ化もすることなく、動画映像から直接三次元地図を取得できることは優れた利点となる。
Coordinate integration of 3D rubber band combined image or polygonized 3D image and output of specific measurement point survey, and in the process, integrate the attributes of specific feature points and integrate 3D coordinates.
Then, the integrated one is output as a three-dimensional map.
In this way, it is possible to generate a three-dimensional map directly from an aerial image.
At the time of shooting, it is an excellent advantage that a 3D map can be acquired directly from a moving image without worrying about the camera posture, that is, the posture of the aircraft, and without making it orthorectified.

[複数カメラ視差方式三次元地図生成装置]
次に、図58〜図59を参照して、複数カメラによる視差併用方式の三次元地図生成装置の実施形態について説明する。
図58に示すように、本実施形態の三次元地図生成装置5800は、視野が重複し、視差のあるビデオ映像を取得するための、複数のビデオカメラを有する複数カメラ撮影部5801を備えることを特徴とする。
なお、本実施形態に備えられる高精度CV演算装置は、図17で示した全周カメラを省略して全周カメラの機能を複数カメラに持たせた高精度CV演算装置171に対応するものであるが、勿論、全周カメラを備えた高精度CV演算装置への適用を妨げるものではない。
[Multi-camera parallax 3D map generator]
Next, with reference to FIGS. 58 to 59, an embodiment of a parallax combined type three-dimensional map generation apparatus using a plurality of cameras will be described.
As shown in FIG. 58, the 3D map generation apparatus 5800 of the present embodiment includes a multi-camera photographing unit 5801 having a plurality of video cameras for acquiring video images with overlapping visual fields and parallax. Features.
Note that the high-precision CV calculation device provided in this embodiment corresponds to the high-precision CV calculation device 171 in which the all-around camera shown in FIG. Of course, this does not preclude application to a high-precision CV arithmetic unit equipped with an all-round camera.

本実施形態の三次元地図生成装置は、まず、複数カメラ撮影部5801aと視差方式カメラ座標三次元化部5801bを有する視差方式三次元化装置5801を備える。
視差方式三次元化装置5801は、車載等により移動する、複数のビデオカメラにより撮影される視差のあるビデオ映像により、カメラ位置から対象物までの距離を重複した視野範囲に亘って演算で求めて、カメラ座標三次元距離分布データを取得する。
The 3D map generation apparatus of the present embodiment first includes a parallax 3D conversion device 5801 having a multi-camera imaging unit 5801a and a parallax camera coordinate 3D conversion unit 5801b.
The parallax method three-dimensional apparatus 5801 obtains the distance from the camera position to the target object by calculation over the overlapping visual field range by using video images with parallax captured by a plurality of video cameras moving on a vehicle or the like. The camera coordinate 3D distance distribution data is acquired.

なお、この視差方式三次元化の部分は既に存在する技術であり、装置としても存在している。しかし三次元化した映像は得られるが、それはカメラ座標系の映像であり、カメラ位置から見た三次元化映像であり、カメラが静止していれば十分意味を持つが、カメラが移動した場合には、静止座標系におけるカメラ自身の位置と姿勢が未知となり、従って取得された三次元座標も未知となる。
そこで、本実施形態のような構成とすることにより、カメラ自身の三次元座標を、CV値を求めることでカメラ位置が既知となり、従って取得された映像の三次元データは静止座標系からの距離に変換できることになる。
視差方式カメラ装置の具体例を図59に示す。
Note that this three-dimensional parallax method is an existing technology and also exists as an apparatus. However, although a three-dimensional image can be obtained, it is a camera coordinate system image, which is a three-dimensional image viewed from the camera position, and it is meaningful if the camera is stationary, but if the camera moves In this case, the position and orientation of the camera itself in the stationary coordinate system are unknown, and thus the acquired three-dimensional coordinates are also unknown.
Therefore, by adopting the configuration as in the present embodiment, the camera position is known by obtaining the CV value of the three-dimensional coordinates of the camera itself. Can be converted to.
A specific example of the parallax camera device is shown in FIG.

そして、本実施形態は、上述したような本発明に係る高精度CV演算装置5802を備える。
高精度CV演算装置5802は、画像取得部5802aとCV演算部5802bを備えている。
画像取得部5802aは、複数カメラを代表するカメラからのビデオ映像を取得し、一時記録する。
CV演算部5802bは、同時併設してある他のカメラで取得したCV値からカメラ位置に変換して、代表するカメラ位置のCVデータを取得する。このCV演算処理は、図17で示した高精度CV演算装置171と同様である。
The present embodiment includes the high-precision CV arithmetic device 5802 according to the present invention as described above.
The high-precision CV calculation device 5802 includes an image acquisition unit 5802a and a CV calculation unit 5802b.
The image acquisition unit 5802a acquires and temporarily records video images from cameras representing a plurality of cameras.
The CV calculation unit 5802b converts CV values acquired by other cameras installed at the same time into camera positions, and acquires CV data of representative camera positions. This CV calculation processing is the same as that of the high-precision CV calculation device 171 shown in FIG.

このCV演算は、当該カメラからの映像で直接CV値を求めずに、CV演算に適した画角等を持つ他のカメラを併設して、当該カメラの画角と解像度には関係なく、高精度CV値が得られる。しかも非同期とすることもできるので有利である。
なお、代表するカメラ位置のCVデータを当該カメラの映像から取得することもできる。この場合は、当該カメラを用いるため、CV演算専用カメラではないことから、画角を広角に選べないために画角が狭くなるか、又は解像度が低下する等、演算時のCV値の精度が落ちることになる。
In this CV calculation, a CV value is not directly obtained from the video from the camera, but another camera having an angle of view suitable for the CV calculation is also provided, and the high angle is obtained regardless of the angle of view and resolution of the camera. An accuracy CV value is obtained. Moreover, it can be asynchronous, which is advantageous.
Note that CV data of representative camera positions can also be acquired from the video of the camera. In this case, since the camera is used, it is not a camera dedicated to CV calculation. Therefore, since the angle of view cannot be selected as a wide angle, the angle of view is narrowed or the resolution is lowered. Will fall.

さらに、本実施形態の三次元地図生成装置5800は、静止座標系変換部5803と静止座標系合成結合部5806を備える。
静止座標系変換部5803は、視差方式三次元化装置5801により得られたカメラ座標系における三次元距離分布データを、高精度CV演算装置5802で得られた高精度CV値により、連続的に静止座標系における三次元距離分布データに変換する。
CV値はカメラの三次元位置と3軸回転姿勢を示すので、カメラ座標三次元距離分布データを正確に任意の座標系に変換できる。
静止座標系合成結合部5806は、ビデオ映像の進行とともに、重複しながら連続的に得られる静止座標系における三次元距離分布データを結合して、静止座標系に統合する。
Furthermore, the three-dimensional map generation apparatus 5800 of this embodiment includes a stationary coordinate system conversion unit 5803 and a stationary coordinate system composition combining unit 5806.
The stationary coordinate system conversion unit 5803 continuously converts the three-dimensional distance distribution data in the camera coordinate system obtained by the parallax method three-dimensional device 5801 into the stationary coordinate system using the high-precision CV value obtained by the high-precision CV arithmetic device 5802. Convert to 3D distance distribution data in coordinate system.
Since the CV value indicates the three-dimensional position and the three-axis rotation posture of the camera, the camera coordinate three-dimensional distance distribution data can be accurately converted into an arbitrary coordinate system.
The stationary coordinate system combining / combining unit 5806 combines the three-dimensional distance distribution data in the stationary coordinate system obtained continuously while overlapping with the progress of the video image, and integrates them into the stationary coordinate system.

なお、三次元地図生成は、動画として連続的に変換データが得られるので、データは重複している。従って、それを合成し、重ね合わせることで三次元地図は生成されるが、運動対象物の処理が残っている。
そこで、さらに必要が有れば、以下に示す運動対象物分離部5805及び静止物体分離空間構成部5808を備えることで、運動対象物を分離して、運動対象物と静止体とに分離し表示することができる。
静止物体は重複するか、運動対象物は重複しないので、分離することができる。また、それぞれの領域のCV値から、運動対象物を分離することもできる。
In addition, since 3D map generation continuously obtains converted data as a moving image, the data is duplicated. Therefore, the three-dimensional map is generated by combining and superimposing them, but the processing of the moving object remains.
Therefore, if necessary, the moving object separation unit 5805 and the stationary object separation space constituting unit 5808 shown below are provided to separate the moving object and separate it into a moving object and a stationary object for display. can do.
Since stationary objects overlap or moving objects do not overlap, they can be separated. In addition, the moving object can be separated from the CV value of each region.

従って、運動対象物分離部5805により、時間的変動のある三次元データを分離して、運動対象物として分離記録する。
そして、静止物体分離空間構成部5808により、静止座標系に統合時に、静止座標系における静止物体のみで構成するようにする。
なお、上述したように、CV演算と視差方式とは、相反する性質があり、CVデータ用のカメラと視差方式用の複数カメラの選択や組み合わせのバリエーションとしては、装置の規模やコスト等に応じて最適なものに設定することができる(図21参照)。
Therefore, the moving object separation unit 5805 separates the three-dimensional data with time variation and separates and records it as the moving object.
Then, the stationary object separation space forming unit 5808 is configured to include only the stationary object in the stationary coordinate system when it is integrated into the stationary coordinate system.
As described above, the CV calculation and the parallax method have contradictory properties, and variations in selection and combination of a camera for CV data and a plurality of cameras for the parallax method depend on the scale and cost of the apparatus. Can be set optimally (see FIG. 21).

[航法装置]
次に、図60〜62を参照して、本発明に係る高精度CV演算装置を備えたCV方式航法装置の具体的な実施形態について説明する。
図60に示すように、本実施形態に係るCV方式航法装置6000は、CV方式三次元地図生成装置6001と、三次元地図装置6002,走行経路入力装置6003,車載式カメラと概略CV演算装置6004,対象物空間構成装置6005,対象物認識装置6006,高精度CV演算装置6007,現状判断装置6008,リアルタイム制御装置6009及びリアルタイム表示装置6010の各部を備えている。
[Navigation equipment]
Next, with reference to FIGS. 60 to 62, a specific embodiment of the CV navigation system equipped with the high-precision CV arithmetic device according to the present invention will be described.
As shown in FIG. 60, a CV system navigation device 6000 according to this embodiment includes a CV system 3D map generation device 6001, a 3D map device 6002, a travel route input device 6003, an in-vehicle camera, and a schematic CV calculation device 6004. , An object space constructing device 6005, an object recognizing device 6006, a high-precision CV computing device 6007, a current status judging device 6008, a real-time control device 6009, and a real-time display device 6010.

三次元地図生成装置6001は、上述した本発明に係る三次元地図を生成する高精度CV演算装置を備えるCV方式三次元地図生成装置6001である。
三次元地図装置6002は、CV方式三次元地図生成装置6001により生成され、車載可能とした三次元地図情報を備える。
走行経路入力装置6003は、三次元地図装置6002に、走行に必要な情報を三次元データ及び属性として予めに入力し、途中で変更可能な入力手段である。
車載式カメラと概略CV演算装置6004は、車載カメラから、広角映像データと走行時点の比較的低精度のCVデータを出力する。
The three-dimensional map generation apparatus 6001 is a CV system three-dimensional map generation apparatus 6001 including a high-precision CV arithmetic apparatus that generates the above-described three-dimensional map according to the present invention.
The 3D map device 6002 includes 3D map information that is generated by the CV 3D map generation device 6001 and can be mounted on a vehicle.
The travel route input device 6003 is an input means that can input information necessary for travel to the 3D map device 6002 in advance as 3D data and attributes, and change the information on the way.
The in-vehicle camera and the approximate CV calculation device 6004 output wide-angle video data and relatively low-precision CV data at the time of traveling from the in-vehicle camera.

対象物空間構成装置6005は、出力された概略CVデータにより、走行車輌の現在位置と姿勢を三次元で取得して、三次元地図と概略対応させ、三次元空間構成を検出し、対象物の認識以前に緊急対応が必要な障害物を関知し、最優先で回避及び停止の緊急制御信号をリアルタイム制御装置に送る。そして、対象物空間構成装置6005は、車載式カメラと概略CV演算装置6004により、走行路から可視範囲にあり、走行目的及び交通に関係する複数の対象物からなる三次元空間構成を検出する。
なお、本実施形態の航法装置6000において、図58で示した二台のカメラの視野を重複して視差による三次元画像生成とCV演算を併用すれば、三次元空間構成を検出が容易になり、リアルタイム処理が可能となる。
事故回避の緊急対応として、車輌の前に人間が飛び出す等が考えられるが、車輌の進行方向の空間に、空間構成データから、何らかの物体が進行方向に存在すると判断された場合に、それを人間か否かを認識判断する以前に、緊急判断として、車輌を回避させるか、停止させることで事故を未然に防止する行動を取るようにする。
The object space constructing device 6005 acquires the current position and orientation of the traveling vehicle in three dimensions from the output approximate CV data, roughly corresponds to the three-dimensional map, detects the three-dimensional space structure, Prior to recognition, an obstacle requiring emergency response is recognized, and emergency control signals for avoidance and stop are sent to the real-time control device with the highest priority. Then, the object space constituting apparatus 6005 detects a three-dimensional space structure composed of a plurality of objects that are in a visible range from the traveling road and are related to the purpose of traveling and traffic, by using the in-vehicle camera and the schematic CV calculating apparatus 6004.
In the navigation device 6000 of the present embodiment, the three-dimensional space configuration can be easily detected by overlapping the fields of view of the two cameras shown in FIG. Real-time processing is possible.
As an emergency response to accident avoidance, humans may jump out in front of the vehicle. Before recognizing whether or not, as an emergency decision, an action is taken to prevent an accident by avoiding or stopping the vehicle.

対象物認識装置6006は、対象物空間構成データと、車輌の概略三次元位置データとを照らし合わせ、走行路から可視範囲にあり、走行目的に合致し、交通に関係する、信号機、道路標識、道路標示等の、個々の対象物の三次元形状を、前記三次元地図の情報と照らし合わせて、形状及び、属性を特定して認識する。
対象物空間構成装置6005と対象物認識装置6006のより具体的な処理内容を図61に示す。
同図に示すように、対象物空間構成装置6005では、粗密度画像分割6101により、車載の映像出力を粗密度で画像を分割し、粗密度三次元空間配置認識6102により、CV値から映像空間の大まかな三次元配置を認識する。
The object recognition device 6006 compares the object space configuration data with the approximate three-dimensional position data of the vehicle, is in the visible range from the road, matches the driving purpose, and relates to traffic, traffic lights, road signs, The three-dimensional shape of each object such as a road marking is compared with the information of the three-dimensional map to identify and recognize the shape and attributes.
FIG. 61 shows more specific processing contents of the object space construction device 6005 and the object recognition device 6006.
As shown in the figure, the object space constructing apparatus 6005 divides the image on the vehicle-mounted video output at the coarse density by the coarse density image division 6101, and the video space from the CV value by the coarse density three-dimensional space arrangement recognition 6102. Recognize a rough three-dimensional arrangement.

次に、対象物概略位置検出6103で、概略三次元位置の求められている映像から、信号機や道路標識等の予想位置に着目して、CVデータから、対象物の概略三次元位置の三次元的移動を求め、対象範囲指定部の指定範囲を、対象物を一個程度含む範囲にまで狭く指定して、その範囲を画像分割する。この画像分割処理は、上述した図49で示した実施形態と同様に行う。
さらに、対象物ロックオン6104により、隣接するフレームにおける位置を予想し、対象物ロックオン追跡6105により、対象物を追跡する。
Next, in the object approximate position detection 6103, paying attention to the expected position of a traffic light, a road sign, etc. from the image for which the approximate 3D position is obtained, the 3D of the approximate 3D position of the object is obtained from the CV data. The target range is specified by narrowing the specified range of the target range specifying unit to a range including about one target object, and the range is image-divided. This image division processing is performed in the same manner as in the embodiment shown in FIG.
Further, a position in an adjacent frame is predicted by the object lock-on 6104, and the object is tracked by the object lock-on tracking 6105.

次に、対象物認識装置6006において、まず、対象物領域画像ブロック分割6106により、対象物を構成する特徴点,境界点,領域点による三種の点要素に分解して、点及び領域を追跡する。
この追跡結果から、対象物領域三次元形状生成6107により、その三次元形状を求める。
一方、図45に示したPRM方式と同様、データべース部品を三次元地図の情報として用意し、その部品と、あるいはその部品を三種の点要素に前もって分解しておき、比較6108において、部品、もしくはその部品の三種の点要素及び領域を比較し、PRMによる三次元部品特定6109により部品を特定し、対象物最終認識6110で対象物を認識する。
Next, in the object recognition apparatus 6006, first, the object area image block division 6106 is decomposed into three types of point elements including feature points, boundary points, and area points constituting the object, and the points and areas are tracked. .
From this tracking result, the object region three-dimensional shape generation 6107 obtains the three-dimensional shape.
On the other hand, as in the PRM method shown in FIG. 45, a database part is prepared as 3D map information, and the part or the part is previously decomposed into three types of point elements. A part or three types of point elements and regions of the part are compared, the part is identified by the three-dimensional part identification 6109 by PRM, and the object is recognized by the object final recognition 6110.

高精度CV演算装置6007は、図60に示すように、対象物認識装置6006による複数の対象物の三次元形状、又は部品形状を三次元追跡し、もしくは、特定以前の三次元空間構成の段階で、特徴ある形状を選択して、切り取って追跡し、その追跡結果から、高精度のCVデータを取得する。
このように二段構えとすることで、認識以前の段階で高速リアルタイム演算を行い、最優先で障害物を検知し、その障害物を回避し、その多少の演算時間をかけて、高度の認識まで含めて低速リアルタイム処理を行うことができる。
現状判断装置6008は、上記の高精度のCVデータと、対象物空間構成の出力と、対象物認識結果と、車載レーダやその他車載計測器の出力を総合的に判断して、走行条件の結論を導く現状判断装置を設置し、
As shown in FIG. 60, the high-accuracy CV calculation device 6007 three-dimensionally tracks the three-dimensional shapes or part shapes of a plurality of objects by the object recognition device 6006, or is a stage of three-dimensional space configuration before specification. Then, a characteristic shape is selected, cut and tracked, and highly accurate CV data is acquired from the tracking result.
With this two-stage structure, high-speed real-time computation is performed at the stage prior to recognition, obstacles are detected with the highest priority, obstacles are avoided, and some recognition time is spent on advanced recognition. Low-speed real-time processing can be performed.
The current state determination device 6008 comprehensively determines the high-accuracy CV data, the output of the object space configuration, the object recognition result, and the output of the in-vehicle radar or other in-vehicle measuring instrument, and concludes the traveling condition. Installed a current status judgment device that leads

リアルタイム制御装置6009は、現状判断装置6008の出力により、当該車輌のアクセル、ブレーキ、ハンドル等を適切に制御し、あるいは前記走行経路入力装置のデータを変更する。
すなわち、リアルタイムで得られたCV値とカメラ映像の解析により、直接車輌や航空機を目的位置、目的方向、目的速度、目的姿勢を予定に合わせて、しかも現場の状況に応じて適宜修正しながら、制御することができる。
リアルタイム表示装置は、カメラを積載した走行車輌の位置と姿勢に関して、走行経路入力装置6003から出力される制御信号を予め走行車輌内に記録し、走行車輌に積載された高精度CV演算装置6007の出力から現在位置と姿勢を取得し、記録された制御信号により、車輌が予定の走行経路を走行するように制御し、さらに、走行時に取得した情報から判断し、現在位置の周囲の状況に合わせてリアルタイムで修正制御する、また、必要に応じて高精度CV演算装置6007の出力、認識結果、及び現状判断結果を、二次元地図又は三次元地図上にリアルタイムで表示して、運転者等に知らせる。
以上のような本実施形態に係る航法装置6000を走行車輌に実装した一実施例を図62に示す。
The real-time control device 6009 appropriately controls the accelerator, brake, steering wheel, etc. of the vehicle or changes the data of the travel route input device according to the output of the current state determination device 6008.
In other words, by analyzing the CV value obtained in real time and the camera image, the target position, the target direction, the target speed, the target posture of the vehicle or aircraft are directly adjusted according to the schedule, and appropriately corrected according to the situation of the site, Can be controlled.
The real-time display device records the control signal output from the travel route input device 6003 in advance in the travel vehicle with respect to the position and orientation of the travel vehicle loaded with the camera, and the high-precision CV arithmetic device 6007 loaded on the travel vehicle. The current position and orientation are obtained from the output, and the vehicle is controlled to travel on the planned travel route by the recorded control signal. Further, it is judged from the information obtained during the travel, and is adjusted to the situation around the current position. In addition, the output of the high-precision CV arithmetic unit 6007, the recognition result, and the current state determination result are displayed in real time on a two-dimensional map or a three-dimensional map as necessary, and the driver or the like can be controlled. Inform.
FIG. 62 shows an example in which the navigation device 6000 according to the present embodiment as described above is mounted on a traveling vehicle.

[歩行者ナビシステム]
さらに、図63〜69を参照して、本発明に係る高精度CV演算装置を備えたCV方式航法装置の応用例として、歩行者ナビシステムの実施形態について説明する。
歩行者ナビシステムは、本発明に係る高精度CV演算装置が適用されるナビゲーション装置として実現されるものであり、車両走行時には、カーナビ装置に歩行者ナビ装置が接続された状態に置かれる。そして、カーナビ装置では、通常のガイド(カーナビゲーション)を行い、一方、被案内者が車両から離れるときには、歩行者ナビ装置がカーナビ装置から独立して歩行者ナビ装置単体としても用いることができるものである。
歩行者ナビ装置は、車両走行中はカーナビ装置と情報を共有する必要性から、カーナビ装置と接続した状態に置かれているときには、歩行者ナビ装置による機能はカーナビ装置の機能と結合して、車内のカーナビ装置の大きなディスプレイに表示して、案内する機能を持つ。
[Pedestrian Navigation System]
Furthermore, with reference to FIGS. 63 to 69, an embodiment of a pedestrian navigation system will be described as an application example of the CV navigation system provided with the high-precision CV arithmetic device according to the present invention.
The pedestrian navigation system is realized as a navigation device to which the high-precision CV arithmetic device according to the present invention is applied, and is placed in a state where the pedestrian navigation device is connected to the car navigation device when the vehicle travels. In the car navigation device, normal guidance (car navigation) is performed. On the other hand, when the guided person leaves the vehicle, the pedestrian navigation device can be used as a single pedestrian navigation device independently of the car navigation device. It is.
Because the pedestrian navigation device needs to share information with the car navigation device while the vehicle is running, the function of the pedestrian navigation device is combined with the function of the car navigation device when placed in a state connected to the car navigation device, It has the function of displaying and guiding on the large display of the car navigation system in the car.

歩行者ナビの主な機能としては、カーナビ装置と歩行者ナビ装置は基本的に同じ機能を持つことができるが、歩行者ナビ装置では、地下街やビルの中をも案内することが必要となり、また、GPS計測以外の機能で自己位置を決定することが必要となる。
カーナビ装置ではGPS機能が主となるが、歩行者ナビ装置ではGPS機能は補足的であり、歩行者ナビ装置以外から取得したCV映像、又は歩行者ナビ装置に付加されたカメラ映像から位置を取得するCV機能が重要となる。
また、歩行者ナビ装置は、情報センターとデータのやり取りが可能で、情報センターは歩行者ナビ装置に対してCV映像地図配信サービスと地点特定サービスを行う。
歩行者ナビ装置と情報センターとは、回線を介して通信可能に接続される。回線としては、携帯電話回線や専用回線を使用することができるが、少なくとも静止画像や動画像のデータ伝送を可能とする回線が必要となる。
As the main function of pedestrian navigation, car navigation device and pedestrian navigation device can basically have the same function, but in pedestrian navigation device, it is necessary to also guide inside underground streets and buildings, In addition, it is necessary to determine the self position by a function other than GPS measurement.
The GPS function is mainly used in car navigation devices, but the GPS function is complementary in pedestrian navigation devices, and the position is obtained from CV images acquired from other than pedestrian navigation devices or camera images added to pedestrian navigation devices. CV function is important.
The pedestrian navigation device can exchange data with the information center, and the information center provides a CV video map distribution service and a point specifying service to the pedestrian navigation device.
The pedestrian navigation device and the information center are communicably connected via a line. As the line, a mobile phone line or a dedicated line can be used, but at least a line that enables data transmission of still images and moving images is required.

以下、本実施形態に係る歩行者ナビシステム6300の具体的構成について説明する。
歩行者ナビシステム6300は、図63に示すように、基本的構成として、情報センター施設6310と、歩行者ナビ装置6320を備えている。
情報センター施設6310は、撮影地点のカメラ位置と姿勢データを持つCV映像と、その属性等が記録され、座標や属性等で検索し、特定された地点のCV映像や属性等を配信する機能を持つ。この情報センター施設6310は、前もって設置される。
歩行者ナビ装置6320は、被案内者となる歩行者が携帯可能な端末装置等で構成され、装置本体では、目的地点を指定することで、情報センター施設6310との通信により、目的地点までのCV映像と座標,属性等を取得し、もしくは、歩行途中で目的地や経路を変更し、情報センターとの通信によって新たなデータを取得し、それらの取得データ等によって、歩行者を目的地まで案内する。
Hereinafter, a specific configuration of the pedestrian navigation system 6300 according to the present embodiment will be described.
As shown in FIG. 63, the pedestrian navigation system 6300 includes an information center facility 6310 and a pedestrian navigation device 6320 as a basic configuration.
The information center facility 6310 has a function of recording a CV video having the camera position and orientation data of the shooting point and its attributes, searching for coordinates and attributes, and distributing the CV video and attributes of the specified point. Have. This information center facility 6310 is installed in advance.
The pedestrian navigation device 6320 is composed of a terminal device that can be carried by a pedestrian who is a guided person. In the device body, by specifying the destination point, communication with the information center facility 6310 leads to the destination point. Acquire CV video and coordinates, attributes, etc., or change destinations and routes during walking, acquire new data by communicating with the information center, and use these acquired data to bring pedestrians to the destination invite.

そして、以上のような基本構成からなる歩行者ナビシステム6300は、図64に示すように、カーナビ装置との組合せにより使用される。
具体的には、カーナビ装置6330は、通常のカーナビゲーション機能を持つカーナビゲーション装置を構成し、結合装置6340を介して歩行者ナビ装置6320と接続されるようになっている。すなわち、歩行者ナビ装置6320は、カーナビ装置6330に対して着脱可能に接続されるようになっている。
結合装置6340は、カーナビ装置6330と歩行者ナビ装置6320がそれぞれ着脱可能であり、接続状態では一体化した機能を有し、分離した状態ではそれぞれ単独で機能するような、カーナビ装置部と歩行者ナビ装置部とを接続して、データのやり取りをするための装置である。
And the pedestrian navigation system 6300 which consists of the above basic structures is used with a combination with a car navigation apparatus, as shown in FIG.
Specifically, the car navigation device 6330 constitutes a car navigation device having a normal car navigation function, and is connected to the pedestrian navigation device 6320 via the coupling device 6340. That is, the pedestrian navigation device 6320 is detachably connected to the car navigation device 6330.
In the coupling device 6340, the car navigation device 6330 and the pedestrian navigation device 6320 are detachable, have an integrated function in the connected state, and function independently in the separated state. This is a device for connecting a navigation device and exchanging data.

より具体的には、一実施形態に係る歩行者ナビシステム6300は、図65に示すような構成となっている。
情報センター施設6310では、まず、センター受信部6311で、歩行者ナビ装置6320から経路データ等を受信する。
CV映像データベース部6312では、目的地点を含むCV映像を保存し、その属性とともに記録して、受信した座標又は属性で検索できるようにデータベース化されて保存される。
近接位置CV映像選択部6313では、CV映像データベース部のデータの中から、受信したデータに最も適切なCV映像を選択する。
センター送信部6314は、選択された最も適切なCV映像を、歩行者ナビ装置6320に送信する。
More specifically, the pedestrian navigation system 6300 according to one embodiment has a configuration as shown in FIG.
In the information center facility 6310, first, the center reception unit 6311 receives route data and the like from the pedestrian navigation device 6320.
In the CV video database unit 6312, the CV video including the destination point is stored, recorded together with its attributes, and stored in a database so that it can be searched with the received coordinates or attributes.
The proximity position CV video selection unit 6313 selects the CV video most appropriate for the received data from the data in the CV video database unit.
The center transmitting unit 6314 transmits the selected most appropriate CV video to the pedestrian navigation device 6320.

歩行者ナビ装置6320では、まず、目的地点指定部63201で、歩行者の案内の目的地点を指定する。
また、経過地点指定部63202で、任意の経過地点を指定する。
経路演算部63203では、現地点と目的地点を設定することで、途中経路を自動的に求める。
経路決定部63204では、経路演算部63203で演算された複数の経路の中から、適切な経路を選択する。
経路送信部63205は、経路決定部63204で決定された経路と現地点と目的地とを表す経路データ等を、情報センター施設へ送信する。
In the pedestrian navigation apparatus 6320, first, a destination point for guidance of a pedestrian is designated by a destination point designation unit 63201.
In addition, an arbitrary passage point is designated by the passage point designation unit 63202.
The route calculation unit 63203 automatically determines a route on the way by setting a local point and a destination point.
The route determination unit 63204 selects an appropriate route from the plurality of routes calculated by the route calculation unit 63203.
The route transmission unit 63205 transmits route data indicating the route, the local point, and the destination determined by the route determination unit 63204 to the information center facility.

CV映像受信部63206は、情報センター施設6310のセンター送信部6314から配信されたCV映像を受信する。
地点映像選択部63207は、情報センター施設6310により配信されたCV映像から、現地点映像を選択する。
地点映像ページめくり部63208は、歩行者の移動にともない、CV映像を次々選択する。
目的地点到達案内部63209は、目的地点周辺に到達したときに、歩行者に目的地を知らせる。
The CV video reception unit 63206 receives the CV video distributed from the center transmission unit 6314 of the information center facility 6310.
The point video selection unit 63207 selects a local point video from the CV video distributed by the information center facility 6310.
The point image page turning unit 63208 selects CV images one after another as the pedestrian moves.
The destination point arrival guidance unit 63209 notifies the pedestrian of the destination when the destination point is reached.

随時現在地点座標取得部63210は、当該歩行者が移動中の任意地点における位置を取得し、取得したデータにより経過経路送信部63205の信号として情報センター施設6310に送信する。そして、CV映像受信部63206を通して情報センター施設6310から目的のCV映像の配信を受ける。
表示案内部63211は、地点映像選択部63207と、地点映像ページめくり部63208と、目的地点到達案内部63209と、随時配信されたCV映像を、それぞれ切り替えて、あるいは同時に表示する。
音声案内部63212は、表示案内部63211で表示される案内内容を、必要に応じて音声で案内する。
The current location coordinate acquisition unit 63210 acquires the position at an arbitrary point where the pedestrian is moving, and transmits the acquired data to the information center facility 6310 as a signal of the elapsed route transmission unit 63205 based on the acquired data. The target CV video is received from the information center facility 6310 through the CV video receiver 63206.
The display guide unit 63211 switches the point video selection unit 63207, the point video page turning unit 63208, the destination point arrival guide unit 63209, and the CV video distributed as needed, respectively, or displays them simultaneously.
The voice guidance unit 63212 guides the guidance content displayed on the display guidance unit 63211 by voice as necessary.

以上のような構成からなる歩行者ナビシステム6300は、図66に示すように、歩行者ナビ装置6320に撮影手段を備え、情報センター施設6310からの情報とともに、自らが取得した映像に基づいてナビゲーションを行う手段を備えることができる。
具体的には、同図に示すように、歩行者ナビ装置6320は、まず、広角映像撮影部63213により、当該歩行者の周辺の映像を動画撮影する。
画像処理部63214では、撮影された広角映像を一次記録し、隣接するフレーム内に特徴点を抽出する。
CV演算部63215は、追跡した特徴点により、カメラベクトル(CV)を演算で求める。このCV演算は上述した通りである。
絶対座標変換部63216は、長さや距離や座標が既知の対象物を基準として絶対座標を取得する。
As shown in FIG. 66, the pedestrian navigation system 6300 configured as described above includes a photographing unit in the pedestrian navigation apparatus 6320, and navigation based on the video acquired by the information center facility 6310 together with information from the information center facility 6310. Means for performing can be provided.
Specifically, as shown in the figure, the pedestrian navigation device 6320 first shoots a video around the pedestrian using a wide-angle video imaging unit 63213.
The image processing unit 63214 primarily records captured wide-angle video, and extracts feature points in adjacent frames.
The CV calculation unit 63215 calculates a camera vector (CV) by calculation based on the tracked feature points. This CV calculation is as described above.
The absolute coordinate conversion unit 63216 acquires absolute coordinates based on an object whose length, distance, and coordinates are known.

ナビ位置CV映像生成部63217は、歩行者ナビ装置6320のCV値を付加した動画映像を生成する。
二種CV映像比較部63218は、情報センター施設6310から配信されたCV映像と、歩行者ナビ装置6320で取得したCV映像と二種類のCV映像を比較して、二種類のCV映像の位置関係を決定する。
自己位置決定部63219は、情報センター施設6310から配信されたCV映像における自己位置を決定し、さらに地点映像ページめくり部63208においてCV映像を自動選択して自動ページめくりを行う信号を生成する。
自己位置マーカ生成部63220は、自己位置のマーカを生成し、自己位置を案内映像上、又は地図上に表記する信号を表示案内部63211に送る。
The navigation position CV image generation unit 63217 generates a moving image image to which the CV value of the pedestrian navigation device 6320 is added.
The two-type CV video comparison unit 63218 compares the CV video delivered from the information center facility 6310 with the CV video acquired by the pedestrian navigation device 6320 and the two types of CV video, and the positional relationship between the two types of CV video. To decide.
The self-position determining unit 63219 determines a self-position in the CV video distributed from the information center facility 6310, and further generates a signal for automatically selecting the CV video in the point video page turning unit 63208 and performing automatic page turning.
The self-position marker generation unit 63220 generates a self-position marker and sends a signal indicating the self-position on the guide video or the map to the display guide unit 63211.

また、以上のように歩行者ナビ装置6320側で取得される撮影データを、情報センター施設6310に送信して配信情報に反映させる手段を備えることができる。
具体的には、図67に示すように、歩行者ナビ装置6320は、総合データ送信部63221により、経路決定部63204からの出力と、広角映像撮影部63212からの出力、絶対座標変換部63216からの出力を情報センター施設6310へ送出する。
情報センター施設6310では、センター受信部6311が、歩行者ナビ装置6320の総合データ送信部63221から送られた信号を受信する。
CV映像データベース部6312は、目的地点を含むCV映像を保存し、その属性とともに記録し、受信した座標又は属性で検索できるようにデータベース化して保存する。
In addition, as described above, it is possible to provide a means for transmitting photographing data acquired on the pedestrian navigation device 6320 side to the information center facility 6310 and reflecting it in distribution information.
Specifically, as shown in FIG. 67, the pedestrian navigation apparatus 6320 has an overall data transmission unit 63221 that outputs from the route determination unit 63204, an output from the wide-angle video imaging unit 63212, and an absolute coordinate conversion unit 63216. Is output to the information center facility 6310.
In the information center facility 6310, the center reception unit 6311 receives a signal transmitted from the general data transmission unit 63221 of the pedestrian navigation apparatus 6320.
The CV video database unit 6312 stores the CV video including the destination point, records it together with its attributes, and stores it in a database so that it can be searched with the received coordinates or attributes.

二種CV映像比較部6315は、受信した位置信号から歩行者ナビ装置6320の概略位置を取得し、その周辺のCV映像をCV映像データベース部6312から選択的に取り出し、必要に応じて受信した歩行者ナビ装置6320で取得された映像とCV映像とを比較する。
自己位置決定部6316は、二種CV映像比較部6315のCV映像比較により、自己の位置を座標上で、もしくは映像上で決定する。
地点CV映像選択部6317は、自己位置決定部6316で自己位置を決定したことで取得されるCV映像データベース部6312から対応するCV映像を選択する。
選択された地点のCV映像等は、センター送信部6314から歩行者ナビ装置6320に送信される。
The two-type CV video comparison unit 6315 obtains the approximate position of the pedestrian navigation device 6320 from the received position signal, selectively extracts the surrounding CV video from the CV video database unit 6312, and receives the received walking as necessary. The video acquired by person navigation device 6320 is compared with the CV video.
The self-position determining unit 6316 determines its own position on the coordinates or on the video by the CV video comparison of the two-type CV video comparing unit 6315.
The point CV video selection unit 6317 selects a corresponding CV video from the CV video database unit 6312 acquired by the self-position determination unit 6316 determining the self-position.
The CV video or the like of the selected point is transmitted from the center transmission unit 6314 to the pedestrian navigation device 6320.

さらに、以上のような構成からなる歩行者ナビシステム6300では、GPSを併用してより高精度なナビゲーションを行うことができる。
具体的には、図68に示すように、歩行者ナビ装置6320には、GPS部63222を備えることができる。
GPS部63222は、GPSにより絶対座標を取得する。
これにより、GPS電波が良好に受信できて精度が十分あるときは、GPSにより絶対座標を取得し、さらに、自己位置をGPSとCV値で互いに補完し合うことで精度を向上させることができる。また、GPS電波を受信できないときや、GPSの誤差が大きいときには、既に補完補正されたCV値による自己位置決定を行うことができる。
Furthermore, in the pedestrian navigation system 6300 having the above-described configuration, more accurate navigation can be performed using GPS together.
Specifically, as shown in FIG. 68, the pedestrian navigation apparatus 6320 can include a GPS unit 63222.
The GPS unit 63222 acquires absolute coordinates by GPS.
Thereby, when GPS radio waves can be received satisfactorily and there is sufficient accuracy, it is possible to improve the accuracy by acquiring absolute coordinates by GPS and further complementing each other with the GPS and CV values. In addition, when GPS radio waves cannot be received or when the GPS error is large, self-position determination can be performed based on the CV value that has already been corrected for correction.

次に、以上のような構成からなる歩行者ナビシステム6300の一実施形態における具体的な動作の一例を、図69を参照しつつ説明する。
同図に示す動作例では、カーナビ装置により目的地近くまで車両により走行し、車両を目的地近くの駐車場に止め、そこから徒歩で歩行者ナビにより最終目的地まで案内移動することを想定している。
まず、目的地点をカーナビ装置6330の地図上、もしくは歩行者ナビ装置6320上の地図上で設定をすることができる。
なお、目的地点の設定は、歩行者ナビ装置6320,カーナビ装置6330のいずれのディスプレイでも設定可能であるが、一般にカーナビ装置6330のディスプレイの方が大画面であり、歩行者ナビ装置6320がカーナビ装置6330に接続されている状態では、カーナビ装置6330の大画面ディスプレイで設定するのが有利である。
Next, an example of a specific operation in one embodiment of the pedestrian navigation system 6300 having the above configuration will be described with reference to FIG.
In the operation example shown in the figure, it is assumed that the vehicle is driven to the vicinity of the destination by the car navigation device, the vehicle is stopped at the parking lot near the destination, and then guided to the final destination by pedestrian navigation from there on foot. ing.
First, the destination point can be set on the map of the car navigation device 6330 or on the map of the pedestrian navigation device 6320.
The destination point can be set on any display of the pedestrian navigation device 6320 and the car navigation device 6330. In general, the display of the car navigation device 6330 has a larger screen, and the pedestrian navigation device 6320 has the car navigation device. In the state connected to 6330, it is advantageous to set on the large screen display of the car navigation device 6330.

車両に積載のカーナビ装置6330だけでも、目的地近くの駐車場まで被案内者を案内することができるが、途中でカーナビ装置6330に接続した歩行者ナビ装置6320をアクティブ状態にしておくことで、通過する主な交差点や分岐点や目的地近くのCV映像地図を情報センター6310から配信を受けることができる。
また、カーナビ装置6330の精度だけでは、重要ポイントを見落とすることがあり、必要時に情報センター6310から位置の特定サービスも受けることができる。
情報センター6310と歩行者ナビ装置6320は回線で接続されており、CV映像地図だけではなく、後述するように、その他情報の交換ができるようになっている。
また、情報センター6310によらず、歩行者ナビ装置6320単体の機能としてのCV機能により、車両の位置精度を高精度で求めて、カーナビ装置6330に反映することができる。
Only the car navigation device 6330 loaded on the vehicle can guide the guided person to the parking lot near the destination, but by keeping the pedestrian navigation device 6320 connected to the car navigation device 6330 in the middle, It is possible to receive delivery from the information center 6310 of main intersections, branch points, and CV video maps near the destination.
In addition, important points may be overlooked only by the accuracy of the car navigation device 6330, and a location specifying service can be received from the information center 6310 when necessary.
The information center 6310 and the pedestrian navigation device 6320 are connected by a line so that not only the CV video map but also other information can be exchanged as will be described later.
In addition, the position accuracy of the vehicle can be obtained with high accuracy and reflected in the car navigation device 6330 by the CV function as a function of the pedestrian navigation device 6320 alone, regardless of the information center 6310.

カーナビ装置6330に接続された歩行者ナビ装置6320は、情報センター6310からのCV映像地図の配信を受けて、属性が付加されたCV映像地図を取得する。例えば目的地周辺や途中通過する右折左折予定の交差点や重要通過地点を自分の車両位置からみた全周映像として取得することができる。
CV映像中には、交通に必要な信号機の位置や、道路標識,道路標示,行き先標示,通りの名称やビルの名称や重要構造物の名称など、映像内の主な対象物の名称が印されている。
The pedestrian navigation device 6320 connected to the car navigation device 6330 receives the distribution of the CV video map from the information center 6310, and acquires the CV video map to which the attribute is added. For example, it is possible to obtain an all-around video of an intersection or an important passing point around the destination or on the way, which is scheduled to turn right or left, as seen from the vehicle position.
In the CV video, the names of the main objects in the video, such as the position of traffic lights necessary for traffic, road signs, road markings, destination markings, street names, building names and important structure names, are marked. Has been.

車両の走行前に目的地をカーナビ装置6330上で設定する。情報センター6310から配信された目的地周辺の映像に目的地が明確に印されていれば、それを目的地として設定する。また、周辺までしか印されていない場合は、通過目的地として登録設定する。
歩行者ナビ装置6320のCV機能(走行中は接続されているカーナビ装置の機能と一体化している)により、GPSによる位置計測を補正し、車線位置や停止線まで特定できる程の高精度で車両位置を計測して表示することが可能となる。
ここでCV機能とは、広角カメラによる位置座標をCV演算により取得し、位置の特定を行う機能のことである。
A destination is set on the car navigation device 6330 before the vehicle travels. If the destination is clearly marked on the video around the destination distributed from the information center 6310, it is set as the destination. If only the periphery is marked, it is registered and set as a passing destination.
The vehicle is highly accurate enough to correct the position measurement by GPS and identify the lane position and stop line by the CV function of the pedestrian navigation device 6320 (integrated with the function of the connected car navigation device during travel). The position can be measured and displayed.
Here, the CV function is a function of acquiring position coordinates by a wide-angle camera by CV calculation and specifying the position.

歩行者ナビ装置6320の機能としては、配信されたCV映像地図の属性表示機能により道路標識,道路標示,行き先標示を示すだけでなく、地図に登録されているビルや店舗やホテルには直接回線で接続できるサービス機能がある。
また、CV機能のために付いているカメラにより、信号機の自動認識も可能となる。
また、情報センター6310へ現地店の映像を送信することで、位置特定サービスを受けることができる。これは、被案内者が道に迷ったとき等に有効である。特に、歩行者ナビ装置6320が単独のときに重要となる。
The function of the pedestrian navigation device 6320 is not only to show road signs, road markings, and destination markings by the attribute display function of the distributed CV video map, but also to direct lines to buildings, stores and hotels registered in the map There is a service function that can be connected with.
In addition, the camera equipped for the CV function can automatically recognize the traffic light.
In addition, the location specifying service can be received by transmitting the video of the local store to the information center 6310. This is effective when the guided person gets lost. This is particularly important when the pedestrian navigation device 6320 is alone.

目的地の近くまではカーナビ装置6330を主として、歩行者ナビ装置6320を従として走行し、近くの駐車場をカーナビ装置6330から選択して駐車する。
エンジンを停止するか、カーナビ装置6330と歩行者ナビ装置6320との接続を切り離せば、カーナビ装置6330により走行中に受信した駐車場から目的地近くまで、必要となる重要ポイントのCV映像地図は歩行者ナビ装置6320に自動的にコピーされるようにすることができる。
被案内者が車両を離れて以降は、歩行者ナビ装置6320はカーナビ装置6330から切り離なされて被案内者が身につけた状態で使用される。
これ以降は、カーナビ装置から切り離された歩行者ナビ装置6320により、被案内者を目的地まで地図と映像と音声により案内する。
The car travels mainly with the car navigation device 6330 to the vicinity of the destination and the pedestrian navigation device 6320 as a slave, and a nearby parking lot is selected from the car navigation device 6330 and parked.
If the engine is stopped or the connection between the car navigation device 6330 and the pedestrian navigation device 6320 is disconnected, the CV video map of the important points required from the parking lot received while traveling by the car navigation device 6330 to the vicinity of the destination is walking. It can be automatically copied to the person navigation device 6320.
After the guided person leaves the vehicle, the pedestrian navigation device 6320 is disconnected from the car navigation device 6330 and used while being worn by the guided person.
Thereafter, the pedestrian navigation device 6320 separated from the car navigation device guides the guided person to the destination by a map, video, and voice.

歩行者ナビ装置6320では、先に情報センター6310から配信されたCV映像地図により全周画像内に目的地方向が示される。被案内者は全周画像と実際を対比して見ることで、自分の位置と目的地方向を確認することができる。
被案内者は、歩行者ナビ装置6320により、目的地方向にCV映像地図を見ながら、あるいは二次元地図を見ながら歩行して進行する。
GPS部63222を備える歩行者ナビ装置6320(図68参照)であれば、GPSによる位置情報を地図上に表示できる。
GPS部63222を備えない歩行者ナビ装置6320や、GPSの電波が受けられない場所にいる場合には、歩行者ナビ装置6320のCV機能により、被案内者は自分の位置を知ることができる。
In the pedestrian navigation apparatus 6320, the destination direction is indicated in the all-round image by the CV video map previously distributed from the information center 6310. The guided person can confirm his / her position and the destination direction by comparing the entire circumference image with the actual one.
The guided person walks and proceeds while watching the CV video map in the direction of the destination or watching the two-dimensional map by the pedestrian navigation device 6320.
If the pedestrian navigation device 6320 includes the GPS unit 63222 (see FIG. 68), the GPS location information can be displayed on the map.
When a pedestrian navigation device 6320 that does not include the GPS unit 63222 or a place where GPS radio waves cannot be received, the CV function of the pedestrian navigation device 6320 allows the guided person to know his / her position.

また、歩行者ナビ装置6320には広角カメラを備えて、カメラ映像から自分の移動方向と位置を計算して求めるCV演算機能を備えることができる。
具体的には、歩行者ナビ装置6320に備えられるカメラにより、自動的に、あるいは手動により、被案内者が立つ場所の周囲の映像を撮影し、それを情報センター6310に送信する。情報センター6310では、受信した映像を、データベースに記録されているCV映像と比較して、受信した映像の撮影位置を割り出す。
位置が割り出された結果を三次元座標として歩行者ナビ装置6320側に送り返し、歩行者ナビ装置6320側では、受信した座標を、地図上に、又はCV映像地図上に表示することができる。
このようにして、被案内者は、道に迷った場合でも、この位置特定サービス機能により、いつでも自分の位置を確認することができる。
Further, the pedestrian navigation device 6320 includes a wide-angle camera, and can have a CV calculation function that calculates and calculates its own moving direction and position from the camera video.
Specifically, an image around the place where the guided person stands is photographed automatically or manually by a camera provided in the pedestrian navigation device 6320 and transmitted to the information center 6310. The information center 6310 compares the received video with the CV video recorded in the database to determine the shooting position of the received video.
The result of the position determination is sent back to the pedestrian navigation device 6320 side as three-dimensional coordinates, and the received coordinates can be displayed on the map or on the CV video map on the pedestrian navigation device 6320 side.
In this way, even if the guided person gets lost, he can check his / her position at any time by this position specifying service function.

配信されたCV映像のみでは自分の位置が特定できない場合は、歩行者ナビ装置6320のカメラで取得した周辺映像を情報センター6310に送信して、位置特定サービスを受けることができる。
この画像認識による位置特定には、二種類の方法がある。第一の方法としては、歩行者ナビ装置6320からCV演算可能な動画像を送信して、情報センター6310のCV映像と三次元比較して位置を特定する方法である。この方法は、精度は高いが、動画像を送信する点でコストがかかることになる。
第二の方法としては、歩行者ナビ装置6320から静止画像を送信して、情報センター6310側で、CV映像との対比をすることで位置特定を行うことができる。この方法は、送信するのは二次元画像の静止画であるが、元は動画像であるためにCV値は求まっているので、一連の移動のCV値をも同時に送信することで、情報センター6310側での比較時には良い手がかりとなり、精度が得られる。また、基本機能の二次元地図表示では、二次元地図上に自分の位置と目的地方向を表示できる。
In the case where the user's position cannot be specified only by the delivered CV video, the peripheral video acquired by the camera of the pedestrian navigation device 6320 can be transmitted to the information center 6310 to receive the location specifying service.
There are two types of methods for specifying the position by image recognition. As a first method, a moving image capable of CV calculation is transmitted from the pedestrian navigation apparatus 6320, and the position is specified by three-dimensional comparison with the CV video of the information center 6310. This method has high accuracy but is expensive in terms of transmitting moving images.
As a second method, it is possible to specify the position by transmitting a still image from the pedestrian navigation device 6320 and comparing it with the CV video on the information center 6310 side. This method transmits a still image of a two-dimensional image, but since the original is a moving image, the CV value is obtained. Therefore, by transmitting the CV value of a series of movements simultaneously, the information center It is a good clue when comparing on the 6310 side, and accuracy is obtained. In the two-dimensional map display of the basic function, the user's position and destination direction can be displayed on the two-dimensional map.

歩行者ナビ装置6320にGPS部63222が付いていれば、GPS電波の受信できる範囲での案内が可能であるが、GPS部63222が付いていない場合や、付いていても誤差が生じていたり、さらには電波状況により、またはビル中や地下街や電波の到達しない場所では、適切な案内ができないことになる。
一方、CV機能付きの歩行者ナビ装置6320では、電波の届かない場所でもCV映像と一特定サービスにより自分の移動量をベクトルで求めることができるので、案内が可能となる。
If the GPS unit 63222 is attached to the pedestrian navigation device 6320, guidance in a range where GPS radio waves can be received is possible. However, if the GPS unit 63222 is not attached, an error occurs even if it is attached, Furthermore, appropriate guidance cannot be performed due to radio wave conditions, or in buildings, underground malls, or places where radio waves do not reach.
On the other hand, in the pedestrian navigation device 6320 with the CV function, it is possible to obtain the amount of movement by a vector using a CV video and one specific service even in a place where radio waves do not reach, and thus guidance is possible.

案内目的のための加工のない現実のままの空間でもCV機能により位置の特定がある程度可能であるが、ある規則と約束事によるマーカを通路や近傍の電柱や壁等に付けてあれば、それを自動認識することで場所の特定が可能となる。
場所を自動特定するマーカもあれば、あるいは単にCV演算を容易にするための特徴点となるマーカを付けておくだけでも、位置の精度は向上する。ビル内や地下街においては特徴点として天井に様々なマーカを印すことが可能である。歩行者ナビ装置6320にとっては、ビルや地下街の天井等は優れた情報付加部分となる。
なお、マーカは肉眼で捉える場合もあるが基本的にはカメラで捉え、画像処理で特定される。そこで、マーカは肉眼では見えないが、カメラでは捉えられるように、カメラのCCDが感度を持つ近赤外光を反射するマーカとすることも可能である。
また、現実空間内の特徴ある形状を三次元特徴物として登録しておくことでもCV演算は容易となり、精度と信頼性とに貢献する。
Although it is possible to specify the position to some extent by the CV function even in an actual space without processing for the purpose of guidance, if a certain rule and a convention marker are attached to a passage or nearby utility pole or wall, etc. The location can be specified by automatic recognition.
The accuracy of the position can be improved even if there is a marker for automatically specifying the location, or simply by adding a marker as a feature point for facilitating CV calculation. Various markers can be marked on the ceiling as feature points in buildings and underground malls. For the pedestrian navigation apparatus 6320, the building, the ceiling of the underground shopping area, etc. are excellent information addition parts.
The marker may be captured with the naked eye, but is basically captured with a camera and identified by image processing. Therefore, the marker is not visible to the naked eye, but can be a marker that reflects near-infrared light with sensitivity of the CCD of the camera so as to be captured by the camera.
Also, registering a characteristic shape in the real space as a three-dimensional feature facilitates CV calculation, contributing to accuracy and reliability.

目的地までの最終案内は、目的地の画像情報があれば好都合であるが、最終目的地を示すマーカがあれば案内はそこで完結する。それが位置認識目的で付加したマーカであれ、元々の属性であれ、位置特定には貢献することになる。
最終目的地が登録されていない場合は、通過目的地まで案内するが、その後最終目的地までの経路を記録することができるので、次回からは最終目的地を設定できることになる。
最終目的地のマーカ又はCV映像を他から取得することで、最終目的地を設定することが可能となる。最終目的地の座標が不明確でも、特定しやすいマーカがあればそれを最終目的地と設定することが可能である。
なお、CV映像による案内は、二次元地図ではなく映像が主体となるため、座標の正確さは重要ではなくなる。
The final guidance to the destination is convenient if there is image information of the destination, but if there is a marker indicating the final destination, the guidance is completed there. Whether it is a marker added for position recognition or an original attribute, it contributes to position identification.
If the final destination is not registered, guidance is made to the passing destination, but since the route to the final destination can be recorded thereafter, the final destination can be set from the next time.
The final destination can be set by acquiring a marker or CV video of the final destination from another. Even if the coordinates of the final destination are unclear, if there is a marker that can be easily specified, it can be set as the final destination.
Note that since the guidance based on the CV video is mainly a video, not a two-dimensional map, the accuracy of coordinates is not important.

以上、本発明の高精度CV演算装置と、この高精度CV演算装置を備えるCV方式三次元地図生成装置及びCV方式航法装置について、好ましい実施形態を示して説明したが、本発明は、上述した実施形態にのみ限定されるものではなく、本発明の範囲で種々の変更実施が可能であることは言うまでもない。
例えば、本発明の高精度CV演算装置を備えるCV方式三次元地図生成装置やCV方式航法装置を適用可能な移動体としては、地上を走行する車輌に限らず、三次元空間を航行する飛行機等であっても良い。
As described above, the high-precision CV arithmetic device of the present invention, the CV method three-dimensional map generation device and the CV method navigation device provided with the high-precision CV arithmetic device have been described with reference to preferred embodiments. Needless to say, the present invention is not limited to the embodiments, and various modifications can be made within the scope of the present invention.
For example, a mobile body to which a CV system 3D map generation apparatus or a CV system navigation apparatus provided with the high-precision CV arithmetic apparatus of the present invention can be applied is not limited to a vehicle traveling on the ground, but an airplane traveling in a 3D space. It may be.

本発明は、例えば、自動車に搭載されるカーナビゲーション装置に備えられる三次元地図を生成するための三次元地図生成装置等に好適に利用することができる。   The present invention can be suitably used for, for example, a three-dimensional map generation device for generating a three-dimensional map provided in a car navigation device mounted on an automobile.

本発明の一実施形態に係る高精度CV演算装置の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the high precision CV arithmetic unit which concerns on one Embodiment of this invention. 図1に示す高精度CV演算装置の詳細を示すブロック図である。It is a block diagram which shows the detail of the high precision CV arithmetic unit shown in FIG. 本発明の一実施形態に係る高精度CV演算装置のビデオカメラ機器部を移動体に搭載した状態を示す概略図であり、屋根部に全周カメラを搭載した車輌の斜視図である。It is the schematic which shows the state which mounted the video camera apparatus part of the high precision CV arithmetic unit which concerns on one Embodiment of this invention in a moving body, and is a perspective view of the vehicle which mounts the perimeter camera on the roof part. 本発明の一実施形態に係る高精度CV演算装置のビデオカメラ機器部を移動体に搭載した状態を示す概略図であり、(a)は屋根部に全周カメラを搭載した車輌の正面図、(b)は同じく平面図である。BRIEF DESCRIPTION OF THE DRAWINGS It is the schematic which shows the state which mounted the video camera equipment part of the high precision CV arithmetic unit which concerns on one Embodiment of this invention in a moving body, (a) is a front view of the vehicle which mounts the perimeter camera on a roof part, (B) is also a plan view. 全周カメラで撮影される映像から得られる変換画像を示す説明図であり、(a)は球面画像が貼り付けられる仮想球面を、(b)は仮想球面に貼り付けられた球面画像の一例を、(c)は(b)に示した球面画像をメルカトール図法に従って平面展開した画像を示している。It is explanatory drawing which shows the conversion image obtained from the image | video image | photographed with a omnidirectional camera, (a) is a virtual spherical surface to which a spherical image is affixed, (b) is an example of a spherical image affixed to a virtual spherical surface , (C) shows an image obtained by developing the spherical image shown in (b) on a plane according to the Mercator projection. 本発明の一実施形態に係る高精度CV演算装置のCVデータ演算部の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the CV data calculating part of the high precision CV calculating apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCVデータ演算部おける具体的なカメラベクトルの検出方法を示す説明図である。It is explanatory drawing which shows the specific detection method of a camera vector in the CV data calculating part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCVデータ演算部における具体的なカメラベクトルの検出方法を示す説明図である。It is explanatory drawing which shows the detection method of the specific camera vector in the CV data calculating part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCVデータ演算部における具体的なカメラベクトルの検出方法を示す説明図である。It is explanatory drawing which shows the detection method of the specific camera vector in the CV data calculating part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCVデータ演算部によるカメラベクトルの検出方法における望ましい特徴点の指定態様を示す説明図である。It is explanatory drawing which shows the designation | designated aspect of the desirable feature point in the detection method of the camera vector by the CV data calculating part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCVデータ演算部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。It is a graph which shows the example of the three-dimensional coordinate and camera vector of the feature point obtained by the CV data calculating part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCVデータ演算部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。It is a graph which shows the example of the three-dimensional coordinate and camera vector of the feature point obtained by the CV data calculating part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCVデータ演算部により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。It is a graph which shows the example of the three-dimensional coordinate and camera vector of the feature point obtained by the CV data calculating part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCVデータ演算部において、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行う場合を示す説明図である。It is explanatory drawing which shows the case where a some feature point is set according to the distance of a feature point from a camera, and a some calculation is repeated in the CV data calculating part which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCVデータ演算部求められたカメラベクトルの軌跡をビデオ映像中に表示した場合の図である。It is a figure at the time of displaying the locus | trajectory of the camera vector calculated | required by the CV data calculating part which concerns on one Embodiment of this invention in a video image | video. CVデータとGPSデータの誤差の比較を示す説明図である。It is explanatory drawing which shows the comparison of the error of CV data and GPS data. 本発明の一実施形態に係る複数カメラによる視差三次元形状からのCV演算を行う高精度CV演算装置の構成を示すブロック図である。It is a block diagram which shows the structure of the high-precision CV calculating apparatus which performs CV calculation from the parallax three-dimensional shape by the some camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係る複数カメラの絶対長CV値によるCVデータ補正を行う高精度CV演算装置の構成を示すブロック図である。It is a block diagram which shows the structure of the high precision CV arithmetic unit which performs CV data correction | amendment by the absolute length CV value of the several camera which concerns on one Embodiment of this invention. 図18に示す高精度CV演算装置に備えられるカメラ機器を示す説明図であり、(a)は、複数ビデオカメラ機器部を構成する同期したカメラ二台の平面図、(b)は、(a)に示すカメラと全周ビデオカメラ機器部を構成する非同期の全周カメラを屋根部に固定した車輌の平面図、(c)は、同じく車輌の右側面図である。It is explanatory drawing which shows the camera apparatus with which the high-precision CV arithmetic unit shown in FIG. 18 is equipped, (a) is a top view of the two synchronized cameras which comprise a several video camera apparatus part, (b) is (a). ) And a plan view of a vehicle in which an asynchronous all-around camera constituting the all-around video camera device unit is fixed to the roof, and (c) is a right side view of the vehicle. (a)は、図19に示すカメラ機器で撮影される映像を概念的に示した側面図、(b)は同じく平面図、(c)は図18に示す高精度CV演算装置に備えられるカメラ機器の他の構成例を示す車輌の平面図である。(A) is a side view conceptually showing an image taken by the camera device shown in FIG. 19, (b) is a plan view, and (c) is a camera provided in the high-precision CV arithmetic unit shown in FIG. It is a top view of the vehicle which shows the other structural example of an apparatus. (a)〜(c)は、それぞれ図18に示す高精度CV演算装置に備えられる複数カメラと全周カメラの組合せ構成例を示す平面図である。(A)-(c) is a top view which shows the example of a combination structure of the several camera with which the high precision CV calculating apparatus shown in FIG. 本発明の一実施形態に係る複数カメラの絶対長CV値によるCVデータ補正を行う高精度CV演算装置にカメラ座標三次元形状を生成する視差方式カメラ座標三次元化部を備える場合の構成を示すブロック図である。1 shows a configuration in a case where a high-precision CV calculation device that performs CV data correction based on absolute length CV values of a plurality of cameras according to an embodiment of the present invention includes a parallax type camera coordinate three-dimensionalization unit that generates a three-dimensional camera coordinate. It is a block diagram. 本発明の一実施形態に係るGPSによりCVデータ補正を行う高精度CV演算装置の構成を示すブロック図である。It is a block diagram which shows the structure of the high precision CV arithmetic unit which performs CV data correction by GPS which concerns on one Embodiment of this invention. 本発明の一実施形態に係るGPSデータ補正を行う高精度CV演算装置の構成を示すブロック図である。It is a block diagram which shows the structure of the high precision CV arithmetic unit which performs GPS data correction concerning one Embodiment of this invention. 本発明の一実施形態に係るIMUによる3軸回転累積誤差補正を行う高精度CV演算装置の構成を示すブロック図である。It is a block diagram which shows the structure of the high precision CV arithmetic unit which performs 3 axis | shaft rotation accumulation error correction by IMU which concerns on one Embodiment of this invention. 図25に示す高精度CV演算装置に備えられるカメラ機器を示す説明図であり、(a)は、絶対長計測用のカメラ二台の平面図、(b)は、(a)に示すカメラと全周ビデオカメラとIMU機器を屋根部に固定した車輌の平面図、(c)は、同じく車輌の右側面図である。It is explanatory drawing which shows the camera apparatus with which the high-precision CV arithmetic unit shown in FIG. 25 is equipped, (a) is a top view of two cameras for absolute length measurement, (b) is the camera shown to (a), The top view of the vehicle which fixed the perimeter video camera and IMU apparatus to the roof part, (c) is a right view of a vehicle similarly. (a)は、図25に示す高精度CV演算装置に備えられるカメラ機器及び計測機器類を模式的に示す説明図であり、(b)は、(a)に示すカメラ機器及び計測機器で取得されるデータ値の対応関係を示す説明図である。(A) is explanatory drawing which shows typically the camera apparatus and measurement apparatus with which the high-precision CV calculating apparatus shown in FIG. 25 is equipped, (b) is acquired with the camera apparatus and measurement apparatus shown in (a). It is explanatory drawing which shows the correspondence of the data value to be performed. 図25に示す高精度CV演算装置に備えられるカメラ機器及び計測機器類で取得されるデータの対応関係を模式的に示した車輌進行方向の平面図である。FIG. 26 is a plan view of a vehicle traveling direction schematically showing a correspondence relationship between data acquired by a camera device and measurement devices provided in the high-precision CV arithmetic device shown in FIG. 25. 図25に示す高精度CV演算装置において、GPSデータが不連続となる誤差変更地点を模式的に示した車輌進行方向の平面図である。FIG. 26 is a plan view of the vehicle traveling direction schematically showing error change points at which GPS data becomes discontinuous in the high-precision CV arithmetic device shown in FIG. 25. 図25に示す高精度CV演算装置において、GPSデータの絶対値によるCVデータの補正を模式的に示した車輌進行方向の平面図である。FIG. 26 is a plan view of a vehicle traveling direction schematically showing correction of CV data by an absolute value of GPS data in the high-precision CV arithmetic device shown in FIG. 25. 図25に示す高精度CV演算装置において、CV値のリニアリティーによるGPSの不連続点の補正を模式的に示した車輌進行方向の平面図である。FIG. 26 is a plan view of a vehicle traveling direction schematically showing correction of GPS discontinuity points by linearity of CV values in the high-precision CV arithmetic device shown in FIG. 25. 図25に示す高精度CV演算装置において、誤差変更地点における仮の補正真値によるGPSの絶対座標補正を説明する説明図で、(a)は、GPSデータの不連続地点を模式的に示した車輌進行方向の平面図、(b)は、(a)に示す不連続地点における差分値の分布を示す平面図、(c)は、(b)に示す分布の重心を求めるための演算式である。In the high-accuracy CV calculation device shown in FIG. 25, an explanatory diagram for explaining GPS absolute coordinate correction by a temporary correction true value at an error change point, (a) schematically shows a discontinuous point of GPS data. (B) is a plan view showing the distribution of difference values at the discontinuous points shown in (a), and (c) is an arithmetic expression for obtaining the center of gravity of the distribution shown in (b). is there. 図25に示す高精度CV演算装置において、GPSデータによるCVデータの補正を説明する説明図であり、(a)は、絶対精度の高まったGPSデータにより、GPSサンプリング地点とCVのフレームと対応する地点のすべてにおいて、CVデータを補正して、絶対値を与えた状態を模式的に示す平面図、(b)は、補正前と補正後のCVデータの具体的な数値例を示す図である。FIG. 26 is an explanatory diagram for explaining correction of CV data by GPS data in the high-accuracy CV arithmetic device shown in FIG. 25, and (a) corresponds to GPS sampling points and CV frames by GPS data with increased absolute accuracy. The top view which shows typically the state which correct | amended CV data and gave the absolute value in all the points, (b) is a figure which shows the specific numerical example of CV data before correction | amendment and after correction | amendment. . 本発明の一実施形態に係る鉛直方向検出による1軸回転累積誤差補正を行う高精度CV演算装置の構成を示すブロック図である。It is a block diagram which shows the structure of the high precision CV calculating apparatus which performs 1 axis | shaft rotation accumulation error correction by the vertical direction detection which concerns on one Embodiment of this invention. 図34に示す高精度CV演算装置により概略真下方向に平面変換(パースペクティブ変換)された画像例を示す図であり、(a)はビデオ画像、(b)はビデオ画像から輪郭のみを抽出した画像である。It is a figure which shows the example of an image by which plane conversion (perspective conversion) was carried out substantially right below by the high-precision CV arithmetic unit shown in FIG. 34, (a) is a video image, (b) is the image which extracted only the outline from the video image. It is. 図34に示す高精度CV演算装置により概略真上方向に平面変換(パースペクティブ変換)された画像例を示す図であり、(a)はビデオ画像、(b)はビデオ画像から輪郭のみを抽出した画像である。It is a figure which shows the example of an image by which plane conversion (perspective conversion) was carried out substantially right above by the high-precision CV arithmetic unit shown in FIG. 34, (a) is a video image, (b) extracted only the outline from the video image. It is an image. 図34に示す高精度CV演算装置により概略赤道面方向に平面変換(パースペクティブ変換)された画像例を示す図であり、(a)はビデオ画像、(b)はビデオ画像から輪郭のみを抽出した画像である。It is a figure which shows the example of an image by which plane conversion (perspective conversion) was carried out to the equatorial plane direction roughly by the high-precision CV arithmetic unit shown in FIG. 34, (a) is a video image, (b) extracted only the outline from the video image. It is an image. 本発明の一実施形態に係る空撮映像と地上撮映像による高精度CV演算を行う高精度CV演算装置の構成を示すブロック図である。It is a block diagram which shows the structure of the high precision CV calculating apparatus which performs the high precision CV calculation by the aerial image | video and ground image based on one Embodiment of this invention. 本発明の一実施形態に係る二次元地図を備えた高精度CV演算装置の構成を示すブロック図である。It is a block diagram which shows the structure of the high precision CV calculating apparatus provided with the two-dimensional map which concerns on one Embodiment of this invention. 本発明の一実施形態に係る二次元地図を備えた高精度CV演算装置の変更例の構成を示すブロック図である。It is a block diagram which shows the structure of the example of a change of the high precision CV calculating apparatus provided with the two-dimensional map which concerns on one Embodiment of this invention. 本発明の一実施形態に係る既知の三次元点を用いて高精度CV演算を行う高精度CV演算装置の構成を示すブロック図である。It is a block diagram which shows the structure of the high precision CV calculating apparatus which performs high precision CV calculation using the known three-dimensional point which concerns on one Embodiment of this invention. 本発明の一実施形態に係るCV方式三次元地図生成装置の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the CV type | system | group 3D map production | generation apparatus which concerns on one Embodiment of this invention. (a)〜(b)は、図42に示す三次元地図生成装置における測量用の走行車輌の走行パターンを示す平面図である。(A)-(b) is a top view which shows the driving | running | working pattern of the traveling vehicle for surveying in the three-dimensional map production | generation apparatus shown in FIG. 図42に示す三次元地図生成装置における具体的な処理動作を説明する説明図で、ビュアで操作可能な表示面を模したブロック図である。It is explanatory drawing explaining the specific processing operation in the three-dimensional map production | generation apparatus shown in FIG. 42, and is the block diagram which simulated the display surface which can be operated with a viewer. 本発明の一実施形態に係るCV方式PRM三次元地図生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the CV type | system | group PRM three-dimensional map production | generation apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る空撮映像による三次元地図生成を行う三次元地図生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional map production | generation apparatus which performs the three-dimensional map production | generation by the aerial image based on one Embodiment of this invention. 本発明の一実施形態に係る空撮映像による三次元地図生成を行う三次元地図生成装置の変更例の構成を示すブロック図である。It is a block diagram which shows the structure of the example of a change of the three-dimensional map production | generation apparatus which performs the three-dimensional map production | generation by the aerial image which concerns on one Embodiment of this invention. (a)は、図46に示す三次元地図生成装置を搭載した航空機の一例を示す斜視図であり、(b)は、(a)に示す航空機に備えられる広角ビデオカメラとGPS機器の配置例を示す平面図である。(A) is a perspective view which shows an example of the aircraft which mounts the three-dimensional map production | generation apparatus shown in FIG. 46, (b) is the example of arrangement | positioning of the wide-angle video camera and GPS apparatus with which the aircraft shown to (a) is equipped. FIG. 図47に示す広角ビデオカメラの視野を示す模式的に示した説明図であり、(a)は正面図、(b)は平面図である。It is explanatory drawing which showed typically the visual field of the wide angle video camera shown in FIG. 47, (a) is a front view, (b) is a top view. 本発明の一実施形態に係る二次元動画映像から三次元映像を生成する三次元地図生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the 3D map production | generation apparatus which produces | generates a 3D image | video from the 2D moving image image | video which concerns on one Embodiment of this invention. 図49に示す三次元地図生成装置における画像分割用のオペレータの一例を示す図で、湧きだし点方向オペレータを一般画像に適応して範囲を指定している画像例である。FIG. 50 is a diagram illustrating an example of an operator for image division in the three-dimensional map generation device illustrated in FIG. 49, and is an image example in which a source point direction operator is applied to a general image and a range is designated. 図49に示す三次元地図生成装置における画像分割用のオペレータの一例を示す図で、(a)は、矩形オペレータの単純ブロック化の画像例、(b)は、(a)に示す矩形オペレータを一般画像に適応して範囲を指定している画像例である。である。49A is a diagram illustrating an example of an operator for image division in the three-dimensional map generation apparatus illustrated in FIG. 49. FIG. 49A is a simple block image example of a rectangular operator, and FIG. 49B is a diagram illustrating the rectangular operator illustrated in FIG. It is an example of an image that specifies a range in conformity with a general image. It is. 図49に示す三次元地図生成装置における画像分割用のオペレータの一例を示す図で、(a)は、平面変換画像における湧きだし点位置と、湧きだし点方向分割オペレータの関係を示す画像例、(b)はその拡大図である。49 is a diagram showing an example of an operator for image division in the three-dimensional map generation device shown in FIG. 49, (a) is an image example showing the relationship between the source point position in the plane conversion image and the source point direction division operator; (B) is an enlarged view thereof. 図49に示す三次元地図生成装置における画像分割用のオペレータの一例を示す図で、メルカトール画像における湧きだし点位置と吸い込み点位置と、画像分割を示す画像例である。It is a figure which shows an example of the operator for an image division in the three-dimensional map production | generation apparatus shown in FIG. 49, It is an example of an image which shows the starting point position and suction point position in a Mercator image, and image division. 図49に示す三次元地図生成装置における画像分割用のオペレータの一例を示す図で、球面展開画像における湧きだし点位置と吸い込み点位置と、画像分割を示す画像例である。FIG. 50 is a diagram illustrating an example of an operator for image division in the three-dimensional map generation apparatus illustrated in FIG. 49, and is an image example illustrating a source point position, a suction point position, and an image division in a spherically developed image. (a)〜(b)は、図49に示す三次元地図生成装置における画像分割処理手順を示す説明図である。(A)-(b) is explanatory drawing which shows the image division process sequence in the three-dimensional map production | generation apparatus shown in FIG. (a)〜(b)は、図49に示す三次元地図生成装置における画像分割処理手順を示す説明図である。(A)-(b) is explanatory drawing which shows the image division process sequence in the three-dimensional map production | generation apparatus shown in FIG. (a)〜(b)は、図49に示す三次元地図生成装置における画像分割処理手順を示す説明図である。(A)-(b) is explanatory drawing which shows the image division process sequence in the three-dimensional map production | generation apparatus shown in FIG. 本発明の一実施形態に係る複数カメラによる視差併用方式の三次元地図生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional map production | generation apparatus of the parallax combined method by multiple cameras which concerns on one Embodiment of this invention. 図58に示す三次元地図生成装置における視差方式カメラの構成例を示す説明図である。FIG. 59 is an explanatory diagram illustrating a configuration example of a parallax camera in the three-dimensional map generation device illustrated in FIG. 58. 本発明の一実施形態に係るCV方式航法装置の構成を示すブロック図である。It is a block diagram which shows the structure of the CV type navigation apparatus which concerns on one Embodiment of this invention. 図60に示す航法装置における具体的な処理動作を説明するブロック図である。FIG. 61 is a block diagram illustrating specific processing operations in the navigation device shown in FIG. 60. 図60に示す航法装置を搭載した車輌を模式的に示した車輌の右側面図である。FIG. 61 is a right side view of a vehicle schematically showing a vehicle on which the navigation device shown in FIG. 60 is mounted. 本発明の一実施形態に係る歩行者ナビシステムの基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the pedestrian navigation system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る歩行者ナビシステムの基本構成の他の一例を示すブロック図である。It is a block diagram which shows another example of the basic composition of the pedestrian navigation system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る歩行者ナビシステムの具体的構成の一例を示すブロック図である。It is a block diagram which shows an example of the specific structure of the pedestrian navigation system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る歩行者ナビシステムの具体的構成の他の一例を示すブロック図である。It is a block diagram which shows another example of the specific structure of the pedestrian navigation system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る歩行者ナビシステムの具体的構成の他の一例を示すブロック図である。It is a block diagram which shows another example of the specific structure of the pedestrian navigation system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る歩行者ナビシステムの具体的構成の他の一例を示すブロック図である。It is a block diagram which shows another example of the specific structure of the pedestrian navigation system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る歩行者ナビシステムの動作の一例を示すブロック図である。It is a block diagram which shows an example of operation | movement of the pedestrian navigation system which concerns on one Embodiment of this invention.

符号の説明Explanation of symbols

1 高精度CV演算装置
10 移動体計測部
20 データ生成部
30 時間軸整合部
40 CV補正部
50 高精度CVデータ出力部
60 CV映像合成表示部
DESCRIPTION OF SYMBOLS 1 High precision CV arithmetic unit 10 Mobile body measurement part 20 Data generation part 30 Time axis alignment part 40 CV correction part 50 High precision CV data output part 60 CV image composition display part

Claims (17)

移動体に固定され、当該移動体の移動とともに移動体周辺を撮影してビデオ映像を取得するとともに、当該移動体の位置データと移動量データを含む位置計測データを計測する移動体計測部と、
前記移動体計測部で取得されたビデオ映像を記録し、当該ビデオ映像からカメラの三次元位置及び3軸回転位置を示すCVデータを生成する所定のCV演算を行うとともに、前記移動体計測部で計測された位置計測データを取得するデータ生成部と、
前記データ生成部で生成されたCVデータを、基準時刻により関連付けられた時刻同期CVデータとして生成するとともに、前記位置計測データを、基準時刻により関連付けられた時刻同期計測データとして生成する時間軸整合部と、
前記時刻同期CVデータと前記時刻同期計測データを同一時間軸で関連付けて比較し、当該比較結果により、時刻同期CVデータと時刻同期計測データを相互に補完補正し、CVデータの最終的なCV値を補正するCV補正信号を生成するCV補正部と、
前記データ生成部に記録されたビデオ映像を出力し、当該ビデオ映像の各フレームに対応して、前記CV補正信号により補正された高精度CV値を出力する高精度CVデータ出力部と、
を備え、
前記データ生成部が、
動画映像の画像データから、所定数の特徴点を自動抽出する特徴点抽出部と、抽出された特徴点について、動画映像の各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部と、対応関係が求められた特徴点の三次元位置座標を求め、当該三次元位置座標から、各フレーム画像に対応したカメラの三次元位置座標及び三次元回転座標からなるカメラベクトルを求めるカメラベクトル演算部とを備え、前記所定のCV演算を行うCVデータ演算部を備える高精度CV演算装置と、
前記高精度CV演算装置の高精度CVデータ出力部から出力されるビデオ映像中に、三次元地図として生成すべき任意の対象物を指定する対象物指定部と、
前記対象物指定部で指定された対象物を三次元計測する対象物三次元計測部と、
前記対象物指定部で三次元計測されたデータから、三次元地図に記載する形式で三次元部品を生成する三次元地図部品生成部と、
三次元地図としての三次元空間を定義する三次元空間定義部と、
前記対象物の座標上の位置を測量して、その三次元座標を求める対象物地点測量部と、
前記三次元地図部品を、前記三次元空間定義部で定義された三次元空間内に、前記対象物地点測量部の測量により求められた三次元座標により三次元配置を決定する三次元座標決定部と、
前記三次元地図部品の三次元座標配置を繰り返して、三次元地図を出力する三次元地図出力部と、
を備え、
前記ビデオ映像が、地図生成のための移動体が一定区間で交差するように移動して取得されるとともに、空撮及び地上撮の映像を含み、
前記高精度CV演算装置で行われる前記CV演算が、前記空撮と地上撮の映像をCV演算により結合して同時にCV値を求めることを特徴とするCV方式三次元地図生成装置。
A moving body measuring unit fixed to the moving body, capturing a video image by photographing the periphery of the moving body along with the movement of the moving body, and measuring position measurement data including position data and movement amount data of the moving body;
A video image acquired by the moving body measuring unit is recorded, a predetermined CV calculation is performed to generate CV data indicating a three-dimensional position and a three-axis rotation position of the camera from the video image, and the moving body measuring unit A data generation unit for acquiring measured position measurement data;
A time axis matching unit that generates CV data generated by the data generation unit as time-synchronized CV data associated with a reference time and generates the position measurement data as time-synchronized measurement data associated with a reference time When,
The time-synchronized CV data and the time-synchronized measurement data are compared in association with each other on the same time axis, and the time-synchronized CV data and the time-synchronized measurement data are complementarily corrected according to the comparison result, and the final CV value of the CV data A CV correction unit for generating a CV correction signal for correcting
A high-precision CV data output unit that outputs a video image recorded in the data generation unit and outputs a high-precision CV value corrected by the CV correction signal corresponding to each frame of the video image;
With
The data generator is
A feature point extraction unit that automatically extracts a predetermined number of feature points from image data of a moving image, and the extracted feature points are automatically tracked within each frame image of the moving image to obtain a correspondence between the frame images. The feature point correspondence processing unit and the three-dimensional position coordinates of the feature point for which the correspondence relationship is obtained are obtained, and the camera composed of the three-dimensional position coordinates and the three-dimensional rotation coordinates of the camera corresponding to each frame image from the three-dimensional position coordinates. A high-precision CV computing device comprising a camera vector computing unit for obtaining a vector and a CV data computing unit for performing the predetermined CV computation ;
An object designating unit for designating an arbitrary object to be generated as a three-dimensional map in the video image output from the high-precision CV data output unit of the high-precision CV arithmetic unit;
A target three-dimensional measurement unit that three-dimensionally measures the target specified by the target specification unit;
From the data three-dimensionally measured by the object designating unit, a three-dimensional map component generation unit that generates a three-dimensional component in a format described in a three-dimensional map,
A three-dimensional space definition section for defining a three-dimensional space as a three-dimensional map;
Surveying the position of the object on the coordinates, and obtaining the three-dimensional coordinates of the object point surveying unit,
A three-dimensional coordinate determination unit that determines a three-dimensional arrangement of the three-dimensional map component in the three-dimensional space defined by the three-dimensional space definition unit based on the three-dimensional coordinates obtained by the survey of the object point surveying unit. When,
A three-dimensional map output unit for outputting a three-dimensional map by repeating the three-dimensional coordinate arrangement of the three-dimensional map component;
With
The video image is acquired by moving so that a moving body for generating a map intersects in a certain section, and includes images of aerial photography and ground photography,
The CV method three-dimensional map generation device , wherein the CV calculation performed by the high-precision CV calculation device combines the aerial and ground images by CV calculation to obtain a CV value at the same time .
移動体に固定され、当該移動体の移動とともに移動体周辺を撮影してビデオ映像を取得するとともに、当該移動体の位置データと移動量データを含む位置計測データを計測する移動体計測部と、A moving body measuring unit fixed to the moving body, capturing a video image by photographing the periphery of the moving body along with the movement of the moving body, and measuring position measurement data including position data and movement amount data of the moving body;
前記移動体計測部で取得されたビデオ映像を記録し、当該ビデオ映像からカメラの三次元位置及び3軸回転位置を示すCVデータを生成する所定のCV演算を行うとともに、前記移動体計測部で計測された位置計測データを取得するデータ生成部と、A video image acquired by the moving body measuring unit is recorded, a predetermined CV calculation is performed to generate CV data indicating a three-dimensional position and a three-axis rotation position of the camera from the video image, and the moving body measuring unit A data generation unit for acquiring measured position measurement data;
前記データ生成部で生成されたCVデータを、基準時刻により関連付けられた時刻同期CVデータとして生成するとともに、前記位置計測データを、基準時刻により関連付けられた時刻同期計測データとして生成する時間軸整合部と、A time axis matching unit that generates CV data generated by the data generation unit as time-synchronized CV data associated with a reference time and generates the position measurement data as time-synchronized measurement data associated with a reference time When,
前記時刻同期CVデータと前記時刻同期計測データを同一時間軸で関連付けて比較し、当該比較結果により、時刻同期CVデータと時刻同期計測データを相互に補完補正し、CVデータの最終的なCV値を補正するCV補正信号を生成するCV補正部と、The time-synchronized CV data and the time-synchronized measurement data are compared in association with each other on the same time axis, and the time-synchronized CV data and the time-synchronized measurement data are complementarily corrected according to the comparison result, and the final CV value of the CV data A CV correction unit for generating a CV correction signal for correcting
前記データ生成部に記録されたビデオ映像を出力し、当該ビデオ映像の各フレームに対応して、前記CV補正信号により補正された高精度CV値を出力する高精度CVデータ出力部と、A high-precision CV data output unit that outputs a video image recorded in the data generation unit and outputs a high-precision CV value corrected by the CV correction signal corresponding to each frame of the video image;
を備え、With
前記データ生成部が、The data generator is
動画映像の画像データから、所定数の特徴点を自動抽出する特徴点抽出部と、抽出された特徴点について、動画映像の各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部と、対応関係が求められた特徴点の三次元位置座標を求め、当該三次元位置座標から、各フレーム画像に対応したカメラの三次元位置座標及び三次元回転座標からなるカメラベクトルを求めるカメラベクトル演算部とを備え、前記所定のCV演算を行うCVデータ演算部を備える高精度CV演算装置と、A feature point extraction unit that automatically extracts a predetermined number of feature points from image data of a moving image, and the extracted feature points are automatically tracked within each frame image of the moving image to obtain a correspondence between the frame images. The feature point correspondence processing unit and the three-dimensional position coordinates of the feature point for which the correspondence relationship is obtained are obtained, and the camera composed of the three-dimensional position coordinates and the three-dimensional rotation coordinates of the camera corresponding to each frame image from the three-dimensional position coordinates. A high-precision CV computing device comprising a camera vector computing unit for obtaining a vector and a CV data computing unit for performing the predetermined CV computation;
前記高精度CV演算装置の高精度CVデータ出力部から出力されるビデオ映像中に、三次元地図として生成すべき任意の対象範囲を指定する対象範囲指定部と、A target range designating unit for designating an arbitrary target range to be generated as a three-dimensional map in the video image output from the high precision CV data output unit of the high precision CV arithmetic unit;
前記対象範囲指定部で指定された対象範囲中に、計測点密度を指定する計測点密度指定部と、A measurement point density designating unit for designating a measurement point density in the target range designated by the target range designating unit;
指定された前記対象範囲と前記計測点密度に基づいて、計測点を生成する計測点生成部と、Based on the specified target range and the measurement point density, a measurement point generation unit that generates measurement points;
前記計測点を前記ビデオ映像の隣接する複数のフレームに亘って追跡する計測点追跡部と、A measurement point tracking unit that tracks the measurement points over a plurality of adjacent frames of the video image;
前記高精度CV演算装置の高精度CVデータ出力部から出力されるCV値と、前記計測点の追跡により追跡データが取得された計測点に基づいて、計測点の三次元座標を演算により求める計測点演算部と、Measurement that calculates the three-dimensional coordinates of the measurement point based on the CV value output from the high-precision CV data output unit of the high-precision CV calculation device and the measurement point from which the tracking data is acquired by tracking the measurement point A point calculator,
前記対象範囲にあるすべての計測点の三次元座標分布を求める対象範囲測量部と、A target range surveying unit for obtaining a three-dimensional coordinate distribution of all measurement points in the target range;
前記計測点の三次元分布から計測点が作る三次元形状を生成する三次元形状生成部と、A three-dimensional shape generator for generating a three-dimensional shape created by the measurement points from the three-dimensional distribution of the measurement points;
前記ビデオ映像中の前記対象範囲に、直線部分から構成される対象物の一部を特定計測点として指定し、その属性とともに登録する特定計測点指定登録部と、A specific measurement point designation registration unit that designates a part of an object composed of a straight line portion as a specific measurement point in the target range in the video image, and registers the attribute together with the attribute;
前記特定計測点が特定されることにより、当該特定計測点の属性が前記計測点生成部に送出され、一般の計測点と同様に追跡され演算されて、前記計測点演算部に出力され、前記計測点演算部から出力される三次元座標データ中から、特定計測点のデータのみを抽出し、その属性に適合した形状を与える特定計測点形成部と、By specifying the specific measurement point, the attribute of the specific measurement point is sent to the measurement point generation unit, tracked and calculated in the same manner as a general measurement point, and output to the measurement point calculation unit, From the three-dimensional coordinate data output from the measurement point calculation unit, only the data of the specific measurement point is extracted, and the specific measurement point formation unit that gives a shape suitable for the attribute,
前記特定計測点形成部から出力される特定計測点で形成される三次元形状を、特定計測点以外の前記計測点から得られた三次元形状とともに統合する三次元座標統合部と、A three-dimensional coordinate integration unit that integrates a three-dimensional shape formed by specific measurement points output from the specific measurement point forming unit with a three-dimensional shape obtained from the measurement points other than the specific measurement points;
前記統合された三次元形状に基づいて三次元地図を生成して出力する三次元地図出力部と、A 3D map output unit for generating and outputting a 3D map based on the integrated 3D shape;
を備え、With
前記計測点密度指定部が、The measurement point density designation unit is
前記高精度CV演算装置の高精度CVデータ出力部から取得したCV値に基づいて、ビデオ映像の回転成分を停止した映像を生成する画像安定化部と、An image stabilization unit that generates a video in which a rotation component of a video image is stopped based on a CV value acquired from a high-precision CV data output unit of the high-precision CV arithmetic unit;
前記回転成分を停止したビデオ映像の動きの原点となる湧きだし点を決定する湧きだし点決定部と、A source point determination unit for determining a source point that is a starting point of the motion of the video image in which the rotation component is stopped;
任意の指定範囲の画像フレームを小領域の画像ブロックの集合に分割する画像ブロック分割部と、An image block dividing unit that divides an image frame of an arbitrary designated range into a set of image blocks of a small area;
前記画像ブロックのすべてについて、特徴点となり得るブロックを抽出する特徴点抽出部と、A feature point extraction unit that extracts a block that can be a feature point for all of the image blocks;
前記画像ブロックのすべてについて、境界線の一部となり得るブロックを抽出する境界点抽出部と、For all the image blocks, a boundary point extraction unit that extracts a block that can be a part of the boundary line;
前記画像ブロックの前記特徴点及び境界点以外の点を領域点として抽出する領域点抽出部と、A region point extraction unit that extracts points other than the feature points and boundary points of the image block as region points;
前記画像ブロックの各点を、湧きだし点から放射状に伸びる方向に結合し、その順番と隣り合う関係を保つように固定するとともに、隣り合う各ブロック間の距離関係は任意に伸縮可能にゴム紐結合する二次元ゴム紐結合映像生成部と、を備え、Each point of the image block is coupled in a direction extending radially from the spring point, and is fixed so as to maintain a relationship adjacent to the order, and the distance relationship between the adjacent blocks can be arbitrarily expanded and contracted. A two-dimensional rubber string combined image generating unit to be combined,
前記計測点生成部が、The measurement point generator is
前記特徴点を計測点として選択する特徴点選択部と、A feature point selection unit for selecting the feature points as measurement points;
前記領域点とそれを取り囲む特徴点及び境界点で作る領域を生成する領域生成部と、An area generation unit for generating an area created by the area points and the feature points and boundary points surrounding the area points;
前記特徴点と計測点及び領域点を計測領域として、追跡計測対象とする計測点決定部と、を備え、A measurement point determination unit that is a tracking measurement target with the feature point, measurement point, and region point as a measurement region, and
前記計測点追跡部が、The measurement point tracking unit is
前記計測点としての特徴点,境界点及び計測領域を、湧き出し点方向に沿って、隣接する複数のフレームに亘って追跡し、The feature points, boundary points, and measurement areas as the measurement points are tracked over a plurality of adjacent frames along the spring point direction,
前記計測点演算部が、The measurement point calculation unit is
前記計測点の追跡結果と前記高精度CV演算装置の高精度CVデータ出力部から出力されるCVデータに基づいて、計測点の三次元座標及び領域の三次元座標を取得し、Based on the tracking results of the measurement points and the CV data output from the high-precision CV data output unit of the high-precision CV arithmetic device, the three-dimensional coordinates of the measurement points and the three-dimensional coordinates of the region are acquired,
前記計測点測量部が、The measurement point surveying unit
前記計測点及び計測領域を囲む境界点の三次元座標を前記対象範囲に亘って繰り返し演算により求め、前記計測点追跡部において追跡不可能な画像ブロックがある場合には、当該画像ブロックを演算済みの既知の三次元座標に基づいて内挿により求め、その三次元位置を予想して対象範囲を測量し、3D coordinates of boundary points surrounding the measurement point and measurement area are repeatedly calculated over the target range, and if there is an image block that cannot be tracked by the measurement point tracking unit, the image block has already been calculated. Calculated by interpolation based on the known three-dimensional coordinates of, and predicting the three-dimensional position, surveying the target range,
前記三次元形状生成部が、The three-dimensional shape generation unit
前記特徴点と境界点の三次元座標から、特徴点と境界点が所属する領域を決定する境界線所属分類部と、From the three-dimensional coordinates of the feature point and the boundary point, a boundary line belonging classification unit that determines a region to which the feature point and the boundary point belong;
前記特徴点と境界点の所属により、前記ブロックのゴム紐結合の一方を切断して、片方の領域間の結合を断ち、もう一方の領域に結合させるゴム紐切断部と、With the affiliation of the feature point and the boundary point, cut one side of the rubber cord coupling of the block, cut off the coupling between one region, and a rubber cord cutting part to be coupled to the other region,
前記対象範囲のすべてのブロックを、特徴点,境界点,領域点に分類し、特徴点は計測点として求めた座標で固定し、座標が定まらない境界点及び領域点はゴム紐上で内挿し、それぞれの三次元座標を与えて、すべてのブロックを三次元的にゴム紐結合する三次元ゴム紐結合映像部と、を備え、All blocks in the target range are classified into feature points, boundary points, and area points. The feature points are fixed at the coordinates obtained as measurement points, and the boundary points and area points whose coordinates are not fixed are interpolated on a rubber string. A three-dimensional rubber string coupling image unit that gives the respective three-dimensional coordinates and three-dimensionally couples all blocks with a rubber string;
前記三次元座標統合部が、The three-dimensional coordinate integration unit
前記画像ブロック分割部の分割密度を、前記三次元ゴム紐結合映像が生成される毎に、粗い密度から順次より高密度に変更し、前期画像ブロック分割からの工程の再演算を行わせる画像分割密度変更部と、Image division for changing the division density of the image block division unit from coarse density to higher density sequentially every time the three-dimensional rubber string combined video is generated, and performing recalculation of the process from the previous image block division A density changing section;
最初に設定された前記画像ブロック分割の密度により前記三次元ゴム紐結合された画像を一旦記録し、次工程において、より詳細な三次元形状を順次生成し、当該工程を繰り返して所定の密度に至るまで順次三次元形状を生成し、より詳細な三次元映像を生成する三次元画像記録統合部と、The image combined with the three-dimensional rubber string is temporarily recorded according to the initially set density of the image block division, and in the next process, more detailed three-dimensional shapes are sequentially generated, and the process is repeated to a predetermined density. 3D image recording integration unit that generates 3D shapes sequentially and generates more detailed 3D images,
を備えることを特徴とするCV方式三次元地図生成装置。A CV method three-dimensional map generation apparatus comprising:
前記移動体計測部が、
複数のビデオカメラ機器を備え、
前記データ生成部が、
前記複数のビデオカメラ機器により得られたビデオ映像の視差のある複数画像から、カメラ間視差によりカメラ座標系における三次元形状を生成する視差方式カメラ座標三次元化部と、
前記カメラ座標系における三次元形状の中から三次元特徴部位を抽出し、当該三次元特徴部位をビデオ映像の隣接する複数のフレーム上で追跡し、又は当該フレームに対応する三次元形状上で追跡し、当該カメラ座標系における当該三次元特徴部位と当該カメラ位置から、静止座標系におけるカメラ座標と3軸回転角とをCV演算により求めるマルチCV演算部、
又は、前記カメラ座標系による三次元形状の中から複数の三次元特徴点を抽出し、当該三次元特徴点をビデオ映像の隣接する複数のフレーム、又は当該フレームに対応する三次元形状上で追跡し、カメラ座標として取得した当該三次元特徴点と当該カメラ原点座標から、静止座標系におけるカメラ位置座標とその3軸回転角とをCV演算により求めるマルチCV演算部と、
を備える請求項1又は2記載のCV方式三次元地図生成装置。
The moving body measuring unit is
With multiple video camera equipment,
The data generator is
A parallax camera coordinate three-dimensionalization unit that generates a three-dimensional shape in a camera coordinate system from a plurality of images with parallax of video images obtained by the plurality of video camera devices;
A three-dimensional feature part is extracted from the three-dimensional shape in the camera coordinate system, and the three-dimensional feature part is tracked on a plurality of adjacent frames of the video image, or is traced on a three-dimensional shape corresponding to the frame. A multi-CV calculation unit that obtains the camera coordinates and the three-axis rotation angle in the stationary coordinate system from the three-dimensional feature part and the camera position in the camera coordinate system by CV calculation;
Alternatively, a plurality of three-dimensional feature points are extracted from a three-dimensional shape based on the camera coordinate system, and the three-dimensional feature points are tracked on a plurality of adjacent frames of the video image or on a three-dimensional shape corresponding to the frame. A multi-CV calculation unit for obtaining a camera position coordinate and its three-axis rotation angle in a stationary coordinate system from the three-dimensional feature point acquired as the camera coordinate and the camera origin coordinate by CV calculation;
The CV type | system | group three-dimensional map production | generation apparatus of Claim 1 or 2 provided with these.
前記移動体計測部が、
移動体に固定され、当該移動体の移動とともに、移動体周辺を撮影して全周ビデオ映像を取得する全周ビデオカメラ機器部と、前記移動体に固定され、位置関係を既知とする複数のカメラによって移動体周囲の視差のある映像を取得する複数ビデオカメラ機器部とを有し、これら全周ビデオカメラ機器部と複数ビデオカメラ機器部が、相互に三次元的位置と姿勢の関係を既知として設置され、
前記データ生成部が、
前記全周ビデオカメラ機器部によって得られた全周ビデオ映像を記録する全周ビデオ映像記録部と、
前記全周ビデオ映像記録部に記録された全周ビデオ映像の各フレーム画像内に複数の特徴点を抽出し、当該特徴点を全周ビデオ映像の隣接する複数のフレームに追跡し、前記移動体の座標系における当該複数の特徴点とカメラ位置関係に基づいて、静止座標系における全周カメラの位置座標と3軸回転角とを示すCVデータを演算により求めるCV演算部と、
前記複数ビデオカメラ機器部によって得られたビデオ映像の各フレーム画像内に複数の特徴点を抽出し、当該特徴点を、ビデオ映像の隣接する各フレーム画像内に追跡するとともに、カメラ間距離が既知の他のカメラの対応する各フレーム画像内に追跡することで、絶対距離を取得し、高精度のカメラ三次元座標と3軸回転姿勢を示すマルチCVデータを演算により求めるマルチCV演算部と、を備え、
前記時間軸整合部が、
前記CVデータと前記マルチCVデータに、時刻データを供給する時計部と、
前記時計部から供給される時刻データに基づいて前記CVデータを関連付けて記録する時刻同期CVデータ記録部と、
前記時計部から供給される時刻データに基づいて前記マルチCVデータを関連付けて記録する時刻同期マルチCVデータ記録部と、
複数のカメラ映像から取得されるCVデータ間の記録時刻の遅れを、前記時計部から供給される時刻データとの時間差により補正して遅延調整CV信号を出力する遅延調整CV信号出力部と、
複数のカメラ映像から取得されるマルチCVデータ間の記録時刻の遅れを、前記時計部から供給される時刻データとの時間差により補正して遅延調整マルチCV信号を出力する遅延マルチCV信号出力部と、を備え、
前記CV補正部が、
前記複数ビデオカメラ機器部と前記全周ビデオカメラ機器部との設置位置の差による座標のズレを前記CVデータに基づいて生成し、複数ビデオカメラ機器部の位置座標を全周ビデオカメラ機器部の位置に補正する機器座標位置補正部と、
前記遅延調整マルチCV信号の座標配列形状と、遅延調整CV信号の座標配列形状とを比較して、座標配列形状差を検出する座標配列形状比較部と、
前記遅延調整マルチCV信号の座標配列形状と、遅延調整CV信号の座標配列形状と、両者の対応関係がとれた区間の座標配列形状差から、3軸方向のスケール誤差を補正する補正信号を生成する補正信号生成部と、
前記区間に対応するCVデータによる座標配列形状を、前記マルチCVデータによる座標配列形状と一致させるようにCVデータを補正するCVデータスケール補正部と、
前記CVデータスケール補正部における補正処理を、目的区間の全域に亘って繰り返すことにより、連続する位置補正CVデータを生成する全域スケール補正部と、
前記全域スケール補正部で補正されたCVデータの三次元座標を既知として、3軸回転を含む高精度CVデータの再演算を行うCV再演算部と、を備え、
高精度CVデータ出力部が、
前記全周ビデオカメラ機器部で取得された全周ビデオ映像を出力する全周ビデオ映像出力部と、
前記全周ビデオ映像出力の各画像フレームに同期して、前記全域スケール補正部で位置補正され、前記CV再演算部で再演算されて3軸回転補正されたCVデータ信号を出力する再演算CVデータ出力部と、を備える請求項1乃至3のいずれかに記載のCV方式三次元地図生成装置。
The moving body measuring unit is
A video camera device unit that is fixed to the moving body and that captures a video image of the video around the moving body along with the movement of the moving body, and a plurality of video cameras that are fixed to the moving body and have a known positional relationship A plurality of video camera device units that acquire images with parallax around a moving object by a camera, and the all-around video camera device unit and the plurality of video camera device units have a known relationship between a three-dimensional position and a posture. Installed as
The data generator is
An all-around video image recording unit for recording all-around video images obtained by the all-around video camera device unit;
Extracting a plurality of feature points from each frame image of the all-round video image recorded in the all-around video image recording unit, tracking the feature points to a plurality of adjacent frames of the all-around video image, A CV calculation unit that calculates CV data indicating the position coordinates and the three-axis rotation angle of the all-around camera in the stationary coordinate system based on the plurality of feature points in the coordinate system and the camera positional relationship;
A plurality of feature points are extracted in each frame image of the video image obtained by the plurality of video camera device units, the feature points are tracked in each adjacent frame image of the video image, and the distance between the cameras is known. A multi-CV calculation unit that obtains an absolute distance by tracking within each corresponding frame image of another camera, and calculates multi-CV data indicating a high-precision camera three-dimensional coordinate and a three-axis rotation posture; With
The time axis alignment unit is
A clock unit for supplying time data to the CV data and the multi-CV data;
A time-synchronized CV data recording unit that records the CV data in association with each other based on time data supplied from the clock unit;
A time-synchronized multi-CV data recording unit that records the multi-CV data in association with each other based on time data supplied from the clock unit;
A delay adjustment CV signal output unit for correcting a delay in recording time between CV data acquired from a plurality of camera images by a time difference from the time data supplied from the clock unit and outputting a delay adjustment CV signal;
A delayed multi-CV signal output unit that outputs a delay-adjusted multi-CV signal by correcting a delay in recording time between multi-CV data acquired from a plurality of camera images by a time difference from the time data supplied from the clock unit; With
The CV correction unit is
A coordinate shift due to a difference in installation position between the plurality of video camera device units and the all-round video camera device unit is generated based on the CV data, and the position coordinates of the plurality of video camera device units are A device coordinate position correction unit for correcting the position;
A coordinate array shape comparison unit that detects a coordinate array shape difference by comparing the coordinate array shape of the delay adjustment multi-CV signal with the coordinate array shape of the delay adjustment CV signal;
From the coordinate arrangement shape of the delay adjustment multi-CV signal, the coordinate arrangement shape of the delay adjustment CV signal, and the difference in the coordinate arrangement shape of the section in which the corresponding relationship is established, a correction signal for correcting the scale error in the three-axis direction is generated. A correction signal generation unit to perform,
A CV data scale correction unit that corrects the CV data so that the coordinate array shape by the CV data corresponding to the section matches the coordinate array shape by the multi-CV data;
A global scale correction unit that generates continuous position correction CV data by repeating the correction process in the CV data scale correction unit over the entire target section;
A CV recalculation unit that performs recalculation of high-precision CV data including three-axis rotation with the three-dimensional coordinates of the CV data corrected by the global scale correction unit being known,
High-precision CV data output unit
An all-around video image output unit for outputting all-around video images acquired by the all-around video camera device unit;
A recalculation CV that outputs a CV data signal that is position-corrected by the global scale correction unit, recalculated by the CV recalculation unit, and corrected for three-axis rotation in synchronization with each image frame of the all-round video image output. A CV type three-dimensional map generation apparatus according to any one of claims 1 to 3 , further comprising a data output unit.
前記データ生成部が、
前記複数ビデオカメラ機器部の視差のある複数画像から、カメラ間視差によりカメラ座標系における三次元形状を生成する視差方式カメラ座標三次元化部と、
前記視差方式カメラ座標三次元化部で取得された、前記カメラ座標系における三次元形状の中から複数の三次元的特徴部位を抽出し、当該三次元的特徴部位をビデオ映像の隣接するフレーム間において追跡し、又は当該フレームに対応する三次元形状間において追跡し、当該三次元的特徴部位とカメラ位置関係に基づいて、前記移動体に備えられたカメラの静止座標系におけるカメラ位置座標とその3軸回転角をCV演算により求めるマルチCV演算部と、を備える請求項記載のCV方式三次元地図生成装置。
The data generator is
A parallax-type camera coordinate three-dimensionalization unit that generates a three-dimensional shape in a camera coordinate system from a plurality of images with parallax of the plurality of video camera device units, and a parallax between cameras
A plurality of three-dimensional feature parts are extracted from the three-dimensional shape in the camera coordinate system acquired by the parallax method camera coordinate three-dimensionalization unit, and the three-dimensional feature parts are extracted between adjacent frames of the video image. Or between the three-dimensional shapes corresponding to the frame, and based on the three-dimensional feature portion and the camera positional relationship, the camera position coordinates in the stationary coordinate system of the camera provided in the moving body and its The CV type | system | group 3D map production | generation apparatus of Claim 4 provided with the multi-CV calculating part which calculates | requires a 3-axis rotation angle by CV calculation.
前記移動体計測部が、
移動体に固定され、当該移動体の移動とともに、移動体周辺を撮影して全周ビデオ映像を取得する全周ビデオカメラ機器部と、前記移動体に固定され、当該移動体の三次元位置を緯度経度高度で取得するGPS計測機器部とを有し、これら全周ビデオカメラ機器部とGPS計測機器部が、相互に三次元的位置と姿勢の関係を既知として設置され、
前記データ生成部が、
前記全周ビデオカメラ機器部によって得られた全周ビデオ映像を記録する全周ビデオ映像記録部と、
前記全周ビデオ映像記録部に記録された全周ビデオ映像の各フレーム画像内に複数の特徴点を抽出し、当該特徴点を全周ビデオ映像の隣接する複数のフレームに追跡し、当該複数の特徴点とカメラ位置関係に基づいて、前記移動体に備えられた全周カメラの静止座標系における三次元位置座標と3軸回転角とを示すCVデータを演算により求めるCVデータ取得部と、
前記GPS計測機器部から当該GPS計測機器部の三次元位置を示す絶対座標データを取得する絶対座標データ取得部と、を備え、
前記時間軸整合部が、
前記CVデータと前記絶対座標データに、時刻データを供給する時計部と、
前記時計部から供給される時刻データに基づいて前記CVデータを関係付けて記録する時刻同期CVデータ記録部と、
前記時計部から供給される時刻データに基づいて前記絶対座標データを関連付けて記録する時刻同期絶対座標記録部と、
複数のカメラ映像から取得されるCVデータ間の記録時刻の遅れを、前記時計部から供給される時刻データとの時間差により補正して遅延調整CV信号を出力する遅延調整CV信号出力部と、
絶対座標データの絶対座標信号出力時刻と計測時刻との時間差を補正して、遅延調整絶対座標信号を出力する遅延調整絶対座標信号出力部と、を備え、
前記CV補正部が、
前記GPS計測機器部と前記全周ビデオカメラ機器部との設置位置の差による座標と3軸回転のズレを前記CVデータに基づいて生成し、GPS計測機器部の位置座標を全周ビデオカメラ機器部の位置に補正して遅延座標回転補正信号を出力する座標位置回転補正部と、
前記座標回転補正信号により補正された前記遅延調整絶対座標信号の座標配列形状と、前記遅延調整CV信号の座標配列形状とを比較する座標配列形状比較部と、
前記両座標配列の座標配列形状比較により、CV値の座標配列から外れる遅延調整絶対座標信号の地点を、絶対座標の精度変更地点として検出する絶対座標精度変更地点検出部と、
前記絶対座標精度変更地点を排除した相対精度が高い区間のみを複数選択する高精度相対値区間選択部と、
演算誤差の累積によりスケール誤差を含むCVデータについて、前記絶対座標データによる前記高精度相対値区間選択部に対応する地点の区間と、ビデオ映像から演算により求められたCVデータによる地点の区間を、時刻をパラメータとして対応させ、当該区間によって区切られた始点と終点の時刻の一致点に計測値が存在しないときは内挿によって一致点を求めて対応させる計測区間対応部と、
前記対応関係がとれた区間の始点と終点の絶対座標間の距離を区間距離として、スケール誤差を含むCVデータを補正する補正信号を生成する補正信号生成部と、
前記区間に対応するCVデータを、相対精度が高い絶対座標データによる区間距離データと一致させることで、当該CVデータを補正するCVデータスケール補正部と、
前記CVデータスケール補正部における補正処理を、目的区間の全域に亘って複数回繰り返することにより、連続する高精度CVデータを生成する全域スケール補正部と、を備え、
高精度CVデータ出力部が、
前記全周ビデオカメラ機器部で取得された全周ビデオ映像を出力する全周ビデオ出力部と、
前記全周ビデオ映像出力の各画像フレームに同期して、上記全域スケール補正されたCVデータ信号を出力するCVデータ出力部と、を備える請求項1乃至のいずれかに記載のCV方式三次元地図生成装置。
The moving body measuring unit is
An all-round video camera device unit that captures an all-around video image by photographing the periphery of the moving body along with the movement of the moving body, and a fixed three-dimensional position of the moving body. GPS measurement device unit that acquires at latitude and longitude altitude, these all-around video camera device unit and GPS measurement device unit is installed with a known relationship between the three-dimensional position and orientation,
The data generator is
An all-around video image recording unit for recording all-around video images obtained by the all-around video camera device unit;
Extracting a plurality of feature points in each frame image of the all-around video image recorded in the all-around video image recording unit, tracking the feature points to a plurality of adjacent frames of the all-around video image, A CV data acquisition unit that obtains CV data indicating a three-dimensional position coordinate and a three-axis rotation angle in a stationary coordinate system of an all-around camera provided in the moving body based on a feature point and a camera positional relationship;
An absolute coordinate data acquisition unit that acquires absolute coordinate data indicating a three-dimensional position of the GPS measurement device unit from the GPS measurement device unit,
The time axis alignment unit is
A clock unit for supplying time data to the CV data and the absolute coordinate data;
A time-synchronized CV data recording unit that records the CV data in association with each other based on time data supplied from the clock unit;
A time-synchronized absolute coordinate recording unit that records the absolute coordinate data in association with the time data supplied from the clock unit;
A delay adjustment CV signal output unit for correcting a delay in recording time between CV data acquired from a plurality of camera images by a time difference from the time data supplied from the clock unit and outputting a delay adjustment CV signal;
A delay adjustment absolute coordinate signal output unit that corrects a time difference between the absolute coordinate signal output time of the absolute coordinate data and the measurement time and outputs a delay adjustment absolute coordinate signal, and
The CV correction unit is
A coordinate due to a difference in installation position between the GPS measurement device unit and the all-round video camera device unit and a deviation of three-axis rotation are generated based on the CV data, and a position coordinate of the GPS measurement device unit is calculated from the all-round video camera device. A coordinate position rotation correction unit that outputs a delayed coordinate rotation correction signal by correcting to the position of the unit;
A coordinate array shape comparison unit that compares the coordinate array shape of the delay adjustment absolute coordinate signal corrected by the coordinate rotation correction signal with the coordinate array shape of the delay adjustment CV signal;
An absolute coordinate accuracy change point detection unit that detects a point of the delay adjustment absolute coordinate signal deviating from the coordinate array of the CV values as a coordinate change point of the absolute coordinate by comparing the coordinate array shape of the two coordinate arrays;
A high-accuracy relative value section selection unit that selects a plurality of sections having a high relative accuracy excluding the absolute coordinate accuracy change point;
For CV data including a scale error due to accumulation of calculation errors, a section of a point corresponding to the high-precision relative value section selection unit based on the absolute coordinate data and a section of a point based on CV data obtained by calculation from a video image, Corresponding time as a parameter, when there is no measurement value at the coincidence point of the start point and the end point time divided by the interval, a measurement interval corresponding unit to obtain and correspond to the matching point by interpolation,
A correction signal generation unit that generates a correction signal for correcting CV data including a scale error, with the distance between the absolute coordinates of the start point and end point of the section in which the correspondence relationship is taken as a section distance;
A CV data scale correction unit for correcting the CV data by matching the CV data corresponding to the section with the section distance data based on the absolute coordinate data having high relative accuracy;
A global scale correction unit that generates continuous high-precision CV data by repeating the correction process in the CV data scale correction unit a plurality of times over the entire area of the target section,
High-precision CV data output unit
An all-around video output unit for outputting all-around video images acquired by the all-around video camera device unit;
Wherein in synchronization with each image frame all around the video image output, the entire scale corrected CV CV data output unit for outputting data signals and, CV method three-dimensional according to any one of claims 1 to 5 comprising a Map generator .
前記CV補正部が、
前記絶対精度変更地点検出部で検出された絶対精度変更地点の分布を統計処理する分布統計処理部と、
前記絶対精度変更地点の分布の統計的中心を仮の真値として求める仮の真値演算部と、
前記仮の真値に基づいて、前記GPSの計測データの誤差を補正すべき区間を示す、前記絶対精度変更地点の始点及び終点で示される区間の補正値を取得する仮の真値補正データ取得部と、
前記区間の補正値に基づいて、絶対座標の配列を補正した高精度の絶対座標配列を求める絶対座標補正部と、を備え、
前記高精度CVデータ出力部が、
前記高精度絶対座標配列を絶対座標の基準として、前記高精度CVデータ出力部から出力されたスケール補正されたCVデータに絶対座標を与える絶対座標付加CVデータ統合部と、
各画像フレームに同期した、絶対座標が付加されたCVデータを出力する絶対座標CVデータ出力部と、を備える請求項記載のCV方式三次元地図生成装置。
The CV correction unit is
A distribution statistical processing unit that statistically processes the distribution of the absolute accuracy change points detected by the absolute accuracy change point detection unit;
A temporary true value calculation unit for determining a statistical center of the distribution of the absolute accuracy change points as a temporary true value;
Temporary true value correction data acquisition for acquiring a correction value of a section indicated by a start point and an end point of the absolute accuracy change point indicating a section in which an error of the GPS measurement data is to be corrected based on the temporary true value And
An absolute coordinate correction unit for obtaining a high-accuracy absolute coordinate array obtained by correcting the absolute coordinate array based on the correction value of the section;
The high-precision CV data output unit is
An absolute coordinate-added CV data integration unit that gives absolute coordinates to the scale-corrected CV data output from the high-precision CV data output unit using the high-precision absolute coordinate array as an absolute coordinate reference;
The CV type three-dimensional map generation apparatus according to claim 6 , further comprising: an absolute coordinate CV data output unit that outputs CV data to which absolute coordinates are added in synchronization with each image frame.
前記移動体計測部が、
絶対3軸回転姿勢を計測するIMU計測器を備え、
前記データ生成部が、
前記IMU計測機器部により計測された絶対3軸回転姿勢のデータを取得する絶対3軸回転姿勢データ取得部を備え、
前記時間軸整合部が、
前記時計部から供給される時刻信号により前記絶対3軸回転姿勢データを関係付けて記録する時刻同期3軸回転姿勢記録部と、
前記絶対3軸回転姿勢データの記録時刻と基準時刻のズレを補正して地点調整3軸回転姿勢データ信号を出力する遅延調整3軸回転姿勢出力部と、を備え、
前記CV補正部が、
前記遅延調整CV信号出力部からの3軸回転姿勢信号と前記遅延調整3軸回転姿勢出力部からの絶対回転3軸姿勢信号とを比較する3軸回転姿勢比較部と、
前記3軸回転姿勢信号と前記絶対回転3軸姿勢信号の差を、予め定めた閾値と比較する3軸回転閾値比較部と、
前記3軸回転姿勢信号と前記絶対回転3軸姿勢信号の差が前記閾値を超えたときに、補正区間を指定する3軸回転補正区間設定部と、
前記補正区間における補正値を生成する3軸回転補正信号生成部と、を備え、
前記高精度CVデータ出力部が、
前記CVデータ出力部から出力されるCVデータの各画像フレームに同期した3軸回転姿勢データに、3軸回転補正を加えて出力する3軸回転補正CVデータ出力部を備える請求項乃至のいずれかに記載のCV方式三次元地図生成装置。
The moving body measuring unit is
An IMU measuring instrument that measures absolute 3-axis rotation posture
The data generator is
An absolute triaxial rotational attitude data acquisition unit that acquires absolute triaxial rotational attitude data measured by the IMU measuring instrument unit;
The time axis alignment unit is
A time-synchronized triaxial rotational attitude recording unit that records the absolute triaxial rotational attitude data in association with a time signal supplied from the clock unit;
A delay adjustment 3-axis rotation attitude output unit that corrects a deviation between the recording time of the absolute 3-axis rotation attitude data and a reference time and outputs a point adjustment 3-axis rotation attitude data signal;
The CV correction unit is
A three-axis rotation posture comparison unit that compares the three-axis rotation posture signal from the delay adjustment CV signal output unit and the absolute rotation three-axis posture signal from the delay adjustment three-axis rotation posture output unit;
A triaxial rotation threshold value comparison unit that compares a difference between the triaxial rotation posture signal and the absolute rotation triaxial posture signal with a predetermined threshold value;
A three-axis rotation correction section setting unit that specifies a correction section when a difference between the three-axis rotation attitude signal and the absolute rotation three-axis attitude signal exceeds the threshold;
A triaxial rotation correction signal generation unit that generates a correction value in the correction section,
The high-precision CV data output unit is
Wherein the three-axis rotational position data synchronized to each image frame of the CV data outputted from the CV data output unit, according to claim 4 to 7 comprises a 3-axis rotation correction CV data output unit for outputting by adding 3-axis rotational correction The CV type | system | group three-dimensional map production | generation apparatus in any one.
前記データ生成部が、
球面変換座標で記録されている前記全周ビデオ映像を、概略真下方向及び真上方向に平面変換する概略両極平面展開部と、
球面変換座標で記録されている前記全周ビデオ映像を、複数の赤道面方向に平面変換する概略赤道平面展開部と、
前記平面変換された画像に含まれる鉛直成分に基づいて鉛直方向を検出し、検出された鉛直方向をCVデータの演算に反映させる鉛直方向検出部と、を備える請求項1乃至記載のCV方式三次元地図生成装置。
The data generator is
A general bipolar plane expansion unit for plane-converting the entire circumference video image recorded in spherical transformation coordinates in a substantially straight down direction and a straight up direction;
A general equatorial plane development unit that plane-transforms the entire video image recorded in spherical transformation coordinates into a plurality of equatorial plane directions;
Wherein detecting a vertical direction based on the vertical component contained in the plane converted image, the detected vertical direction CV method of claims 1 to 8 wherein and a vertical direction detector to be reflected in the calculation of the CV data 3D map generator .
前記移動体計測部が、
対象物を低縮尺で撮影する低縮尺全周ビデオ映像機器部と、
前記対象物を高縮尺で撮影する高縮尺全周ビデオ映像機器部と、を備え、
前記データ生成部が、
前記低縮尺全周ビデオ映像機器部により、低縮尺ビデオ信号を取得する低縮尺ビデオ信号取得部と、
前記高縮尺全周ビデオ映像機器部により、高縮尺ビデオ信号を取得する高縮尺ビデオ信号取得部と、
前記低縮尺全周ビデオ映像機器部から出力される低縮尺全周ビデオ映像と、前記高縮尺全周ビデオ映像機器部から出力される高縮尺全周ビデオ映像とを比較し、両映像に含まれる共通特徴点を抽出してその対応点を取ることにより共通特徴点を検出する共通特徴点検出部と、
検出された各共通特徴点に対し、重み関数により重みを与えた重み共通特徴点を設定する共通特徴点重み設定部と、
前記低縮尺全周ビデオ映像から低縮尺の特徴点を検出する低縮尺特徴点検出部と、
検出された低縮尺の特徴点を隣接するフレームに追跡する低縮尺フレーム間追跡部と、
前記高縮尺全周ビデオ映像から高縮尺の特徴点を検出する高縮尺特徴点検出部と、
検出された高縮尺の特徴点を隣接するフレームに追跡する高縮尺フレーム間追跡部と、
前記低縮尺の特徴点,高縮尺の特徴点及び重み共通特徴点に基づいて、前記低縮尺全周ビデオ映像と高縮尺全周ビデオ映像を一括統合してCV演算を行うCV演算部と、
前記CV演算部で得られた精度の高いCV演算データを出力するCVデータ取得部と、を備える請求項1乃至記載のCV方式三次元地図生成装置。
The moving body measuring unit is
A low-scale all-around video equipment unit that captures an object at a low scale,
A high-scale all-around video image equipment unit for photographing the object at a high scale,
The data generator is
A low-scale video signal acquisition unit for acquiring a low-scale video signal by the low-scale all-around video image equipment unit;
A high-scale video signal acquisition unit that acquires a high-scale video signal by the high-scale all-around video image equipment unit;
The low-scale all-around video image output from the low-scale all-around video image equipment unit is compared with the high-scale all-around video image unit output from the high-scale all-around video image device unit, and are included in both images A common feature point detection unit that detects common feature points by extracting common feature points and taking corresponding points;
A common feature point weight setting unit that sets a weight common feature point weighted by a weight function for each detected common feature point;
A low-scale feature point detector for detecting a low-scale feature point from the low-scale all-around video image;
A low-scale inter-frame tracking unit that tracks detected low-scale feature points in adjacent frames;
A high-scale feature point detection unit that detects a high-scale feature point from the high-scale all-round video image;
A high-scale inter-frame tracking unit that tracks detected high-scale feature points in adjacent frames;
A CV computing unit that performs CV computation by collectively integrating the low-scale all-round video image and the high-scale all-around video image based on the low-scale feature point, the high-scale feature point, and the weight common feature point;
The CV system three-dimensional map production | generation apparatus of Claim 1 thru | or 9 provided with the CV data acquisition part which outputs the CV calculation data with the high precision obtained by the said CV calculation part.
二次元座標が既知として与えられた二次元地図部と、
前記移動体計測部で取得されるビデオ映像中の、前記二次元地図部の地点座標と対応する共通地点部分を検出する共通点検出部と、
検出された前記共通地点の二次元地図上の二次元座標を検出する共通点二次元座標検出部と、
前記移動体計測部で取得されるビデオ映像中に、追跡可能な特徴点を抽出する特徴点抽出部と、抽出された前記特徴点を複数の隣接する画像フレームの中に対応点を追跡する特徴点追跡部と、複数の特徴点の対応点とカメラ位置関係に基づいて、静止座標系におけるカメラの三次元位置と3軸回転姿勢を求めるCV演算部とを備え、CVデータを取得するCVデータ取得部と、
前記CVデータ取得部からのCVデータに基づいて、前記移動体計測部で取得されるビデオ映像の共通点の三次元座標を取得する共通点三次元座標演算部と、
前記共通点の三次元座標を二次元平面に変換する二次元平面座標変換部と、
前記二次元地図部のデータから得られた共通点の二次元座標と、前記ビデオ映像から得られた共通点の三次元座標を二次元平面に投影して得られた複数の共通点二次元座標とを比較する共通点二次元座標比較部と、
比較された前記両二次元座標の差分を検出し、差分が最小になる比較信号の位置座標を決定するとともに、同一比率でもう一つの座標軸方向の座標を補正し、前記共通点の補正量をその周囲に分散的に配分して、CV値の位置座標全体を補正するCV値の位置座標と置換する共通点領域CV値補正部と、
前記共通点部分で、地図と一致したカメラの位置座標データを固定し、前記共通点と前記特徴点の追跡結果に基づいて再度CV演算を行い、より精度の高い3軸回転データを取得するCV補正演算部と、
前記補正により、精度が高まった補正CV値を出力する補正CVデータ出力部と、を備える請求項1乃至10のいずれかに記載のCV方式三次元地図生成装置。
A two-dimensional map part given two-dimensional coordinates as known;
A common point detection unit for detecting a common point portion corresponding to the point coordinates of the two-dimensional map unit in the video image acquired by the moving body measurement unit;
A common point two-dimensional coordinate detection unit for detecting a two-dimensional coordinate on a two-dimensional map of the detected common point;
A feature point extracting unit for extracting a traceable feature point in the video image acquired by the moving body measuring unit, and a feature for tracking the extracted feature point in a plurality of adjacent image frames CV data including a point tracking unit, and a CV calculation unit that obtains a three-dimensional position and a three-axis rotation posture of the camera in the stationary coordinate system based on the corresponding points of a plurality of feature points and the camera positional relationship, and acquires CV data An acquisition unit;
Based on CV data from the CV data acquisition unit, a common point three-dimensional coordinate calculation unit that acquires a three-dimensional coordinate of a common point of video images acquired by the moving body measurement unit;
A two-dimensional plane coordinate converter that converts the three-dimensional coordinates of the common point into a two-dimensional plane;
A plurality of common point two-dimensional coordinates obtained by projecting the two-dimensional coordinate of the common point obtained from the data of the two-dimensional map unit and the three-dimensional coordinate of the common point obtained from the video image onto a two-dimensional plane. A common point two-dimensional coordinate comparison unit for comparing
The difference between the two two-dimensional coordinates compared is detected, the position coordinate of the comparison signal that minimizes the difference is determined, the coordinate in the other coordinate axis direction is corrected at the same ratio, and the correction amount of the common point is calculated. A common point region CV value correcting unit that dispersively distributes to the periphery thereof and replaces the position coordinates of the CV value for correcting the entire position coordinates of the CV value;
CV that fixes the position coordinate data of the camera that matches the map at the common point portion, performs CV calculation again based on the tracking result of the common point and the feature point, and obtains more accurate three-axis rotation data A correction calculation unit;
The CV system three-dimensional map production | generation apparatus in any one of Claims 1 thru | or 10 provided with the correction | amendment CV data output part which outputs the correction | amendment CV value which the precision improved by the said correction | amendment.
三次元座標が既知として与えられた三次元地図,二次元地図上に複数の既知の三次元座標点を座標とともに示す既知三次元点記載地図、又は複数の既知の三次元座標を示す三次元地点リストのうち、少なくともいずれか一つを備える地図部と、
前記移動体計測部で取得されるビデオ映像のうち、前記地図部の既知の三次元地点と対応するビデオ映像の画像フレーム中に共通地点部分を検出する共通点検出部と、
前記共通地点部分を共通特徴点として、前記ビデオ映像の複数の画像フレーム中に対応地点を抽出して追跡する共通特徴点追跡部と、
前記共通特徴点を一般特徴点と区別して、演算時の優先順位を決める重み付けをする共通特徴点重み付け部と、
重み付けされた複数の前記共通特徴点の追跡結果と、一般特徴点の追跡結果と、前記カメラの三次元位置関係に基づいて、静止座標系における前記カメラの三次元位置と3軸回転姿勢を演算により求めるCV演算部と、
前記CV演算部からCV値とともに出力される前記共通特徴点の三次元座標を取得する共通点三次元座標検出部と、
前記地図部のデータから既知として得られる共通点三次元座標と、前記共通特徴点の三次元座標とを比較する共通点三次元座標比較部と、
比較された前記両三次元座標の差分を検出する三次元差分検出部と、
前記CV演算部から出力される前記一般特徴点の三次元座標を取得する一般特徴点三次元化部と、
前記一般特徴点三次元化部で取得された一般特徴点の三次元座標をビデオ映像の各フレーム中の映像面に投影した二次元座標と、前記ビデオ映像の各フレーム中の一般特徴点のビデオ映像面の二次元座標との二次元差分を検出する画像二次元差分検出部と、
前記三次元差分と前記二次元差分の値が最小になるように、CV演算のパラメータを変更して前記CV演算部でのCV演算を繰り返すCV補正演算部と、
前記補正により、精度が高まった補正CV値を出力するCVデータ取得部と、を備える請求項1乃至11のいずれかに記載のCV方式三次元地図生成装置。
3D map given as known 3D coordinates, a known 3D point description map showing multiple known 3D coordinate points together with coordinates on a 2D map, or a 3D point showing multiple known 3D coordinates A map unit comprising at least one of the lists;
Among the video images acquired by the moving body measurement unit, a common point detection unit that detects a common point part in an image frame of the video image corresponding to a known three-dimensional point of the map unit,
A common feature point tracking unit that extracts and tracks corresponding points in a plurality of image frames of the video image using the common point part as a common feature point;
A common feature point weighting unit that distinguishes the common feature point from a general feature point, and performs weighting for determining a priority order at the time of calculation;
Based on the weighted tracking results of the common feature points, the tracking results of the general feature points, and the three-dimensional positional relationship of the cameras, the three-dimensional position and three-axis rotation posture of the camera in the stationary coordinate system are calculated. A CV calculation unit obtained by:
A common point three-dimensional coordinate detection unit for obtaining a three-dimensional coordinate of the common feature point output together with a CV value from the CV calculation unit;
A common point three-dimensional coordinate comparison unit that compares the common point three-dimensional coordinates obtained as known from the data of the map unit and the three-dimensional coordinates of the common feature points;
A three-dimensional difference detector for detecting a difference between the compared three-dimensional coordinates;
A general feature point three-dimensionalization unit for obtaining a three-dimensional coordinate of the general feature point output from the CV calculation unit;
Two-dimensional coordinates obtained by projecting the three-dimensional coordinates of the general feature points acquired by the general feature point three-dimensionalization unit onto an image plane in each frame of the video image, and a video of the general feature points in each frame of the video image An image two-dimensional difference detection unit for detecting a two-dimensional difference from the two-dimensional coordinates of the image plane;
A CV correction calculation unit that changes CV calculation parameters and repeats CV calculation in the CV calculation unit so that the values of the three-dimensional difference and the two-dimensional difference are minimized;
The corrected by, CV method three-dimensional map generator according to any one of claims 1 to 11 comprising the CV data acquisition unit for outputting a correction CV value of increased accuracy, the.
三次元地図を構成する複数の三次元部品を記憶した三次元部品データベースと、
前記三次元部品データベースに記憶された三次元部品の中から、前記対象物指定部で指定された対象物と比較する候補となる三次元部品を選択する三次元部品候補選択部と、
前記対象物指定部で指定されたビデオ映像の一部と、前記三次元部品候補選択部から出力される三次元部品とを比較する比較部と、
前記比較部での比較の結果、不一致の場合に不一致信号を出力し、当該不一致信号に基づいて前記三次元部品候補選択部から次の候補となる三次元部品を出力させる不一致信号出力部と、
前記比較部での比較の結果、一致の場合に一致信号を出力する一致信号出力部と、
前記一致信号により、前記三次元部品候補部品選択部から最終的に出力された三次元部品を一致部品とする一致部品選択部と、
前記一致部品が対応するビデオ映像と異なる場合に、当該一致部品を修正して修正部品を生成する部品修正部と、を備え、
前記一致部品又は修正部品を前記三次元地図部品生成部に送出する請求項記載のCV方式三次元地図生成装置。
A 3D parts database storing a plurality of 3D parts constituting a 3D map;
A 3D part candidate selection unit that selects a 3D part that is a candidate to be compared with the target specified by the target specifying unit from among the three-dimensional parts stored in the three-dimensional part database;
A comparison unit that compares a part of the video image designated by the object designating unit with a three-dimensional component output from the three-dimensional component candidate selection unit;
As a result of comparison in the comparison unit, a mismatch signal output unit outputs a mismatch signal in the case of mismatch, and outputs a next candidate three-dimensional part from the three-dimensional part candidate selection unit based on the mismatch signal;
As a result of comparison in the comparison unit, a coincidence signal output unit that outputs a coincidence signal in the case of coincidence
A matching part selecting unit that uses the three-dimensional part finally output from the three-dimensional part candidate part selecting unit as a matching part by the matching signal;
A component correction unit that corrects the matching part to generate a corrected part when the matching part is different from the corresponding video image, and
The matching component or CV method three-dimensional map generation apparatus according to claim 1, wherein sending the modified component on the three-dimensional map component generation unit.
視野が重複し視差のあるビデオ映像を取得する複数のビデオカメラを備えた複数カメラ撮影部と、
移動体とともに移動する前記複数のビデオカメラで撮影された視差のあるビデオ映像に基づいて、カメラ座標系の三次元形状を演算により求めて、カメラ座標系三次元距離分布データを取得する視差方式カメラ座標三次元化部と、
を備えた視差方式三次元化装置と
前記視差方式三次元化装置により得られた前記カメラ座標三次元距離分布データを、前記高精度CV演算装置で得られた高精度CV値に基づいて、連続的に静止座標系における三次元距離分布データに変換する静止座標系変換部と、
前記ビデオ映像の進行にともなって重複しながら連続的に得られる前記静止座標系における三次元距離分布データを結合して、静止座標系に統合する静止座標系合成結合部と、
を備える請求項1乃至13のいずれかに記載のCV方式三次元地図生成装置。
A multi-camera shooting unit equipped with a plurality of video cameras for acquiring video images with parallax and parallax;
A parallax camera that obtains the camera coordinate system three-dimensional distance distribution data by calculating the three-dimensional shape of the camera coordinate system based on video images with parallax photographed by the plurality of video cameras moving with the moving body A coordinate three-dimensional section,
A parallax type three-dimensional apparatus comprising :
The camera coordinate three-dimensional distance distribution data obtained by the parallax method three-dimensional device is continuously converted into a three-dimensional distance distribution in a stationary coordinate system based on the high-precision CV value obtained by the high-precision CV arithmetic device. A stationary coordinate system conversion unit for converting data,
A static coordinate system combining unit that combines the three-dimensional distance distribution data in the static coordinate system obtained continuously while overlapping with the progress of the video image, and integrates it into the static coordinate system;
The CV type | system | group 3D map production | generation apparatus in any one of Claims 1 thru | or 13 provided with these .
前記静止座標系合成結合部で静止座標系に統合される三次元距離分布データを、静止座標系における静止物体のみで構成する静止物体分離空間構成部と、
前記静止座標系合成結合部で静止座標系に統合される三次元距離分布データから、時間的変動のある三次元データを分離して、運動対象物として分離記録する運動対象物分離部と、
を備える請求項14記載のCV方式三次元地図生成装置。
A three-dimensional distance distribution data integrated into a stationary coordinate system by the stationary coordinate system combining unit, a stationary object separation space configuration unit configured only with a stationary object in the stationary coordinate system;
From the three-dimensional distance distribution data integrated into the stationary coordinate system in the stationary coordinate system combining and coupling unit, separating the three-dimensional data with temporal variation, and separating and recording as a moving object,
The CV type | system | group three-dimensional map production | generation apparatus of Claim 14 provided with.
請求項乃至15記載の前記CV方式三次元地図生成装置と、
前記CV方式三次元地図生成装置により生成される三次元地図情報を有する車載可能な三次元地図装置と、
三次元データ及び属性を含む走行に必要な所定情報を、前記三次元地図装置に変更可能に入力する走行経路入力装置と、
走行車輌に備えられた車載カメラから、広角映像データと走行時点の比較的低精度のCVデータを出力する車載式カメラと概略CV演算装置と、
前記概略CV演算装置から出力された概略CVデータに基づいて、前記走行車輌の現在位置と姿勢を示す三次元データを取得し、当該三次元データを三次元地図と概略対応させて三次元空間構成を検出し、対象物の認識以前に緊急対応が必要な障害物を関知し、最優先で回避及び停止の緊急制御信号をリアルタイム制御装置に送出し、前記車載式カメラと概略CV演算装置により、走行路から可視範囲にあり、走行目的及び交通に関係する複数の対象物からなる三次元空間構成を検出する対象物空間構成装置と、
前記対象物空間構成装置で検出された対象物空間構成データと、前記走行車輌の概略三次元位置データを照合し、走行路から可視範囲にあり、走行目的に合致し、交通に関係する信号機,道路標識,道路標示を含む個々の対象物の三次元形状を、前記三次元地図の情報と照合して形状及び属性を特定して認識する対象物認識装置と、
前記対象物認識装置による複数の対象物の三次元形状又は部品形状を三次元追跡し、又は特定以前の三次元空間構成の段階で特徴ある形状を選択して切り取って追跡し、当該追跡結果から、高精度のCVデータを取得する請求項1乃至11記載の前記高精度CV演算装置と、
前記高精度CV演算装置で取得されるCVデータと、前記対象物空間構成装置の出力と、前記対象物認識装置の対象物認識結果と、車載レーダを含む車載計測器の出力に基づいて、前記走行車輌の現状判断結果を出力する現状判断装置と、
前記現状判断装置の出力により、前記走行車輌のアクセル,ブレーキ,ハンドルを含む所定の操作部を制御し、又は前記走行経路入力装置のデータを変更するリアルタイム制御装置と、
を備えることを特徴とするCV方式航法装置。
Said CV method three-dimensional map generation apparatus according to claim 1 to 15, wherein,
An in-vehicle 3D map device having 3D map information generated by the CV 3D map generator;
A predetermined information necessary for traveling including three-dimensional data and attributes, a traveling route input device that inputs to the three-dimensional map device in a changeable manner, and
An in-vehicle camera that outputs wide-angle video data and relatively low-accuracy CV data at the time of traveling from the in-vehicle camera provided in the traveling vehicle, and a schematic CV computing device;
Based on the rough CV data output from the rough CV calculation device, three-dimensional data indicating the current position and posture of the traveling vehicle is acquired, and the three-dimensional data is roughly associated with the three-dimensional map to form a three-dimensional space configuration. , Detecting obstacles that need emergency response before recognition of the object, sending emergency control signals of avoidance and stop to the real-time control device with the highest priority, by the in-vehicle camera and the approximate CV calculation device, An object space composing device that detects a three-dimensional space structure composed of a plurality of objects that are in a visible range from the travel path and are related to the travel purpose and traffic;
The object space configuration data detected by the object space configuration device is collated with the approximate three-dimensional position data of the traveling vehicle, is in a visible range from the traveling path, matches the purpose of traveling, and is related to traffic, An object recognition device for recognizing a three-dimensional shape of an individual object including a road sign and a road marking by comparing the information of the three-dimensional map with the shape and attributes;
The three-dimensional shape or part shape of a plurality of objects by the object recognition device is three-dimensionally tracked, or a characteristic shape is selected and tracked at the stage of the three-dimensional space configuration before the specification, and the tracking result is used. The high-precision CV calculation device according to claim 1, wherein high-precision CV data is acquired;
Based on CV data acquired by the high-precision CV arithmetic device, the output of the object space constituting device, the object recognition result of the object recognition device, and the output of an in-vehicle measuring instrument including an in-vehicle radar, A current state determination device for outputting a current state determination result of the traveling vehicle;
A real-time control device that controls a predetermined operation unit including an accelerator, a brake, and a handle of the traveling vehicle, or changes data of the traveling route input device, according to an output of the current state determination device;
A CV type navigation device comprising:
前記高精度CV演算装置の出力,前記対象物認識装置の認識結果、及び前記現状判断装置の現状判断結果を、二次元地図又は三次元地図上にリアルタイムに表示するリアルタイム表示装置を備える請求項16記載のCV方式航法装置。 The precision output of CV computing device, the recognition result of the object recognition apparatus, and claim 16 comprises a real-time display device that displays the current status determination result of said current determination device, in real time on a two-dimensional map or three-dimensional map The CV navigation system described.
JP2005110780A 2005-02-14 2005-04-07 High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device Active JP4767578B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005110780A JP4767578B2 (en) 2005-02-14 2005-04-07 High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005036188 2005-02-14
JP2005036188 2005-02-14
JP2005110780A JP4767578B2 (en) 2005-02-14 2005-04-07 High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device

Publications (2)

Publication Number Publication Date
JP2006250917A JP2006250917A (en) 2006-09-21
JP4767578B2 true JP4767578B2 (en) 2011-09-07

Family

ID=37091574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005110780A Active JP4767578B2 (en) 2005-02-14 2005-04-07 High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device

Country Status (1)

Country Link
JP (1) JP4767578B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020235286A1 (en) 2019-05-23 2020-11-26 株式会社岩根研究所 Recognition and positioning device and information conversion device

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163504A (en) * 2008-01-07 2009-07-23 Panasonic Corp Image deformation method and the like
WO2010001940A1 (en) 2008-07-01 2010-01-07 株式会社トプコン Position measurement method, position measurement device, and program
JP5361421B2 (en) * 2009-01-30 2013-12-04 三菱電機株式会社 Measuring device, laser position / orientation value correction method and laser position / orientation value correction program for measuring device
KR100937049B1 (en) 2009-08-12 2010-01-21 주식회사 동서지엔아이 Control system of the angle of view for the camera
KR101686171B1 (en) * 2010-06-08 2016-12-13 삼성전자주식회사 Apparatus for recognizing location using image and range data and method thereof
JP2013124957A (en) * 2011-12-15 2013-06-24 Car Mate Mfg Co Ltd Navigation system using portable information terminal
JP5832341B2 (en) 2012-03-09 2015-12-16 株式会社トプコン Movie processing apparatus, movie processing method, and movie processing program
KR101348797B1 (en) 2013-07-09 2014-01-09 주식회사 지오스토리 High density air shooting unit by using gps and ins
KR101350929B1 (en) * 2013-07-23 2014-01-15 주식회사 첨단공간정보 High density air shooting unit by using gps and ins
KR101350930B1 (en) 2013-08-19 2014-01-15 주식회사 첨단공간정보 Air shooting system for processing image with photograph and edit shooting image
KR101342633B1 (en) * 2013-09-11 2014-01-16 삼아항업(주) Video geographic information management system based on division of screen using time series orthophotograph
KR101349380B1 (en) 2013-10-08 2014-01-13 주식회사 한국에스지티 Air shooting system for processing image with photograph and edit shooting image
KR101349148B1 (en) * 2013-10-08 2014-01-09 제일항업(주) Air shooting unit by using auto shooting system
JP2016070891A (en) * 2014-10-01 2016-05-09 日本電信電話株式会社 Video data processor and video data processing program
KR102324606B1 (en) * 2015-03-25 2021-11-10 한국전자통신연구원 Method and apparatus for reconstructing 4 dimensional image map
JP6167135B2 (en) * 2015-06-04 2017-07-19 株式会社大林組 3D position measurement method, surveying method, 3D position measurement apparatus, and 3D position measurement program
EP3125196B1 (en) * 2015-07-29 2018-02-21 Continental Automotive GmbH Drive-by calibration from static targets
JP6556015B2 (en) * 2015-10-09 2019-08-07 ソニー株式会社 Information processing apparatus, position and / or orientation estimation method, and computer program
JP6623729B2 (en) 2015-12-04 2019-12-25 株式会社ソシオネクスト Ranging systems, moving objects and parts
EP3479356A4 (en) * 2016-06-29 2020-03-25 Seeing Machines Limited System and method for identifying a camera pose of a forward facing camera in a vehicle
WO2018079789A1 (en) * 2016-10-31 2018-05-03 株式会社小松製作所 Measuring system, working machine, and measuring method
JP6821154B2 (en) * 2016-11-16 2021-01-27 株式会社岩根研究所 Self-position / posture setting device using a reference video map
US10430968B2 (en) * 2017-03-14 2019-10-01 Ford Global Technologies, Llc Vehicle localization using cameras
CN110998659B (en) * 2017-08-14 2023-12-05 乐天集团股份有限公司 Image processing system, image processing method, and program
KR102006148B1 (en) * 2018-01-16 2019-08-01 한국항공대학교산학협력단 Apparatus and method for generating absolute point cloud of the object
CN108845341A (en) * 2018-07-04 2018-11-20 中国船舶工业系统工程研究院 A kind of dynamic locating accuracy acceptance test method of GPS positioning system
US12105201B2 (en) * 2018-10-01 2024-10-01 Pioneer Corporation Information processing device
JP7304016B2 (en) * 2019-07-29 2023-07-06 株式会社ソーシャル・キャピタル・デザイン Image processing system
KR102305328B1 (en) * 2019-12-24 2021-09-28 한국도로공사 System and method of Automatically Generating High Definition Map Based on Camera Images
KR102327185B1 (en) * 2019-12-24 2021-11-17 한국도로공사 Object change detection system for high definition map update and method thereof
CN113891048B (en) * 2021-10-28 2022-11-15 江苏濠汉信息技术有限公司 Over-sight distance image transmission system for rail locomotive
CN115592663A (en) * 2022-10-18 2023-01-13 中国石油大学(华东)(Cn) Full-automatic motion planning method for industrial robot machining system with additional external shaft
CN117606448B (en) * 2023-11-29 2024-04-30 山东艺术学院 Real-time forest land measurement system based on camera video and application method thereof
CN118154801B (en) * 2024-05-13 2024-07-19 嘉兴明绘信息科技有限公司 Three-dimensional map construction method based on data analysis

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0814861A (en) * 1994-07-01 1996-01-19 Canon Inc Method of measuring three-dimensional shape and device therefor
JPH0843055A (en) * 1994-07-29 1996-02-16 Canon Inc Method and apparatus for recognizing shape of three dimensional object
JPH10253384A (en) * 1997-03-14 1998-09-25 Mitsubishi Electric Corp Detector for alignment on orbit
JP2000097637A (en) * 1998-09-24 2000-04-07 Olympus Optical Co Ltd Attitude position detecting device
JP3725982B2 (en) * 1998-12-03 2005-12-14 アジア航測株式会社 Position acquisition device
JP2000213953A (en) * 1999-01-25 2000-08-04 Mitsubishi Electric Corp Navigation device for flying object
JP2001264076A (en) * 2000-03-21 2001-09-26 Clarion Co Ltd Car navigation system
US6535114B1 (en) * 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
JP2001331787A (en) * 2000-05-19 2001-11-30 Toyota Central Res & Dev Lab Inc Road shape estimating device
JP2002214321A (en) * 2001-01-12 2002-07-31 Clarion Co Ltd Gps positioning system
JP2002319016A (en) * 2001-02-07 2002-10-31 Nippon Telegr & Teleph Corp <Ntt> Method for correcting dislocation of image, recording medium recording correcting program for dislocation of image, and correcting program and device for dislocation of image
JP3486613B2 (en) * 2001-03-06 2004-01-13 キヤノン株式会社 Image processing apparatus and method, program, and storage medium
JP2003344045A (en) * 2002-05-29 2003-12-03 Yaskawa Electric Corp Image processing apparatus
JP3915621B2 (en) * 2002-07-29 2007-05-16 日産自動車株式会社 Lane mark detector
JP4152698B2 (en) * 2002-09-06 2008-09-17 三菱電機株式会社 3D building model data generator
JP2004198211A (en) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd Apparatus for monitoring vicinity of mobile object
JP3965686B2 (en) * 2002-12-19 2007-08-29 株式会社日立製作所 Visual information processing apparatus and application system
JP4136859B2 (en) * 2003-01-10 2008-08-20 キヤノン株式会社 Position and orientation measurement method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020235286A1 (en) 2019-05-23 2020-11-26 株式会社岩根研究所 Recognition and positioning device and information conversion device

Also Published As

Publication number Publication date
JP2006250917A (en) 2006-09-21

Similar Documents

Publication Publication Date Title
JP4767578B2 (en) High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device
JP4273119B2 (en) Navigation device
JP5227065B2 (en) 3D machine map, 3D machine map generation device, navigation device and automatic driving device
CN112923930B (en) Crowd-sourcing and distributing sparse maps and lane measurements for autonomous vehicle navigation
KR102425272B1 (en) Method and system for determining a position relative to a digital map
EP3343172B1 (en) Creation and use of enhanced maps
JP5389964B2 (en) Map information generator
US20210199437A1 (en) Vehicular component control using maps
Brenner Extraction of features from mobile laser scanning data for future driver assistance systems
JP2022518911A (en) Generate structured map data from vehicle sensors and camera arrays
JP4980606B2 (en) Mobile automatic monitoring device
CN105928498A (en) Determination Of Object Data By Template-based Uav Control
KR101444685B1 (en) Method and Apparatus for Determining Position and Attitude of Vehicle by Image based Multi-sensor Data
JP2018081008A (en) Self position posture locating device using reference video map
JP4980617B2 (en) 2D drawing and video composition display device
JP6138326B1 (en) MOBILE BODY, MOBILE BODY CONTROL METHOD, PROGRAM FOR CONTROLLING MOBILE BODY, CONTROL SYSTEM, AND INFORMATION PROCESSING DEVICE
US20220282967A1 (en) Method and mobile detection unit for detecting elements of infrastructure of an underground line network
JP4624000B2 (en) Compound artificial intelligence device
Soheilian et al. Generation of an integrated 3D city model with visual landmarks for autonomous navigation in dense urban areas
US11460302B2 (en) Terrestrial observation device having location determination functionality
JP4773794B2 (en) New and old video coordinate integration device
JPWO2005040721A1 (en) 3D automatic surveying device
Belaroussi et al. Vehicle attitude estimation in adverse weather conditions using a camera, a GPS and a 3D road map
Trusheim et al. Cooperative localisation using image sensors in a dynamic traffic scenario
CN115917255A (en) Vision-based location and turn sign prediction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080324

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090616

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090824

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20091201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110607

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110615

R150 Certificate of patent or registration of utility model

Ref document number: 4767578

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140624

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350