JP2013187862A - Image data processing device, image data processing method, and program for image data processing - Google Patents

Image data processing device, image data processing method, and program for image data processing Download PDF

Info

Publication number
JP2013187862A
JP2013187862A JP2012053645A JP2012053645A JP2013187862A JP 2013187862 A JP2013187862 A JP 2013187862A JP 2012053645 A JP2012053645 A JP 2012053645A JP 2012053645 A JP2012053645 A JP 2012053645A JP 2013187862 A JP2013187862 A JP 2013187862A
Authority
JP
Japan
Prior art keywords
cameras
camera
image data
data
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012053645A
Other languages
Japanese (ja)
Other versions
JP5992184B2 (en
Inventor
Tetsuji Anai
哲治 穴井
Nobuyuki Fukaya
暢之 深谷
Nobuo Takachi
伸夫 高地
Hitoshi Otani
仁志 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2012053645A priority Critical patent/JP5992184B2/en
Publication of JP2013187862A publication Critical patent/JP2013187862A/en
Application granted granted Critical
Publication of JP5992184B2 publication Critical patent/JP5992184B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology by which an influence of a low accuracy image data can be suppressed, in a technology for dealing by integrating feature points of objects to be photographed and external orientation elements of each camera obtained from a plurality of cameras.SOLUTION: An image data processing device includes: a coordinate conversion unit 206 for performing coordinate conversion of three-dimentional coordinates at the feature points calculated for each of a plurality of cameras; a weight coefficient applying unit 207 for setting wight reflecting respective accuracy of the respective cameras to the respective cameras; and a data integration unit 208 for performing data integration of the feature points obtained for each of the cameras by calculating an average value of the feature points corresponding to the respective cameras subjected to the coordinate conversion in a state where the weight is reflected.

Description

本発明は、複数のカメラから得た画像データを統合的に取り扱う技術に関する。   The present invention relates to a technique for handling image data obtained from a plurality of cameras in an integrated manner.

写真測量の原理を用いて、カメラの位置の検出を行う技術が知られている(例えば、特許文献1参照)。また、移動する車両上から複数のカメラにより撮影を行い、異なる複数のカメラから得た画像データを統合的に扱う技術が特許文献2に記載されている。   A technique for detecting the position of a camera using the principle of photogrammetry is known (for example, see Patent Document 1). Japanese Patent Application Laid-Open No. 2004-228561 describes a technique for performing image capturing with a plurality of cameras from a moving vehicle and handling image data obtained from a plurality of different cameras in an integrated manner.

特開2007−171048号公報JP 2007-171048 A 特開2007−142517号公報JP 2007-142517 A

例えば、車両に複数のカメラを搭載し、この複数のカメラから撮影を行う場合、カメラの設置場所、カメラが受ける振動、機器そのものの性能や規格の違い、外乱(電子ノイズ等)といった要因により、各カメラから得た画像データの精度に違いがある場合がある。この場合、単に各画像データに基づく算出値を統合したのでは、低精度の画像データの影響で統合したデータの精度が低下する。   For example, when multiple cameras are mounted on a vehicle and shooting is performed from these multiple cameras, due to factors such as camera installation location, camera vibration, device performance and standard differences, disturbances (such as electronic noise), There may be a difference in the accuracy of the image data obtained from each camera. In this case, if the calculated values based on the image data are simply integrated, the accuracy of the integrated data decreases due to the influence of the low-precision image data.

このような背景において、本発明は、複数のカメラから得た撮影対象の特徴点および各カメラの外部標定要素を統合して取り扱う技術において、低精度の画像データの影響を抑えることができる技術の提供を目的とする。   In such a background, the present invention is a technology that can suppress the influence of low-accuracy image data in a technology that handles the feature points of shooting targets obtained from a plurality of cameras and the external orientation elements of each camera. For the purpose of provision.

請求項1に記載の発明は、複数のカメラからの画像データを受け付ける画像データ受け付け部と、前記複数のカメラのそれぞれから得られるステレオペア画像に基づき、撮影対象の特徴点の3次元座標を算出する特徴点算出部と、前記複数のカメラの位置および姿勢を算出する位置姿勢算出部と、前記複数のカメラ毎に算出された前記特徴点の3次元座標および前記位置算出部において算出された前記複数のカメラそれぞれの位置および姿勢を特定の統合座標上に座標変換する座標変換部と、前記複数のカメラそれぞれの精度を反映した重みを前記複数のカメラのそれぞれに設定する重み設定部と、前記重みを反映させた状態で、前記座標変換された前記複数のカメラそれぞれに対応する前記特徴点のデータ、前記複数のカメラそれぞれの位置のデータおよび前記複数のカメラそれぞれの姿勢のデータの少なくとも一つの平均値を算出することで、データの統合を行うデータ統合部とを備えることを特徴とする画像データ処理装置である。   According to the first aspect of the present invention, the three-dimensional coordinates of the feature points of the imaging target are calculated based on an image data receiving unit that receives image data from a plurality of cameras and a stereo pair image obtained from each of the plurality of cameras. The feature point calculation unit, the position and orientation calculation unit that calculates the position and orientation of the plurality of cameras, and the three-dimensional coordinates of the feature points calculated for each of the plurality of cameras and the position calculation unit A coordinate conversion unit that converts the position and orientation of each of the plurality of cameras onto specific integrated coordinates; a weight setting unit that sets a weight reflecting the accuracy of each of the plurality of cameras; With the weights reflected, the feature point data corresponding to each of the plurality of coordinate-converted cameras and the position of each of the plurality of cameras. By calculating at least one average value of the data and data of the plurality of cameras each posture is image data processing apparatus characterized by comprising a data integration unit that performs data integration.

請求項1に記載の発明によれば、複数のカメラが撮影した画像から、撮影対象物の特徴点の3次元座標および当該カメラの外部標定要素が算出され、その値が統合座標上で統合的に扱われる。この際、各カメラの精度に応じて各カメラ由来のデータに重みが与えられ、この重みを考慮した平均値の算出が行われる。これにより、高精度の画像データの寄与を大きく、また低精度の画像データの寄与を小さくした状態で統合値が算出される。請求項1に記載の発明におけるステレオペア画像は、動画を構成する複数のフレーム画像から得たものであってもよいし、ステレオ画像の撮影が可能な専用カメラ、あるいは複数のカメラを用いて得たものであってもよい。   According to the first aspect of the present invention, the three-dimensional coordinates of the feature points of the object to be photographed and the external orientation elements of the camera are calculated from images taken by a plurality of cameras, and the values are integrated on the integrated coordinates. To be treated. At this time, a weight is given to the data derived from each camera according to the accuracy of each camera, and an average value is calculated in consideration of this weight. Thus, the integrated value is calculated in a state where the contribution of the high-precision image data is large and the contribution of the low-precision image data is small. The stereo pair image according to the first aspect of the present invention may be obtained from a plurality of frame images constituting a moving image, or may be obtained using a dedicated camera capable of capturing a stereo image or a plurality of cameras. It may be.

請求項2に記載の発明は、請求項1に記載の発明において、前記データ統合部は、カメラ以外の計測装置から得られた前記複数のカメラが配置された土台となる部分の位置および姿勢の少なくとも一方のデータの統合も行うことを特徴とする。請求項2に記載の発明によれば、加速度計、傾斜計、GPS装置といった外部標定要素の一部のデータを取得可能な機器から得られるデータも統合データに含めることができる。   According to a second aspect of the present invention, in the first aspect of the invention, the data integration unit is configured to determine a position and a posture of a base portion on which the plurality of cameras obtained from a measuring device other than the camera are arranged. At least one of the data is also integrated. According to the second aspect of the present invention, data obtained from a device capable of acquiring a part of data of an external orientation element such as an accelerometer, an inclinometer, or a GPS device can be included in the integrated data.

請求項3に記載の発明は、請求項1または2に記載の発明において、前記複数のカメラが車両に搭載されていることを特徴とする。   According to a third aspect of the present invention, in the first or second aspect of the present invention, the plurality of cameras are mounted on a vehicle.

請求項4に記載の発明は、請求項3に記載の発明において、前記画像データ受け付け部が受け付けた画像データに基づき、前記車両の位置および前記車両の速度の少なくとも一方の算出が行われることを特徴とする。   According to a fourth aspect of the invention, in the third aspect of the invention, at least one of the position of the vehicle and the speed of the vehicle is calculated based on the image data received by the image data receiving unit. Features.

請求項5に記載の発明は、請求項1〜4のいずれか一項に記載の発明において、前記複数のカメラが撮影した動画を構成するフレーム画像上における前記特徴点に対する線形化された共線条件式を立てるステップと、前記線形化された共線条件式に各カメラに設定された前記重みを付けるステップと、前記重みが付けられた前記共線条件式から前記平均値の算出を行うステップとが行われることを特徴とする。   The invention according to claim 5 is the invention according to any one of claims 1 to 4, wherein linearized collinears with respect to the feature points on a frame image constituting a moving image photographed by the plurality of cameras are provided. A step of establishing a conditional expression; a step of assigning the weight set to each camera to the linearized collinear conditional expression; and a step of calculating the average value from the collinear conditional expression to which the weight is attached And is performed.

請求項6に記載の発明は、請求項1〜5のいずれか一項に記載の発明において、前記複数のカメラの中の特定のカメラの重みを推定する重み推定部を更に備え、前記重み推定部は、前記特定のカメラに仮の精度を与えるステップと、前記特定のカメラが撮影した画像に基づいて、前記仮の精度を反映した前記特定のカメラの位置の算出値の分布を第1の分布として求めるステップと、計測精度が判明している位置計測手段に基づく、当該判明している計測精度を反映した前記特定のカメラの位置の算出値の分布を第2の分布として求めるステップと、前記第1の分布と前記第2の分布の差が特定の条件を満たす場合の前記仮の精度に基づき、前記特定のカメラの重みを推定するステップとを実行することを特徴とする。   The invention according to claim 6 is the invention according to any one of claims 1 to 5, further comprising a weight estimation unit for estimating a weight of a specific camera among the plurality of cameras, and the weight estimation. And a step of giving provisional accuracy to the specific camera, and a distribution of calculated values of the position of the specific camera reflecting the provisional accuracy based on an image captured by the specific camera. A step of obtaining as a distribution, a step of obtaining, as a second distribution, a distribution of calculated values of the position of the specific camera that reflects the known measurement accuracy based on a position measurement unit whose measurement accuracy is known; A step of estimating a weight of the specific camera based on the provisional accuracy when a difference between the first distribution and the second distribution satisfies a specific condition.

請求項6に記載の発明によれば、精度が判明している機器が計測した位置情報の確かさの程度を位置の算出値の分布として評価し、それを仮の精度を与えたカメラに基づく位置の算出値の分布と比較することで、当該カメラに与えられる適正な精度を推定する。この処理では、当該カメラに与えられる仮の精度が適正でない(つまり、実体と相違が大きい)場合、第1の分布と第2の分布が特定の条件から外れる傾向が大となり、逆に、該カメラに与えられる仮の精度が適正(つまり、実体に近い)場合、第1の分布と第2の分布が特定の条件を満たす傾向が大となることを利用している。   According to the sixth aspect of the present invention, the degree of certainty of position information measured by a device whose accuracy is known is evaluated as a distribution of calculated position values, and this is based on a camera with provisional accuracy. An appropriate accuracy given to the camera is estimated by comparison with the distribution of the calculated position values. In this process, if the provisional accuracy given to the camera is not appropriate (that is, the difference from the substance is large), the first distribution and the second distribution tend to deviate from specific conditions. When the provisional accuracy given to the camera is appropriate (that is, close to the substance), the fact that the first distribution and the second distribution tend to satisfy a specific condition is utilized.

請求項7に記載の発明は、複数のカメラからの画像データを受け付ける画像データ受け付けステップと、前記複数のカメラのそれぞれから得られるステレオペア画像に基づき、撮影対象の特徴点の3次元座標を算出する特徴点算出ステップと、前記複数のカメラの位置および姿勢を算出する位置姿勢算出ステップと、前記複数のカメラ毎に算出された前記特徴点の3次元座標および前記位置算出部において算出された前記複数のカメラそれぞれの位置および姿勢を特定の統合座標上に座標変換する座標変換ステップと、前記複数のカメラそれぞれの精度を反映した重みを設定する重み設定ステップと、前記重みを反映させた状態で、前記座標変換された前記複数のカメラそれぞれに対応する前記特徴点のデータ、前記複数のカメラそれぞれの位置のデータおよび前記複数のカメラの姿勢のデータの少なくとも一つの平均値を算出することで、データの統合を行うデータ統合ステップとを備えることを特徴とする画像データ処理方法である。   The invention according to claim 7 calculates the three-dimensional coordinates of the feature points of the imaging target based on the image data receiving step for receiving image data from a plurality of cameras and a stereo pair image obtained from each of the plurality of cameras. The feature point calculating step, the position and orientation calculating step for calculating the position and orientation of the plurality of cameras, the three-dimensional coordinates of the feature point calculated for each of the plurality of cameras, and the position calculating unit A coordinate conversion step for converting the position and orientation of each of the plurality of cameras onto specific integrated coordinates, a weight setting step for setting a weight reflecting the accuracy of each of the plurality of cameras, and a state in which the weight is reflected , The feature point data corresponding to each of the plurality of cameras subjected to the coordinate transformation, and each of the plurality of cameras. By calculating at least one average value of the data Data and the attitude of the plurality of cameras of location, an image data processing method characterized by comprising a data integration step for integrating data.

請求項8に記載の発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータを複数のカメラからの画像データを受け付ける画像データ受け付け部と、前記複数のカメラのそれぞれから得られるステレオペア画像に基づき、撮影対象の特徴点の3次元座標を算出する特徴点算出部と、前記複数のカメラの位置および姿勢を算出する位置姿勢算出部と、前記複数のカメラ毎に算出された前記特徴点の3次元座標および前記位置算出部において算出された前記複数のカメラそれぞれの位置および姿勢を特定の統合座標上に座標変換する座標変換部と、前記複数のカメラそれぞれの精度を反映した重みを設定する重み設定部と、前記重みを反映させた状態で、前記座標変換された前記複数のカメラそれぞれに対応する前記特徴点のデータ、前記複数のカメラそれぞれの位置のデータおよび前記複数のカメラの姿勢のデータの少なくとも一つの平均値を算出することで、データの統合を行うデータ統合部として動作させることを特徴とする画像データ処理用のプログラムである。   The invention according to claim 8 is a program for causing a computer to read and execute the image data receiving unit that receives image data from a plurality of cameras and a stereo pair image obtained from each of the plurality of cameras. A feature point calculation unit that calculates three-dimensional coordinates of feature points to be imaged, a position and orientation calculation unit that calculates positions and orientations of the plurality of cameras, and the feature points calculated for each of the plurality of cameras A coordinate conversion unit that converts the position and orientation of each of the plurality of cameras calculated by the position calculation unit onto specific integrated coordinates, and a weight that reflects the accuracy of each of the plurality of cameras. A weight setting unit for reflecting the weight, and the feature corresponding to each of the plurality of coordinate-converted cameras in a state in which the weight is reflected. By calculating an average value of at least one of the point data, the position data of each of the plurality of cameras, and the attitude data of the plurality of cameras, the data is operated as a data integration unit that integrates the data. This is a program for image data processing.

本発明によれば、複数のカメラから得た撮影対象の特徴点および各カメラの外部標定要素を統合して取り扱う技術において、低精度の画像データの影響を抑えることができる技術が提供される。   ADVANTAGE OF THE INVENTION According to this invention, the technique which can suppress the influence of low-precision image data in the technique which integrates and handles the feature point of the imaging | photography object obtained from the several camera and the external orientation element of each camera is provided.

実施形態のブロック図である。It is a block diagram of an embodiment. 実施形態の画像データ処理装置のブロック図である。It is a block diagram of an image data processing device of an embodiment. 実施形態の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of embodiment. テンプレートマッチングの原理を説明する説明図である。It is explanatory drawing explaining the principle of template matching. 時間差を置いて異なる位置から2つのフレーム画像を得る様子を示すイメージ図である。It is an image figure which shows a mode that two frame images are obtained from a different position with a time difference. 前方交会法を説明する説明図である。It is explanatory drawing explaining the forward meeting method. 後方交会法を説明する説明図である。It is explanatory drawing explaining a back intersection method. 相互標定を説明する説明図である。It is explanatory drawing explaining a relative orientation. 実施形態の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of embodiment.

1.第1の実施形態
(全体の構成)
図1には、移動体の一例である車両100が示されている。車両100は、例えば乗用車である。移動体は、車両に限定されず、動くものであれば、工事用車両や重機、航空機、船舶等であってもよい。図1において、図の上の方向が車両100の前方である。車両100は、画像データ処理装置200を備えている。車両100は、前方監視用カメラ101、速度検出用カメラ102、景観撮影用カメラ1(103)、景観撮影用カメラ2(104)、景観撮影用カメラ3(105)、加速度計106、傾斜計107、GPS装置108、レーザースキャナ109を備えている。これらの機器は、画像データ処理装置200に接続されている。
1. First embodiment (overall configuration)
FIG. 1 shows a vehicle 100 that is an example of a moving object. The vehicle 100 is, for example, a passenger car. The moving body is not limited to a vehicle, and may be a construction vehicle, a heavy machine, an aircraft, a ship, or the like as long as it moves. In FIG. 1, the upper direction in the figure is the front of the vehicle 100. The vehicle 100 includes an image data processing device 200. The vehicle 100 includes a forward monitoring camera 101, a speed detection camera 102, a landscape shooting camera 1 (103), a landscape shooting camera 2 (104), a landscape shooting camera 3 (105), an accelerometer 106, and an inclinometer 107. GPS device 108 and laser scanner 109 are provided. These devices are connected to the image data processing apparatus 200.

前方監視用カメラ101は、車両100の前方を監視するためのカメラであり、車両100の前方を動画撮影する。前方監視用カメラ101で撮影した動画像は、障害物の検出や車両100と衝突する可能性がある物体の検出等に用いられる。前方監視用カメラ101が撮影した動画像の動画データは、上述した障害物の検出処理等を行う図示省略した機能部に送られると共に、画像データ処理装置200に送られる。速度検出用カメラ102は、例えば車両100前方の路面を動画撮影する。この動画像の動画データは、図示省略した速度演算部において画像処理され、車両100の速度の算出が行われる。この例では、速度検出用カメラ102が撮影した動画像の動画データは、上記の速度演算部に送られるのと同時に画像データ処理装置200に送られる。   The front monitoring camera 101 is a camera for monitoring the front of the vehicle 100 and shoots a moving image of the front of the vehicle 100. The moving image captured by the front monitoring camera 101 is used for detecting an obstacle or detecting an object that may collide with the vehicle 100. The moving image data of the moving image captured by the front monitoring camera 101 is sent to a function unit (not shown) that performs the above-described obstacle detection process and the like, and is also sent to the image data processing apparatus 200. For example, the speed detection camera 102 captures a moving image of the road surface in front of the vehicle 100. The moving image data of the moving image is subjected to image processing in a speed calculation unit (not shown), and the speed of the vehicle 100 is calculated. In this example, moving image data of a moving image taken by the speed detection camera 102 is sent to the image data processing device 200 at the same time as being sent to the speed calculation unit.

景観撮影用カメラ1(103)、景観撮影用カメラ2(104)、景観撮影用カメラ3(105)は、車両100の周囲の景観を動画撮影し、その画像データを画像データ処理装置200に送る。なお、撮影の対象となる景観の内容は、車両100から見えるものであれば、特には限定されない。また、各カメラの撮影範囲(視野)は重なっていてもよいし、重なっていなくてもよい。   The landscape shooting camera 1 (103), the landscape shooting camera 2 (104), and the landscape shooting camera 3 (105) take a moving image of the landscape around the vehicle 100 and send the image data to the image data processing device 200. . Note that the content of the landscape to be photographed is not particularly limited as long as it can be seen from the vehicle 100. In addition, the shooting ranges (fields of view) of the cameras may or may not overlap.

加速度計106は、車両100に加わる加速度を計測し、その計測データを画像データ処理装置200に送る。傾斜計107は、車両100の傾斜を計測し、その計測データを画像データ処理装置200に送る。GPS装置108は、複数の人工衛星から送られて来る信号に基づき、位置を算出する装置であり、一般的なGlobal Positioning Systemを用いるGPS受信機である。位置情報を得る手段としては、GPS以外に、路面上の標識、路面上や道路上に設けられた光学ビーコンや電波ビーコン等から位置情報を得る手段を挙げることができる。   The accelerometer 106 measures the acceleration applied to the vehicle 100 and sends the measurement data to the image data processing device 200. The inclinometer 107 measures the inclination of the vehicle 100 and sends the measurement data to the image data processing device 200. The GPS device 108 is a device that calculates a position based on signals sent from a plurality of artificial satellites, and is a GPS receiver that uses a general Global Positioning System. As means for obtaining position information, in addition to GPS, means for obtaining position information from road signs, optical beacons or radio beacons provided on road surfaces or roads can be cited.

レーザースキャナ109は、測定対象物にレーザー光を照射し、その反射光を受光することで、レーザースキャナの設置位置(視点)から測定点までの距離、方位、仰角(または俯角)の情報を取得し、これらの情報に基づき、測定点の三次元位置座標に係る情報を算出する機能を有する。また、レーザースキャナは、測定点からの反射光の強度、色、色相、彩度等に関する情報を取得する。レーザースキャナはこれらの情報に基づき、測定対象物の三次元座標値を含む3次元点群位置データを算出する。レーザースキャナ109が取得した測定対象物の3次元点群位置データは、画像データ処理装置200に送られる。   The laser scanner 109 irradiates the measurement target with laser light and receives the reflected light, thereby acquiring information on the distance, azimuth, and elevation (or depression) from the laser scanner installation position (viewpoint) to the measurement point. And based on these information, it has a function which calculates the information which concerns on the three-dimensional position coordinate of a measurement point. Further, the laser scanner acquires information on the intensity, color, hue, saturation, etc. of the reflected light from the measurement point. Based on such information, the laser scanner calculates three-dimensional point cloud position data including the three-dimensional coordinate value of the measurement object. The three-dimensional point cloud position data of the measurement object acquired by the laser scanner 109 is sent to the image data processing apparatus 200.

(画像データ処理装置)
以下、画像データ処理装置200について説明する。図2には、画像データ処理装置200のブロック図が示されている。画像データ処理装置200は、CPU、メモリやハードディス装置等の記憶装置、各種のインターフェースを備えたコンピュータにより構成されており、以下に示す機能部を有している。なお、以下に示す機能部は、ソフトウェア的に構成されるものに限定されず、その少なくとも一部が専用のハードウェアにより構成されていてもよい。また、通常のコンピュータを用いて画像データ処理装置200を構成することも可能である。
(Image data processing device)
Hereinafter, the image data processing apparatus 200 will be described. FIG. 2 shows a block diagram of the image data processing device 200. The image data processing apparatus 200 includes a CPU, a storage device such as a memory and a hard disk device, and a computer having various interfaces, and has the following functional units. Note that the functional units shown below are not limited to those configured as software, and at least a part thereof may be configured with dedicated hardware. It is also possible to configure the image data processing device 200 using a normal computer.

画像データ処理装置200は、動画像データ取得部201、位置・姿勢データ取得部202、3次元点群位置データ取得部203、特徴点座標算出部204、位置姿勢算出部205、座標変換部206、重み係数付与部207、データ統合部208および重み係数算出部209を備えている。動画像データ取得部201は、前方監視用カメラ101、速度検出用カメラ102、景観撮影用カメラ1(103)、景観撮影用カメラ2(104)、景観撮影用カメラ3(105)が撮影した動画像の画像データを受け付ける。位置・姿勢データ取得部202は、加速度計106、傾斜計107およびGPS装置108からの出力を受け付ける。3次元点群位置データ取得部203は、レーザースキャナ109から出力される測定対象物の3次元点群位置データを受け付ける。   The image data processing apparatus 200 includes a moving image data acquisition unit 201, a position / posture data acquisition unit 202, a three-dimensional point cloud position data acquisition unit 203, a feature point coordinate calculation unit 204, a position / posture calculation unit 205, a coordinate conversion unit 206, A weighting factor assigning unit 207, a data integrating unit 208, and a weighting factor calculating unit 209 are provided. The moving image data acquisition unit 201 is a moving image captured by the forward monitoring camera 101, the speed detection camera 102, the landscape shooting camera 1 (103), the landscape shooting camera 2 (104), and the landscape shooting camera 3 (105). Accept image data of an image. The position / attitude data acquisition unit 202 receives outputs from the accelerometer 106, the inclinometer 107, and the GPS device 108. The three-dimensional point cloud position data acquisition unit 203 receives the three-dimensional point cloud position data of the measurement object output from the laser scanner 109.

特徴点座標算出部204は、動画像データ取得部201が受け付けた動画データに基づき、撮影した対象物(例えば、景観)の特徴点の3次元座標の算出を行う。この3次元座標の算出は、カメラ毎に行う。例えば、前方監視用カメラ101が撮影した動画像の動画データに基づく、撮影対象物の特徴点の3次元座標の算出と、景観撮影用カメラ1(103)が撮影した動画像の動画データに基づく、撮影対象物の特徴点の3次元座標の算出とは、別に行われる。位置姿勢算出部205は、特徴点座標算出部204が算出した測定対象物の特徴点の3次元座標に基づく該当する動画を撮影したカメラの外部標定要素(位置と姿勢)の算出、および位置・姿勢データ取得部202が受け付けた車両100の位置と姿勢に係るデータから、統合中心(車両100)の位置と姿勢の算出を行う。   The feature point coordinate calculation unit 204 calculates the three-dimensional coordinates of the feature points of the photographed object (for example, landscape) based on the moving image data received by the moving image data acquisition unit 201. The calculation of the three-dimensional coordinates is performed for each camera. For example, based on the moving image data of the moving image captured by the front monitoring camera 101, based on the calculation of the three-dimensional coordinates of the feature points of the object to be imaged and the moving image data of the moving image captured by the landscape shooting camera 1 (103). The calculation of the three-dimensional coordinates of the feature points of the object to be imaged is performed separately. The position / orientation calculation unit 205 calculates the external orientation elements (position and orientation) of the camera that captured the corresponding video based on the three-dimensional coordinates of the feature points of the measurement target calculated by the feature point coordinate calculation unit 204, and the position / The position and orientation of the integrated center (vehicle 100) are calculated from the data relating to the position and orientation of the vehicle 100 received by the orientation data acquisition unit 202.

座標変換部206は、前方監視用カメラ101、速度検出用カメラ102、景観撮影用カメラ1(103)、景観撮影用カメラ2(104)、景観撮影用カメラ3(105)、レーザースキャナ109から得られたデータを一つの座標系上で統合的に扱えるようにする座標変換の処理を行う。例えば、景観撮影用カメラ1(103)が撮影した動画像に基づく撮影対象物の特徴点の3次元座標の算出結果を、予め設定された統合座標上で取り扱えるように当該統合座標上の座標データに座標変換し、更に動画に基づいて得られた外部標定要素の統合座標への座標変換が行われる。ここで、外部標定要素の座標変換では、特定のカメラから求めた統合中心の外部標定要素が算出される。この特定のカメラから求めた統合中心の外部標定要素というのは、該当するカメラのオフセット位置やオフセット角度を考慮して、当該カメラの外部標定要素に基づいて、統合中心の位置と姿勢(つまり、車両の位置と姿勢)を求める演算を行う。なお、統合座標の原点は、車両100上の適当な位置に予め設定される。また、その座標軸の向きは、計算に便利な向きであれば、特に限定されない。   The coordinate conversion unit 206 is obtained from the forward monitoring camera 101, the speed detection camera 102, the landscape shooting camera 1 (103), the landscape shooting camera 2 (104), the landscape shooting camera 3 (105), and the laser scanner 109. A coordinate conversion process is performed so that the obtained data can be handled in an integrated manner on one coordinate system. For example, the coordinate data on the integrated coordinates so that the calculation result of the three-dimensional coordinates of the feature points of the object to be photographed based on the moving image photographed by the landscape photographing camera 1 (103) can be handled on the preset integrated coordinates. The coordinates are converted into integrated coordinates of the external orientation elements obtained based on the moving image. Here, in the coordinate transformation of the external orientation element, the external orientation element at the integration center obtained from a specific camera is calculated. The integration center external orientation element obtained from this specific camera is based on the external orientation element of the camera in consideration of the offset position and offset angle of the corresponding camera (i.e., (Calculation of vehicle position and attitude). The origin of the integrated coordinates is set in advance at an appropriate position on the vehicle 100. The direction of the coordinate axis is not particularly limited as long as it is a direction convenient for calculation.

重み係数付与部207は、カメラ毎に得られた測定対象物の特徴点の3次元座標の値を統合座標上に座標変換したもの、およびカメラ毎に求めた統合中心における外部標定要素、更に傾斜計107やGPS装置108から得られた車両100の傾斜や位置の値のそれぞれに、各カメラの精度を反映させた重み係数を付与する。重み係数は、各装置の精度や優先度を考慮して予め設定されている。なお、重み係数の組み合わせを複数用意し、それを適宜切り替えることや、重み係数の設定を動的に変化させることも可能である。   The weighting factor assigning unit 207 is obtained by converting the coordinate values of the three-dimensional coordinates of the feature points of the measurement object obtained for each camera onto the integrated coordinates, the external orientation element at the integrated center obtained for each camera, and the inclination A weighting factor reflecting the accuracy of each camera is assigned to each of the values of the inclination and position of the vehicle 100 obtained from the total 107 and the GPS device 108. The weighting factor is set in advance in consideration of the accuracy and priority of each device. It is also possible to prepare a plurality of combinations of weighting factors and switch them as appropriate, or to dynamically change the setting of the weighting factors.

データ統合部208は、機器毎のデータをその重みを反映させた形で統合する。例えば、景観撮影用カメラ1(103)からの画像データに基づいて算出した測定対象物の特徴点の3次元座標の値と景観撮影用カメラ2(104)からの画像データに基づいて算出した測定対象物の特徴点の3次元座標の値とを、統合座標系上で統合する。この際、機器毎に設定された重みを反映した形での算出平均が計算され、特徴点の座標値が求められる。重み係数推定部209は、後述する方法で重み係数を推定する。   The data integration unit 208 integrates the data for each device in a form that reflects the weight. For example, the measurement calculated based on the three-dimensional coordinate value of the feature point of the measurement object calculated based on the image data from the landscape shooting camera 1 (103) and the image data from the landscape shooting camera 2 (104). The three-dimensional coordinate values of the feature points of the object are integrated on the integrated coordinate system. At this time, the calculation average in a form reflecting the weight set for each device is calculated, and the coordinate value of the feature point is obtained. The weight coefficient estimation unit 209 estimates the weight coefficient by a method described later.

(処理の一例)
以下、画像データ処理装置200の動作の一例を説明する。図3は、画像データ処理装置200において行われる処理の手順の一例を示すフローチャートである。図3のフローチャートを実行するためのプログラムは、画像データ処理装置200が備える適当なメモリ領域に格納され、画像データ処理装置200が備えるCPUによって読み取られて実行される。なお、図3のフローチャートを実行するためのプログラムを外部の適当な記憶媒体に格納し、そこから画像データ処理装置200に提供される形態も可能である。
(Example of processing)
Hereinafter, an example of the operation of the image data processing apparatus 200 will be described. FIG. 3 is a flowchart illustrating an example of a processing procedure performed in the image data processing apparatus 200. The program for executing the flowchart of FIG. 3 is stored in an appropriate memory area included in the image data processing apparatus 200, and is read and executed by the CPU included in the image data processing apparatus 200. Note that a form in which a program for executing the flowchart of FIG. 3 is stored in an appropriate external storage medium and provided to the image data processing apparatus 200 from there is also possible.

図3に示す処理は、前方監視用カメラ101、速度検出用カメラ102、景観撮影用カメラ1(103)、景観撮影用カメラ2(104)および景観撮影用カメラ3(105)が撮影した動画像のデータ(動画像データ)のそれぞれにおいて行われる。各カメラにかかる処理は同じであるので、以下、単にカメラと表記し、説明を行う。   The processing shown in FIG. 3 is a moving image captured by the forward monitoring camera 101, the speed detection camera 102, the landscape shooting camera 1 (103), the landscape shooting camera 2 (104), and the landscape shooting camera 3 (105). Is performed on each of the data (moving image data). Since the processing for each camera is the same, hereinafter, it will be simply referred to as a camera and described.

図3に示す処理が開始されると、まず、動画像データ取得部201によって、各カメラが撮影した動画の動画像データが取得される。ここで動画像は、カメラと対象物とが少しずつ相対的に移動していく過程において撮影された複数の連続する画像(この画像の一つ一つをフレーム画像という)で構成される。動画像データ取得部201は、時系列的に得られる複数のフレーム画像をリアルタイムに順次取得する。   When the processing shown in FIG. 3 is started, first, the moving image data acquisition unit 201 acquires moving image data of a moving image captured by each camera. Here, the moving image is composed of a plurality of continuous images (each of these images is referred to as a frame image) taken in the process of relatively moving the camera and the object little by little. The moving image data acquisition unit 201 sequentially acquires a plurality of frame images obtained in time series in real time.

各カメラからの動画データの取得と平行して、ステップS102以下の処理が行われる。ステップS102〜ステップS106までの処理は、特徴点座標算出部204において行われる。ステップS102では、1フレーム目と2フレーム目におけるカメラの位置と姿勢の初期値(外部標定要素の初期値)が取得される。この処理では、まず、測定対象となる実空間に基準点を設置し、この基準点の実空間における三次元座標をトータルステーションやGPSを用いて計測する。あるいは、実空間における3次元座標が既知である基準点を用意する。次に、その基準点をカメラで撮影し、基準点の三次元座標とフレーム画像中における画像座標とに基づいて、後方交会法によってカメラの内部標定要素と外部標定要素の初期値を算出する。   In parallel with the acquisition of the moving image data from each camera, the processes in and after step S102 are performed. The processing from step S102 to step S106 is performed by the feature point coordinate calculation unit 204. In step S102, initial values (initial values of external orientation elements) of the camera positions and orientations in the first and second frames are acquired. In this process, first, a reference point is set in the real space to be measured, and the three-dimensional coordinates of the reference point in the real space are measured using a total station or GPS. Alternatively, a reference point whose three-dimensional coordinates in the real space are known is prepared. Next, the reference point is photographed by the camera, and the initial values of the internal orientation element and external orientation element of the camera are calculated by the backward intersection method based on the three-dimensional coordinates of the reference point and the image coordinates in the frame image.

別な方法として、トータルステーションやGPSを用いて、複数の撮影位置の三次元座標値を与え、複数の撮影位置で撮影されたステレオ画像から、外部標定要素の初期値を求めるようにしてもよい。更に別な方法として、トータルステーションやGPSを用いず、間の距離が既知である複数の基準点が描かれた基準板を移動しながら、複数枚の画像を撮影し、基準点が撮影された複数枚の画像から、基準点の画像座標を算出し、相互標定などを用いてカメラの位置、姿勢の初期値を得る方法を用いてもよい(ただし、この場合、得られる座標系はローカル座標系となる)。なお、後方交会法、相互標定の具体的な演算の詳細については後述する。   As another method, three-dimensional coordinate values of a plurality of shooting positions may be given using a total station or GPS, and an initial value of an external orientation element may be obtained from stereo images shot at a plurality of shooting positions. As another method, a plurality of images are taken by moving a reference plate on which a plurality of reference points with known distances are drawn without using a total station or GPS, and a plurality of reference points are taken. A method may be used in which the image coordinates of the reference point are calculated from a single image and the initial values of the camera position and orientation are obtained using relative orientation (in this case, the obtained coordinate system is a local coordinate system). Becomes). The details of the specific operation of the backward intersection method and relative orientation will be described later.

ステップS102の後、取得した動画像のフレーム画像から撮影された対象物における特徴点の抽出を行う(ステップS103)ここでは、1フレーム目、2フレーム目、3フレーム目の最低3フレームのフレーム画像のそれぞれから、特徴点を抽出する。特徴点の検出には、モラベック、ラプラシアン、ソーベルなどのフィルタが用いられる。特徴点を抽出したら、異なるフレーム画像間において、対応する特徴点を特定し、その追跡を行う(ステップS104)。ここでは、1フレーム目、2フレーム目、3フレーム目における特徴点の対応関係が特定される。なお、異なるフレーム画像中における特徴点の対応関係を特定するための情報は、各フレーム画像内に埋め込まれる。   After step S102, feature points are extracted from the captured object from the frame image of the acquired moving image (step S103). Here, a frame image of at least three frames of the first frame, the second frame, and the third frame. Feature points are extracted from each of the above. Filters such as Moravec, Laplacian, and Sobel are used for feature point detection. After extracting the feature points, the corresponding feature points are specified between different frame images and tracked (step S104). Here, the correspondence between the feature points in the first frame, the second frame, and the third frame is specified. Information for specifying the correspondence between feature points in different frame images is embedded in each frame image.

この例において、特徴点の追跡には、テンプレートマッチングが用いられる。テンプレートマッチングとしては、残差逐次検定法(SSDA:Sequential Similarity Detection Algorithm)、相互相関係数法などが挙げられる。以下、テンプレートマッチングの一例を説明する。   In this example, template matching is used for tracking feature points. Examples of template matching include a residual sequential detection method (SSDA), a cross-correlation coefficient method, and the like. Hereinafter, an example of template matching will be described.

テンプレートマッチングは、2つの座標系における画像の座標データを相互に比較し、両者の相関関係により、2つの画像の対応関係を求める方法である。テンプレートマッチングでは、2つの視点それぞれから見た画像の特徴点の対応関係が求められる。図4は、テンプレートマッチングの原理を説明する説明図である。この方法では、図示するように、N×N画素のテンプレート画像を、それよりも大きいM×M画素の入力画像内の探索範囲(M−N+1)上で動かし、下記数1で示される相互相関関数C(a,b)が最大となるような(つまり相関の程度が最大となるような)テンプレート画像の左上位置を求める。 Template matching is a method in which the coordinate data of images in two coordinate systems are compared with each other, and the correspondence between the two images is obtained by the correlation between the two. In template matching, a correspondence relationship between feature points of an image viewed from two viewpoints is obtained. FIG. 4 is an explanatory diagram for explaining the principle of template matching. In this method, as shown in the drawing, a template image of N 1 × N 1 pixel is moved on a search range (M 1 −N 1 +1) 2 in an input image of M 1 × M 1 pixel larger than that, The upper left position of the template image is calculated so that the cross-correlation function C (a, b) expressed by the following equation 1 is maximized (that is, the degree of correlation is maximized).

Figure 2013187862
Figure 2013187862

上記の処理は、一方の画像の倍率を変えながら、また回転させながら行われる。そして、相関関係が最大となった条件で、両画像の一致する領域が求まり、更にこの領域における特徴点を抽出することで、対応点の検出が行われる。   The above processing is performed while changing the magnification of one image and rotating it. And the area | region where both images correspond is calculated | required on the conditions from which the correlation became the maximum, Furthermore, the corresponding point is detected by extracting the feature point in this area | region.

テンプレートマッチングを用いることで、比較する2つの画像の一致する部分が特定でき、2つの画像の対応関係を知ることができる。この方法では、2つ画像の相関関係が最大となるように両者の相対的な位置関係が定められる。2つの画像の相関関係は、両画像の特徴点によって決まる。   By using template matching, a matching portion between two images to be compared can be specified, and the correspondence between the two images can be known. In this method, the relative positional relationship between the two images is determined so as to maximize the correlation between the two images. The correlation between the two images is determined by the feature points of both images.

ステップS104によって特徴点の追跡を行った後、複数のフレーム画像、この場合でいうと、1フレーム目のフレーム画像と2フレーム目のフレーム画像において対応する特徴点の3次元座標の算出が行われる(ステップS105)。   After tracking the feature points in step S104, the three-dimensional coordinates of the corresponding feature points are calculated in a plurality of frame images, in this case, the first frame image and the second frame image. (Step S105).

この例では、時間差を置いて異なる位置から取得された2つのフレーム画像(1フレーム目のフレーム画像と2フレーム目のフレーム画像)をステレオペア画像として用い、三角測量の原理により、2つのフレーム画像中で対応関係が特定された特徴点の3次元座標の算出が行われる。図5は、この様子を示すイメージ図である。図5に示すように、1フレーム目の撮影時に比較して、2フレーム目の撮影時には、図の右の方向にカメラは移動している。従って、同時ではないが、僅かな時間差をおいて、×印で示される撮影対象物の複数の特徴点を、異なる2つの位置および方向から撮影した2つのフレーム画像が得られる。ここで、1フレーム目におけるカメラの位置と姿勢、更に2フレーム目におけるカメラの位置と姿勢は、ステップS102において取得され既知であるので、立体写真測量の原理から特徴点の3次元座標を求めることができる。   In this example, two frame images (a frame image of the first frame and a frame image of the second frame) acquired from different positions with a time difference are used as stereo pair images, and two frame images are obtained by the principle of triangulation. The three-dimensional coordinates of the feature points for which the correspondence relationship is specified are calculated. FIG. 5 is an image diagram showing this state. As shown in FIG. 5, the camera moves in the right direction in the figure when shooting the second frame, as compared to when shooting the first frame. Therefore, although not simultaneously, two frame images obtained by photographing a plurality of feature points of the photographing object indicated by the x mark from two different positions and directions are obtained with a slight time difference. Here, since the position and orientation of the camera in the first frame and the position and orientation of the camera in the second frame are acquired and known in step S102, the three-dimensional coordinates of the feature points are obtained from the principle of stereoscopic photogrammetry. Can do.

以下、この処理の詳細な手順の一例を説明する。ここでは、前方交会法を用いて、1フレーム目のフレーム画像と2フレーム目のフレーム画像の中で対応関係が特定された特徴点の3次元座標の算出を行う。図6は、前方交会法を説明する説明図である。前方交会法とは、既知の2点(O,O)上から未知点Pへ向かう方向を観測して、それらの方向線の交点として未知点Pの位置を求める方法である。図6において、対象空間の座標系をO−XYZとする。ここで、1フレーム目のフレーム画像のカメラの投影中心Oの座標(X01,Y01,Z01)およびカメラ座標軸の傾き(ω,φ,κ)と、2フレーム目のフレーム画像のカメラの投影中心Oの座標(X02,Y02,Z02)およびカメラ座標軸の傾き(姿勢)(ω,φ,κ)は、ステップS102において既に取得され既知である。また、内部標定要素(焦点距離、主点位置、レンズ歪係数)も既知である。 Hereinafter, an example of a detailed procedure of this process will be described. Here, the three-dimensional coordinates of the feature points for which the correspondence is specified in the frame image of the first frame and the frame image of the second frame are calculated using the forward intersection method. FIG. 6 is an explanatory diagram for explaining the forward intersection method. The forward intersection method is a method of observing a direction from two known points (O 1 , O 2 ) toward the unknown point P and obtaining the position of the unknown point P as an intersection of these direction lines. In FIG. 6, the coordinate system of the target space is O-XYZ. Here, the coordinates (X 01 , Y 01 , Z 01 ) of the camera projection center O 1 of the first frame image and the tilts (ω 1 , φ 1 , κ 1 ) of the camera coordinate axes and the second frame The coordinates (X 02 , Y 02 , Z 02 ) of the projection center O 2 of the camera of the image and the inclinations (postures) (ω 2 , φ 2 , κ 2 ) of the camera coordinate axes are already acquired and known in step S102. Also, the internal orientation elements (focal length, principal point position, lens distortion coefficient) are known.

ここで、1フレーム目のフレーム画像上の特徴点p(x,y)と、これに対応する2フレーム目のフレーム画像上の特徴点p(x,y)は、それぞれのフレーム画像から得られる。したがって、対象空間の未知点となる特徴点Pの3次元座標(X,Y,Z)は、光線Oと光線Oの交点として定まる。ただし、実際には誤差があり、2本の光線が正確に交わらないため、最小二乗法によって交点位置を求める。具体的には、2本の共線条件式(数2)を立てる。これに既知の外部標定要素、内部標定要素、対応点の画像座標を代入する。 Here, the feature point p 1 (x 1 , y 1 ) on the first frame image and the corresponding feature point p 2 (x 2 , y 2 ) on the second frame image are respectively Obtained from the frame image. Therefore, the three-dimensional coordinates (X, Y, Z) of the feature point P, which is an unknown point in the target space, are determined as the intersection of the light beam O 1 p 1 and the light beam O 2 p 2 . However, in reality, there is an error, and the two light beams do not accurately intersect, so the intersection position is obtained by the least square method. Specifically, two collinear conditional expressions (Equation 2) are established. A known external orientation element, internal orientation element, and image coordinates of corresponding points are substituted for this.

Figure 2013187862
Figure 2013187862

さらに、この共線条件式に未知点Pの近似値(X’,Y’,Z’)に補正量を加えたもの(X’+ΔX,Y’+ΔY,Z’+ΔZ)を代入する。そして、近似値回りにテーラー展開して線形化し、最小二乗法により補正量を求める。求めた補正量によって近似値を補正し、同様の操作を繰り返し、収束解を求める。この操作によって、特徴点の三次元座標P(X,Y,Z)が求められる。この計算をすべての特徴点について行い、1フレーム目のフレーム画像と2フレーム目のフレーム画像の中で対応関係が特定された複数の特徴点の3次元座標の算出が行われる。以上がステップS105で行われる処理の内容の詳細な一例である。   Further, the approximate value (X ′, Y ′, Z ′) of the unknown point P plus the correction amount (X ′ + ΔX, Y ′ + ΔY, Z ′ + ΔZ) is substituted into this collinear conditional expression. Then, Taylor expansion is performed around the approximate value to linearize, and the correction amount is obtained by the least square method. The approximate value is corrected by the obtained correction amount, and the same operation is repeated to obtain a converged solution. By this operation, the three-dimensional coordinates P (X, Y, Z) of the feature points are obtained. This calculation is performed for all feature points, and the three-dimensional coordinates of a plurality of feature points whose correspondence is specified in the frame image of the first frame and the frame image of the second frame are calculated. The above is a detailed example of the contents of the process performed in step S105.

ステップS105の後、算出した測定対象物の特徴点の3次元座標に基づいて、3フレーム目におけるカメラの外部標定要素の算出を行う(ステップS106)。この処理によって、3フレーム目におけるカメラの位置と姿勢が求められる。ここでは、後方交会法を用いてカメラの外部標定要素の算出が行われる。   After step S105, an external orientation element of the camera in the third frame is calculated based on the calculated three-dimensional coordinates of the feature point of the measurement object (step S106). With this process, the position and orientation of the camera in the third frame are obtained. Here, the external orientation element of the camera is calculated using the backward intersection method.

以下、ステップS106で行われる演算の詳細な一例を説明する。図7は、後方交会法を説明する説明図である。後方交会法とは、未知点Oから3つ以上の既知点P、P、Pへ向かう方向を観測して、それらの方向線の交点として未知点Oの位置を求める方法である。ここでは、ステップS105において求めた測定対象物の3つの特徴点の3次元座標を図7の基準点P、P、Pとし、それを基にして、後方交会法によって3フレーム目におけるカメラの外部標定要素(X,Y,Z,ω,φ,κ)を算出する。後方交会法としては、単写真標定、DLT法、相互標定がある。 Hereinafter, a detailed example of the calculation performed in step S106 will be described. FIG. 7 is an explanatory diagram for explaining the backward intersection method. The backward intersection method is a method of observing directions from the unknown point O toward three or more known points P 1 , P 2 , P 3 and obtaining the position of the unknown point O as an intersection of these direction lines. Here, the three-dimensional coordinates of the three characteristic points of the measurement object obtained in step S105 are set as the reference points P 1 , P 2 , and P 3 in FIG. The camera's external orientation elements (X 0 , Y 0 , Z 0 , ω, φ, κ) are calculated. There are single photograph orientation, DLT method, and relative orientation as the backward intersection method.

まず、単写真標定を用いて3フレーム目におけるカメラの外部標定要素(X,Y,Z,ω,φ,κ)を算出する場合を、図7を参照して説明する。単写真標定は、1枚の写真の中に写された基準点に成り立つ共線条件を用いて、写真を撮影したカメラの位置O(X,Y,Z)およびカメラの姿勢(ω,φ,κ)を求める手法である。共線条件とは、投影中心O、写真像(p,p,p)および測定対象点(この場合は特徴点)(Op,Op,Op)が、一直線上にあるという条件である。ここで、カメラの位置O(X,Y,Z)とカメラの姿勢(ω,φ,κ)は外部標定要素である。 First, the case of calculating the external orientation elements (X 0 , Y 0 , Z 0 , ω, φ, κ) of the camera in the third frame using single photo orientation will be described with reference to FIG. Single photo orientation uses the collinear condition that holds the reference point in a single photo, and uses the camera position O (X 0 , Y 0 , Z 0 ) and camera posture (ω , Φ, κ). The collinear condition means that the projection center O, the photographic image (p 1 , p 2 , p 3 ) and the measurement point (in this case, the feature point) (Op 1 P 1 , Op 2 P 2 , Op 3 P 3 ) It is a condition that it is on a straight line. Here, the camera position O (X 0 , Y 0 , Z 0 ) and the camera posture (ω, φ, κ) are external orientation elements.

まず、カメラ座標系をx,y,z、写真座標系x,y、測定対象物の座標系である基準座標系X,Y,Zとする。カメラを各座標軸の正方向に対して左回りにそれぞれω,φ,κだけ順次回転させた向きで撮影が行われたものとする。そして、4点の画像座標(図7では3点のみ記載)と対応する基準点の三次元座標を下記数3に示す2次の射影変換式に代入し、観測方程式を立ててパラメ−タb1〜b8を求める。   First, the camera coordinate system is assumed to be x, y, z, the photographic coordinate system x, y, and the reference coordinate system X, Y, Z which is the coordinate system of the measurement object. It is assumed that photographing is performed in a direction in which the camera is sequentially rotated counterclockwise by ω, φ, and κ counterclockwise with respect to the positive direction of each coordinate axis. Then, the four image coordinates (only three points are shown in FIG. 7) and the corresponding three-dimensional coordinates of the reference point are substituted into the quadratic projective transformation equation shown in the following equation 3, and an observation equation is established to set the parameter b1. -B8 is obtained.

Figure 2013187862
Figure 2013187862

そして、数3のパラメータb1〜b8を用いて、下記の数4から外部標定要素(X,Y,Z,ω,φ,κ)を求める。ここで、(X,Y,Z)は3フレーム目におけるカメラの位置を示す座標であり、(ω,φ,κ)は、その位置におけるカメラの姿勢(向き)である。 Then, the external orientation elements (X 0 , Y 0 , Z 0 , ω, φ, κ) are obtained from the following Expression 4 using the parameters b1 to b8 of Expression 3. Here, (X 0 , Y 0 , Z 0 ) are coordinates indicating the position of the camera in the third frame, and (ω, φ, κ) is the posture (orientation) of the camera at that position.

Figure 2013187862
Figure 2013187862

以上のようにして、測定対象物の特徴点の3次元座標に基づいて、3フレーム目におけるカメラの外部標定要素が単写真標定を用いて算出される。   As described above, on the basis of the three-dimensional coordinates of the feature points of the measurement object, the external orientation element of the camera in the third frame is calculated using the single photograph orientation.

次に、DLT法によって、測定対象物の特徴点の3次元座標に基づく3フレーム目におけるカメラの位置と姿勢を算出する手順について説明する。DLT法は、写真座標と対象空間の三次元座標との関係を3次の射影変換式で近似したものである。DLT法の基本式は以下の数5となる。なお、DLT法の詳細については、「村井俊治:解析写真測量、p46−51、p149−155」等に記載されている。   Next, a procedure for calculating the position and orientation of the camera in the third frame based on the three-dimensional coordinates of the feature points of the measurement object by the DLT method will be described. The DLT method approximates the relationship between the photographic coordinates and the three-dimensional coordinates of the target space with a cubic projective transformation formula. The basic formula of the DLT method is as follows. Details of the DLT method are described in “Shunji Murai: Analytical Photogrammetry, p46-51, p149-155” and the like.

Figure 2013187862
Figure 2013187862

数5の式の分母を消去すると、数6の線形式を導き出せる。   If the denominator of Equation 5 is deleted, the linear form of Equation 6 can be derived.

Figure 2013187862
Figure 2013187862

さらに、数6を変形すると、以下の数5となる。 Further, when Expression 6 is transformed, the following Expression 5 is obtained.

Figure 2013187862
Figure 2013187862

数7に6点以上の基準点の三次元座標を代入し、最小二乗法を用いて解くと、写真座標と対象点座標との関係を決定するL〜L11の11個の未知変量を取得できる。なお、L〜L11には、外部標定要素が含まれる。 Substituting the three-dimensional coordinates of six or more reference points into Equation 7 and solving using the least square method, eleven unknown variables L 1 to L 11 that determine the relationship between the photo coordinates and the target point coordinates are obtained. You can get it. Note that L 1 to L 11 include external orientation elements.

次に、相互標定法による外部標定要素の算出について説明する。相互標定は、既知点がなくとも相対的な外部標定要素が求められる方法である。また、既知点があれば、絶対標定を行うことで、絶対座標を求めることができる。   Next, calculation of external orientation elements by the relative orientation method will be described. The relative orientation is a method in which a relative external orientation element is obtained even if there is no known point. If there is a known point, absolute coordinates can be obtained by performing absolute orientation.

図8は、相互標定を説明する説明図である。相互標定は、左右2枚の画像における6点以上の対応点によって外部標定要素を求める。相互標定では、投影中心OとOと基準点Pを結ぶ2本の光線が同一平面内になければならいという共面条件を用いる。以下の数8に、共面条件式を示す。なお、ここで例えば左画像が2フレーム目のフレーム画像に当たり、右画像が3フレーム目のフレーム画像に当たる。 FIG. 8 is an explanatory diagram for explaining relative orientation. In the relative orientation, an external orientation element is obtained from six or more corresponding points in the left and right images. In the relative orientation, a coplanar condition that two rays connecting the projection centers O 1 and O 2 and the reference point P must be in the same plane is used. Equation 8 below shows the coplanar conditional expression. Here, for example, the left image corresponds to the frame image of the second frame, and the right image corresponds to the frame image of the third frame.

Figure 2013187862
Figure 2013187862

図8に示すように、モデル座標系の原点を左側の投影中心Oにとり、右側の投影中心Oを結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さとする。このとき、求めるパラメータは、左側のカメラのZ軸の回転角κ、Y軸の回転角φ、右側のカメラのZ軸の回転角κ、Y軸の回転角φ、X軸の回転角ωの5つの回転角となる。この場合、左側のカメラのX軸の回転角ωは0なので、考慮する必要はない。このような条件にすると、数8の共面条件式は数9のようになり、この式を解けば各パラメータが求められる。 As shown in FIG. 8, the origin of the model coordinate system is taken as the left projection center O 1 , and the line connecting the right projection center O 2 is taken as the X axis. For the scale, the base length is the unit length. At this time, the parameters to be obtained are the rotation angle κ 1 of the left camera, the rotation angle φ 1 of the Y axis, the rotation angle κ 2 of the right camera, the rotation angle φ 2 of the Y axis, and the rotation angle φ 2 of the X axis. There are five rotation angles ω 2 . In this case, since the rotation angle ω 1 of the X axis of the left camera is 0, there is no need to consider it. Under such conditions, the coplanar conditional expression of Equation 8 becomes as shown in Equation 9, and each parameter can be obtained by solving this equation.

Figure 2013187862
Figure 2013187862

ここで、モデル座標系XYZとカメラ座標系xycの間には、次の数10に示すような座標変換の関係式が成り立つ。   Here, between the model coordinate system XYZ and the camera coordinate system xyc, a coordinate transformation relational expression as shown in the following equation 10 holds.

Figure 2013187862
Figure 2013187862

これらの式を用いて、次の手順により、未知パラメータ(外部標定要素)を求める。
(1)未知パラメータ(κ,φ,κ,φ,ω)の初期近似値は通常0とする。
(2)数8の共面条件式を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を数9により求め、観測方程式をたてる。
(3)最小二乗法をあてはめ、近似値に対する補正量を求める。
(4)近似値を補正する。
(5)補正された近似値を用いて、(1)〜(4)までの操作を収束するまで繰り返す。
Using these equations, an unknown parameter (external orientation element) is obtained by the following procedure.
(1) The initial approximate values of unknown parameters (κ 1 , φ 1 , κ 2 , φ 2 , ω 2 ) are normally 0.
(2) The coplanar conditional expression of Equation 8 is Taylor-expanded around the approximate value, and the value of the differential coefficient when linearized is obtained by Equation 9, and an observation equation is established.
(3) A least square method is applied to obtain a correction amount for the approximate value.
(4) The approximate value is corrected.
(5) Using the corrected approximate value, the operations (1) to (4) are repeated until convergence.

相互標定が収束した場合、さらに接続標定が行われる。接続標定とは、各モデル間の傾き、縮尺を統一して同一座標系とする処理である。この処理を行った場合、以下の数11で表される接続較差を算出する。算出した結果、ΔZおよびΔDが、所定値(例えば、0.0005(1/2000))以下であれば、接続標定が正常に行われたと判定する。 When the relative orientation converges, connection orientation is further performed. The connection orientation is a process of unifying the inclination and scale between models to make the same coordinate system. When this processing is performed, a connection range represented by the following formula 11 is calculated. As a result of the calculation, if ΔZ j and ΔD j are equal to or less than a predetermined value (for example, 0.0005 (1/2000)), it is determined that the connection orientation has been normally performed.

Figure 2013187862
Figure 2013187862

上記相互標定により、3フレーム目におけるカメラの位置および姿勢が求められる。以上のようにして、前方監視用カメラ101、速度検出用カメラ102、景観撮影用カメラ1(103)、景観撮影用カメラ2(104)および景観撮影用カメラ3(105)が撮影した動画像のデータ(動画像データ)のそれぞれに基づいて、撮影対象の特徴点の3次元座標の算出(ステップS105)および3フレーム目における当該カメラの外部標定要素(その位置と姿勢)の算出が行われる。   By the relative orientation, the position and orientation of the camera in the third frame are obtained. As described above, the moving images captured by the forward monitoring camera 101, the speed detection camera 102, the landscape shooting camera 1 (103), the landscape shooting camera 2 (104), and the landscape shooting camera 3 (105) are recorded. Based on each of the data (moving image data), the calculation of the three-dimensional coordinates of the feature point to be imaged (step S105) and the external orientation element (its position and orientation) of the camera in the third frame are performed.

次に、各カメラにおいて求められた撮影対象の特徴点の3次元座標と外部標定要素を統合座標に座標変換する(ステップS107)処理を座標変換部206において行う。すなわち、各カメラの位置および姿勢は異なっており、この時点における各カメラにおいて得られた撮影対象の特徴点の3次元座標と外部標定要素とは、各カメラの位置を原点とする各カメラ固有の座標系における値である。つまり、カメラが異なると、異なる座標系となるので、データを統合的に扱うことができない状態となっている。そこで、ステップS107では、各カメラに係る特徴点の3次元座標のデータと外部標定要素のデータをある特定の座標系(これを統合座標と呼ぶ)に座標変換する。   Next, the coordinate conversion unit 206 performs a process of converting the three-dimensional coordinates of the feature points to be photographed obtained by each camera and the external orientation elements into integrated coordinates (step S107). That is, the position and orientation of each camera are different, and the three-dimensional coordinates of the feature points of the imaging target obtained by each camera at this time and the external orientation elements are unique to each camera with the position of each camera as the origin. It is a value in the coordinate system. In other words, different cameras have different coordinate systems, and data cannot be handled in an integrated manner. Thus, in step S107, the coordinate data of the feature points related to each camera and the data of the external orientation elements are coordinate-converted into a specific coordinate system (referred to as integrated coordinates).

ここで、統合座標の座標系を(X,Y,Z)とし、特定のカメラ(例えば、景観撮影用カメラ1(103))の座標系を(X,Y,Z)とし、座標系間の回転を示す行列をaijとし、座標系間のオフセット(平行移動距離)を(X,Y,Z)とすると、2つの座標の間には、数12の関係がある。 Here, the coordinate system of the integrated coordinates is (X 1 , Y 1 , Z 1 ), and the coordinate system of a specific camera (for example, the landscape photographing camera 1 (103)) is (X 2 , Y 2 , Z 2 ). And the matrix indicating the rotation between the coordinate systems is a ij, and the offset (translation distance) between the coordinate systems is (X x , Y y , Z z ), There is a relationship.

Figure 2013187862
Figure 2013187862

車両100における各カメラの相対位置関係や姿勢の関係は、予め判明しているので、aijと(X,Y,Z)は既知である。よって、各カメラにおいて、撮影した動画像に基づく撮影対象物の特徴点の3次元座標のデータとステップS107で算出した外部標定要素の統合座標への座標変換が可能となる。これは、他のカメラについても同じである。ここで、外部標定要素の変換は、該当するカメラのオフセット位置やオフセット角度を考慮して、当該カメラの外部標定要素に基づいて、統合中心の位置と姿勢(つまり、車両の位置と姿勢)を求める演算を行う。すなわち、該当するカメラの外部標定要素(カメラの位置と姿勢)を、統合中心(車両)の位置と姿勢に変換する演算を行う。 Since the relative positional relationship and posture relationship of each camera in the vehicle 100 are known in advance, a ij and (X x , Y y , Z z ) are known. Therefore, in each camera, it is possible to perform coordinate conversion to the integrated coordinates of the three-dimensional coordinate data of the feature point of the photographing object based on the photographed moving image and the external orientation element calculated in step S107. The same applies to other cameras. Here, the conversion of the external orientation element takes the position and orientation of the integrated center (that is, the position and orientation of the vehicle) based on the external orientation element of the camera in consideration of the offset position and offset angle of the corresponding camera. Perform the desired calculation. That is, a calculation is performed to convert the external orientation element (camera position and orientation) of the corresponding camera into the position and orientation of the integrated center (vehicle).

ここで、仮に各カメラに係る各種の誤差が存在しなければ、各カメラから得られる撮影対象物の同じ部分における特徴点の3次元座標のデータ、およびステップS107で算出した外部標定要素を統合中心の値に変換した値は、各カメラ間で一致する。しかしながら、カメラ自体の精度や分解能、データ伝送時の誤差、振動の影響、カメラと撮影対象との間にある障害物(樹、人影等)、撮影対象に対する姿勢の違い等の要因により、カメラ毎に異なる誤差が存在する。そこで、ステップS108において、この誤差の影響を考慮したデータの調整を行った上で、各カメラから得られたデータを統合的に扱える状態とする。   Here, if there are no various errors associated with each camera, the three-dimensional coordinate data of the feature points in the same part of the object to be photographed obtained from each camera and the external orientation element calculated in step S107 are integrated. The value converted into the value of is consistent among the cameras. However, the accuracy and resolution of the camera itself, errors during data transmission, the influence of vibration, obstacles (trees, figures, etc.) between the camera and the object to be photographed, and differences in posture with respect to the object to be photographed make it There are different errors. Therefore, in step S108, after adjusting the data in consideration of the influence of the error, the data obtained from each camera is set in a state that can be handled in an integrated manner.

以下、ステップS108の詳細について説明する。ステップS108では、各カメラから得られた撮影対象物の特徴点の3次元座標のデータとステップS107で算出した外部標定要素を統合中心におけるものに変換した値に対して、バンドル調整を行う。バンドル調整は、異なる撮影位置で撮影された複数の画像を用いて各カメラの位置および姿勢の算出を行う際における算出精度を高めるために行われる最適化処理である。   Details of step S108 will be described below. In step S108, bundle adjustment is performed on the value obtained by converting the three-dimensional coordinate data of the feature point of the photographing target obtained from each camera and the external orientation element calculated in step S107 into that at the integration center. Bundle adjustment is an optimization process that is performed in order to increase calculation accuracy when calculating the position and orientation of each camera using a plurality of images taken at different shooting positions.

バンドル調整では、測定対象物の特徴点、フレーム画像(写真画像)上の点、投影中心の3点を結ぶ光束(バンドル)が同一直線上になければならないという共線条件に基づき、各画像の光束1本毎に観測方程式を立て、最小二乗法によって同時調整が行われ、各カメラの外部標定要素および測定対象物の特徴点の三次元座標の最適化が図られる。ここでは、バンドル調整を行う際に、各カメラからのデータの精度を反映させた重み係数を導入し、カメラ毎に重み付けを行った状態でバンドル調整を行う。バンドル調整に重み付けの概念を導入することで、重み付けを与えた状態で各カメラから得られたデータを統合し、各カメラの精度を反映させた統合データを得ることができる。   In bundle adjustment, based on the collinear condition that the feature point of the measurement object, the point on the frame image (photo image), and the light beam (bundle) connecting the three points of the projection center must be on the same straight line, An observation equation is set for each light beam, and simultaneous adjustment is performed by the least square method to optimize the three-dimensional coordinates of the external orientation elements of each camera and the feature points of the measurement object. Here, when performing bundle adjustment, a weighting factor reflecting the accuracy of data from each camera is introduced, and bundle adjustment is performed in a state where weighting is performed for each camera. By introducing the concept of weighting to bundle adjustment, it is possible to integrate data obtained from each camera in a state where weighting is given and obtain integrated data reflecting the accuracy of each camera.

以下、複数のカメラ毎に重み付けを設定し、それらを統合的に扱う手法の原理について説明する。まず、説明を簡単にするために、n個あるカメラそれぞれの外部標定要素に重み付けを行い、それを統合的に扱う場合の例を説明する。   Hereinafter, the principle of a method of setting weights for a plurality of cameras and handling them in an integrated manner will be described. First, in order to simplify the description, an example will be described in which the external orientation elements of each of n cameras are weighted and handled in an integrated manner.

ここでは、相対位置関係が判明しているカメラがn個あるとする。例えば、車両に固定されたn個のカメラを想定する。ここで、統合中心Ocの外部標定要素を(X,Y,Z,ω,φ,κ)とする。統合中心は、統合座標の原点の位置のことである。そして、カメラ1から求めた統合中心の外部標定要素が、Oc1(Xc1,Yc1,Zc1,ωc1,φc1,κc1)であり、カメラnから求めた統合中心の外部標定要素が、Ocn(Xcn,Ycn,Zcn,ωcn,φcn,κcn)であるとする。カメラ1から求めた統合中心の外部標定要素というのは、カメラ1のオフセット位置やオフセット角度を考慮して、カメラ1の外部標定要素から、統合中心の位置と姿勢(つまり、車両の位置と姿勢)を算出した値である。 Here, it is assumed that there are n cameras whose relative positional relationships are known. For example, assume n cameras fixed to a vehicle. Here, the external orientation elements of the integration center O c are assumed to be (X c , Y c , Z c , ω c , φ c , κ c ). The integration center is the position of the origin of the integrated coordinates. The integration center external orientation element obtained from the camera 1 is O c1 (X c1 , Y c1 , Z c1 , ω c1 , φ c1 , κ c1 ), and the integration center external orientation element obtained from the camera n. Is O cn (X cn , Y cn , Z cn , ω cn , φ cn , κ cn ). The integration center external orientation element obtained from the camera 1 is determined from the external orientation element of the camera 1 in consideration of the offset position and offset angle of the camera 1 (that is, the position and orientation of the vehicle). ) Is a calculated value.

例えば、各カメラからのデータの信頼性が同じである場合、n個のカメラを統合的に捉えた統合中心における平均の外部標定要素(統合した外部標定要素)は、各カメラの外部標定要素を均等に分配した単なる平均値として求められる。しかしながら、カメラ1の精度は相対的に高いが、カメラ2の精度は相対的に低い、といった場合、単に平均をとるだけでは、カメラ2の低精度の影響が大きく影響し、統合した値の誤差が増大する。この場合、相対的に精度の高いカメラ1の寄与が大きく、相対的に低精度のカメラ2の寄与を小さくする仕組みを導入することで、精度の低下を抑えつつ、カメラ2の情報を無視することなく取り込むことができる。   For example, when the reliability of the data from each camera is the same, the average external orientation element (integrated external orientation element) in the integration center that integrally captures n cameras is the external orientation element of each camera. It is obtained as an average value evenly distributed. However, if the accuracy of the camera 1 is relatively high, but the accuracy of the camera 2 is relatively low, simply taking an average greatly affects the low accuracy of the camera 2 and an error in the integrated value. Will increase. In this case, by introducing a mechanism in which the contribution of the relatively high-precision camera 1 is large and the contribution of the relatively low-precision camera 2 is small, information on the camera 2 is ignored while suppressing a decrease in precision. It can be taken in without.

そこで、上述した各カメラの統合中心における外部標定要素に重み付けを行い、統合中心における統合された外部標定要素への寄与が、各カメラの精度を反映したものとなるようにする。すなわち、まず、各カメラに与えられる重み係数をW(=1/σ)とする。重み係数Wは、精度を示すパラメータであり、最大値は、W=1である。例えば、誤差がなく精度が100%信頼できる場合の重み係数は、W=1である。また、例えば、誤差がそれなりにあり、精度が80%信頼できる変数に対する重み係数は、W=0.8である。 Therefore, the above-described external orientation elements at the integrated center of each camera are weighted so that the contribution to the integrated external orientation elements at the integrated center reflects the accuracy of each camera. That is, first, a weighting coefficient given to each camera is set to W (= 1 / σ 2 ). The weighting factor W is a parameter indicating accuracy, and the maximum value is W = 1. For example, the weighting factor when there is no error and the accuracy is 100% reliable is W = 1. Also, for example, the weighting factor for a variable that has some error and whose accuracy is 80% reliable is W = 0.8.

そして、カメラ毎の外部標定要素に、重み係数W(WXn,WYn,WZn,Wωn,Wφn,Wκn)をつける。ここで、各カメラの重みを反映した統合中心におけるn個のカメラの外部標定要素を統合した値Xcは、数13で表される。なお、ここでは、重み係数Wが、予め設定された値を用いる場合を説明するが、後述する方法により演算により推定することも可能である。 Then, a weight coefficient W (W Xn , W Yn , W Zn , W ωn , W φn , W κn ) is added to the external orientation element for each camera. Here, a value X c obtained by integrating the external orientation elements of n cameras at the integration center reflecting the weight of each camera is expressed by Equation 13. Here, a case where a preset value is used as the weighting factor W will be described, but it is also possible to estimate by a method described later.

Figure 2013187862
Figure 2013187862

cの具体的な一例を説明する。まず、精度の異なる2台のカメラ1およびカメラ2を考える。そして、カメラ1から求めた統合中心の外部標定要素X1を考え、その重み係数がWX1であるとする。また、カメラ1から求めた統合中心の外部標定要素X2を考え、その重み係数がWX2であるとする。この場合、数13から、重み付けを考慮した統合中心における外部標定要素Xは、数14となる。 A specific example of Xc will be described. First, consider two cameras 1 and 2 with different accuracy. Then, it is assumed that the integration center external orientation element X 1 obtained from the camera 1 is considered, and that the weight coefficient is W X1 . Further, the integration center external orientation element X 2 obtained from the camera 1 is considered, and its weight coefficient is assumed to be W X2 . In this case, the number 13, the external orientation parameters X C in the integrated center in consideration of weighting is a number 14.

Figure 2013187862
Figure 2013187862

例えば、仮にカメラ1の誤差は考慮しなくてよく、それに対してカメラ2の誤差が無視できず、WX1=1,WX2=0.5と設定されているとする。つまり、カメラ2に誤差があるので、その誤差を勘案して、重み係数をカメラ1の場合に比較して半分の値に設定するとする。この場合、数14は、数15となる。 For example, it is assumed that the error of the camera 1 does not need to be considered, and the error of the camera 2 is not negligible, and W X1 = 1 and W X2 = 0.5 are set. That is, since there is an error in the camera 2, it is assumed that the weight coefficient is set to a half value compared to the case of the camera 1 in consideration of the error. In this case, Equation 14 becomes Equation 15.

Figure 2013187862
Figure 2013187862

これは、カメラ1とカメラ2の外部標定要素に基づく、重み付けを考慮した統合中心における外部標定要素Xの算出において、カメラ2の外部標定要素よりもカメラ1の外部標定要素がより優先して反映されることを示している。こうして、誤差を考えなくてよいカメラ1の寄与が大きく、誤差があるカメラ2の寄与が小さくなる状態で、平均値を求める演算が行われ、統合中心における統合された外部標定要素Xの算出が行われる。 This is based on the external orientation parameters of the camera 1 and camera 2, in the calculation of the exterior orientation parameters X C in the integrated center in consideration of weighting, external orientation parameters of the camera 1 than the external orientation parameters of the camera 2 and more preferentially It is reflected. Thus, large contribution of may camera 1 without considering the errors, with the contribution of the camera 2 there is an error is small, performs the operation for obtaining the average value, the calculation of the integrated external orientation parameters X C in the integrated center Is done.

以上が重み付けを用いて複数のカメラから得たデータを統合する方法の基本的な考え方である。上述の場合、説明を簡単にするために外部標定要素のみを対象としているが、実際には外部標定要素以外に、各カメラが取得した撮影対象物の特徴点の3次元座標に係る値においてもカメラ毎の重みが考慮され、同様の演算が行われる。以下、この場合の一例を説明する。まず、統合中心の座標系に座標変換した各カメラに係る単写真標定における共線条件の基本式は、下記の数16によって示される。   The above is the basic idea of a method for integrating data obtained from a plurality of cameras using weighting. In the above case, only the external orientation elements are targeted for the sake of simplicity of explanation, but in fact, in addition to the external orientation elements, the values related to the three-dimensional coordinates of the feature points of the shooting target acquired by each camera are also included. The same calculation is performed in consideration of the weight for each camera. Hereinafter, an example of this case will be described. First, the basic equation of the collinear condition in the single photograph orientation relating to each camera coordinate-converted into the coordinate system of the integration center is expressed by the following equation (16).

Figure 2013187862
Figure 2013187862

ここで、写真は、フレーム画像に対応し、写真座標はフレーム画像中の画像座標に対応する。数16は、外部標定要素や地上座標値に対して線形でないので、テーラー展開を用いて近似値のまわりに展開し、高次項を無視して線形化し、繰り返しの計算によって解を求める手法が採用される。この際、未知変量に対する近似値を右上に添字「a」を付与して示し、また、近似値に対する補正量をv,δ、Δを付して、下記数17に示すように表現する。ここで、vx,vは観測された写真座標x,yの残差を意味する。 Here, the photograph corresponds to the frame image, and the photograph coordinates correspond to the image coordinates in the frame image. Since Equation 16 is not linear with respect to external orientation elements and ground coordinate values, a method is adopted in which the expansion is performed around the approximate value using Taylor's expansion, linearized ignoring higher-order terms, and the solution obtained by repeated calculation. Is done. At this time, the approximate value for the unknown variable is shown with the subscript “a” in the upper right, and the correction amount for the approximate value is expressed as shown in the following Expression 17, with v, δ, and Δ added. Here, v x, v y is the observed photographic coordinates x a, means the residuals of y a.

Figure 2013187862
Figure 2013187862

数17をテーラー展開し、線形化すると、数18が得られる。   Expression 18 is obtained by Taylor expansion and linearization of Expression 17.

Figure 2013187862
Figure 2013187862

数18を単純化するためにマトリックスを用いて表現すると、数19のように書ける。   If Expression 18 is expressed using a matrix in order to simplify Expression 18, Expression 19 can be written.

Figure 2013187862
Figure 2013187862

数19はさらに、数20のように書ける。   Equation 19 can be further written as Equation 20.

Figure 2013187862
Figure 2013187862

数19および数20は、複数のカメラが撮影した動画を構成するフレーム画像上における複数の特徴点に対する線形化された共線条件式であり、個々のフレーム画像上の特徴点の観測値に対する線形化された観測方程式である。なお、数20における(2,1)、(2,5)等の表記は、マトリックスの行と列の大きさを示している。   Equations (19) and (20) are linearized collinear conditional expressions for a plurality of feature points on a frame image constituting a moving image taken by a plurality of cameras, and are linear with respect to the observation values of the feature points on each frame image. It is a generalized observation equation. Note that the notation such as (2, 1) and (2, 5) in Equation 20 indicates the size of the rows and columns of the matrix.

数19および数20において、各カメラに与えられた重みは考慮されていない。ここで、対象とするカメラがn個あるとして、カメラの重み係数Wを数20の各項に掛け、数21を得る。この重み付けを行う処理は、重み係数付与部207において行われる。WおよびWijは、カメラ毎に設定されている重み係数である。 In Equations 19 and 20, the weight given to each camera is not considered. Here, assuming that there are n target cameras, the weighting factor W of the camera is multiplied by each term of Equation 20 to obtain Equation 21. The weighting process is performed in the weighting coefficient assigning unit 207. W i and W ij are weighting factors set for each camera.

Figure 2013187862
Figure 2013187862

数21は、数20で示される線形化された共線条件式に各カメラに設定された重みを付けたものである。数21は、概念的に下記数22のように表すこともできる。   Equation 21 is obtained by adding the weight set to each camera to the linearized collinear conditional expression expressed by Equation 20. Expression 21 can also be conceptually expressed as Expression 22 below.

Figure 2013187862
Figure 2013187862

カメラがn個ある場合、上記の数21をn個連立してバンドル調整を行う。この際逐次近似解法を用いる。すなわち、最小二乗法により補正量を求め、求めた補正量によって近似値を補正し、同様の操作を繰り返し、収束解を求める。この際、数13に関連して説明した方法により、重みを反映させた平均値を求める演算が行われる。こうして、重み付けがされたn個のカメラの情報を勘案した統合中心の座標で捉えた写真iの外部標定要素(X,Y,Z,ω,φ,κ)の統合値、および対応する特徴点の地上座標の値(X,Y,Z)の統合値が算出される。 In the case where there are n cameras, bundle adjustment is performed by simultaneously n-numbering the number 21 described above. At this time, a successive approximation method is used. That is, the correction amount is obtained by the least square method, the approximate value is corrected by the obtained correction amount, and the same operation is repeated to obtain the convergence solution. At this time, an operation for obtaining an average value reflecting the weight is performed by the method described in connection with Equation (13). Thus, the integrated values of the external orientation elements (X 0 , Y 0 , Z 0 , ω, φ, κ) of the photograph i captured by the coordinates of the integrated center taking into account the information of the weighted n cameras, and the correspondence The integrated value of the ground coordinate values (X, Y, Z) of the feature points is calculated.

ここで得られる統合値は、複数のカメラから得られたデータを、各カメラに与えられた重みを反映させた状態で、平均化(加重平均)したもので、単なる平均値ではなく、各カメラの寄与率が反映されたものとなっている。この演算によれば、各カメラの精度(誤差要因)に対応した寄与率を重み付けによって設定することで、各カメラから得られた測定値を統合的に取り扱う際に、相対的に精度の高いカメラに基づく測定値の寄与率を相対的に高くし、相対的に精度の低いカメラに基づく測定値の寄与率を相対的に低くすることができる。このため、精度の低いカメラの影響により、統合的に取り扱われた際に測定値に生じる誤差の発生を抑えつつ、当該精度の低いカメラが撮影した画像に基づくデータを統合データに取り込むことができる。   The integrated value obtained here is the average (weighted average) of the data obtained from multiple cameras, reflecting the weight given to each camera. The contribution rate is reflected. According to this calculation, the contribution rate corresponding to the accuracy (error factor) of each camera is set by weighting, so that when the measurement values obtained from each camera are handled in an integrated manner, a relatively high-accuracy camera It is possible to make the contribution ratio of the measurement value based on the camera relatively high and make the contribution ratio of the measurement value based on the camera with relatively low accuracy relatively low. For this reason, it is possible to capture data based on an image taken by a camera with a low accuracy into the integrated data while suppressing the occurrence of an error that occurs in the measurement value when handled in an integrated manner due to the influence of the camera with a low accuracy. .

統合したデータを得たら、それを適当な記憶領域に記憶し(ステップS109)、ステップS110以下の次のサイクルの処理を開始する。ステップS110以下では、基本的にステップ101〜ステップS109の処理が繰り返される。   When the integrated data is obtained, it is stored in an appropriate storage area (step S109), and the processing of the next cycle after step S110 is started. In step S110 and subsequent steps, the processing of step 101 to step S109 is basically repeated.

ステップS110では、2フレーム目と3フレーム目におけるカメラの外部標定要素(カメラの位置と姿勢)が取得される。ここで、2フレーム目における外部標定要素は、初期値としてステップS102において与えられており、3フレーム目における外部標定要素は、ステップS107において演算により求められている。   In step S110, camera external orientation elements (camera position and orientation) in the second and third frames are acquired. Here, the external orientation element in the second frame is given as an initial value in step S102, and the external orientation element in the third frame is obtained by calculation in step S107.

例えば、2順目の処理サイクルのステップS110の処理においては、その時点で(n−1)=3フレーム目、および(n−2)=2フレーム目の当該カメラの外部標定要素は既知であるので、それが取得される。そして、3順目の処理サイクルでは、ステップS110に対応する処理において、その時点で既知である(n−1)=4フレーム目および(n−2)=3フレーム目の外部標定要素が取得される(4フレーム目の外部標定要素は、2順目のステップS106に対応する処理で算出されている)。こうして、nフレーム目の外部標定要素の算出を行うサイクルにおけるステップS110に対応する処理において、(n−1)フレーム目および(n−2)目の外部標定要素の取得が行われる。   For example, in the process of step S110 of the second processing cycle, the external orientation elements of the camera in the (n−1) = 3rd frame and (n−2) = 2 frame are known at that time. So it gets. In the third processing cycle, in the processing corresponding to step S110, the external orientation elements of (n-1) = 4th frame and (n-2) = 3th frame known at that time are acquired. (The external orientation element in the fourth frame is calculated by the process corresponding to step S106 in the second order). Thus, in the process corresponding to step S110 in the cycle of calculating the nth frame external orientation element, the (n-1) th frame and (n-2) th external orientation elements are acquired.

また、ステップS110の後に行われるステップS103に対応する処理(図示せず)において、処理の対象とするフレーム画像中から新たな特徴点の抽出が行われる。また、ステップS112の後に行われるステップS103およびステップS104に対応する処理では、3フレーム目とその前の2フレーム目のフレーム画像中において新たに現れた特徴点の抽出および追跡が行われる。例えば、1フレーム目では現れておらず、2フレーム目と3フレーム目において新たに現れた特徴点の抽出が行われ、更にそれらの対応関係が特定される処理が行われる。そして、ステップS105以下の処理に対応する処理が繰り返される。   Further, in a process (not shown) corresponding to step S103 performed after step S110, a new feature point is extracted from the frame image to be processed. Further, in the processing corresponding to step S103 and step S104 performed after step S112, extraction and tracking of feature points newly appearing in the frame images of the third frame and the previous second frame are performed. For example, feature points that do not appear in the first frame but newly appear in the second frame and the third frame are extracted, and further, a process for specifying the corresponding relationship is performed. And the process corresponding to the process below step S105 is repeated.

以下、2フレーム目と3フレーム目において新たに現れ、抽出および追跡がされた特徴点の3次元座標を算出する手順の例を説明する。この場合、図6における左側の座標Оが2フレーム目のカメラ位置となり、右側の座標Оが3フレーム目のカメラ位置となる。ここで、2フレーム目のフレーム画像のカメラの投影中心Oの座標(X01,Y01,Z01)およびカメラ座標軸の傾き(ω,φ,κ)は、既にステップS102において取得され既知である。また、3フレーム目のフレーム画像のカメラの投影中心Oの座標(X02,Y02,Z02)およびカメラ座標軸の傾き(姿勢)(ω,φ,κ)は、ステップS106において既に算出され既知である。また、内部標定要素(焦点距離、主点位置、レンズ歪係数)も既知である。また、2フレーム目のフレーム画像中における画像座標pと3フレーム目のフレーム画像中における画像座標pは、各フレーム画像から求めることができる。したがって、2フレーム目と3フレーム目において新たに現れ、抽出および追跡がされた特徴点、および再抽出された特徴点の3次元座標Pを求めることができる。これは、3順目以降の処理サイクルにおいても同じである。 Hereinafter, an example of a procedure for calculating the three-dimensional coordinates of feature points that newly appear in the second and third frames and have been extracted and tracked will be described. In this case, the left coordinate O 1 in FIG. 6 is the camera position of the second frame, and the right coordinate O 2 is the camera position of the third frame. Here, the coordinates (X 01 , Y 01 , Z 01 ) of the camera projection center O 1 and the tilts (ω 1 , φ 1 , κ 1 ) of the camera projection center O 1 of the second frame image have already been acquired in step S102. Is known. In addition, the coordinates (X 02 , Y 02 , Z 02 ) of the camera projection center O 2 and the tilt (posture) (ω 2 , φ 2 , κ 2 ) of the camera coordinate axes of the frame image of the third frame are determined in step S106. Already calculated and known. Also, the internal orientation elements (focal length, principal point position, lens distortion coefficient) are known. Further, the image coordinate p 1 in the second frame image and the image coordinate p 2 in the third frame image can be obtained from each frame image. Therefore, the feature points newly appearing in the second frame and the third frame, extracted and tracked, and the three-dimensional coordinates P of the re-extracted feature points can be obtained. This is the same in the third and subsequent processing cycles.

すなわち、4フレーム目以降における特徴点の3次元座標を算出する手順では、図6における左側の座標Оが(n−2)フレーム目のカメラ位置となり、右側の座標Оが(n−1)フレーム目のカメラ位置となる。ここで、(n−2)フレーム目のフレーム画像のカメラの投影中心Oの座標(X01,Y01,Z01)およびカメラ座標軸の傾き(ω,φ,κ)、および(n−1)フレーム目のフレーム画像のカメラの投影中心Oの座標(X02,Y02,Z02)およびカメラ座標軸の傾き(姿勢)(ω,φ,κ)は、既知である。また、内部標定要素(焦点距離、主点位置、レンズ歪係数)も既知である。また、(n−2)フレーム目のフレーム画像中における画像座標pと(n−1)フレーム目のフレーム画像中における画像座標pは、各フレーム画像から求めることができる。したがって、(n−2)フレーム目と(n−1)フレーム目における特徴点の3次元座標Pを求めることができる。 That is, 4 The procedure of calculating three-dimensional coordinates of the feature points in the frame and subsequent coordinates o 1 on the left side in FIG. 6 is a (n-2) th frame camera position, right coordinates o 2 is (n-1 ) The camera position of the frame. Here, the coordinates (X 01 , Y 01 , Z 01 ) of the camera projection center O 1 and the inclinations (ω 1 , φ 1 , κ 1 ) of the camera projection center O 1 of the frame image of the (n-2) th frame, and ( n-1) The coordinates (X 02 , Y 02 , Z 02 ) of the camera projection center O 2 of the frame image of the frame and the tilt (posture) (ω 2 , φ 2 , κ 2 ) of the camera coordinate axes are known. is there. Also, the internal orientation elements (focal length, principal point position, lens distortion coefficient) are known. Also, (n-2) and the image coordinates p 1 in the frame of the frame image (n-1) image coordinates p 2 in the frame of the frame image can be obtained from each frame image. Therefore, the three-dimensional coordinates P of the feature points in the (n-2) th frame and the (n-1) th frame can be obtained.

ステップS110の後に行われるステップS106に対応する2サイクル目の処理では、後方交会法によって4フレーム目におけるカメラの外部標定要素(位置と姿勢)を算出する。後方交会法としては、単写真標定、DLT法、相互標定があり、その何れを使用してもよい。以下、相互標定を利用して4フレーム目におけるカメラの外部標定要素(位置と姿勢)を算出する場合の例を説明する。   In the process in the second cycle corresponding to step S106 performed after step S110, the external orientation elements (position and orientation) of the camera in the fourth frame are calculated by the backward intersection method. There are single photograph orientation, DLT method, and relative orientation as the backward intersection method, any of which may be used. Hereinafter, an example in which the external orientation elements (position and orientation) of the camera in the fourth frame are calculated using the relative orientation will be described.

この場合、数8〜数11および図8に示す相互標定によって、4フレーム目におけるカメラの外部標定要素の算出が行われる。相互標定は、左右2枚の画像における6点以上の対応点によって外部標定要素を求める方法である。この際、例えば左画像が3フレーム目のフレーム画像に当たり、右画像が4フレーム目のフレーム画像に当たる。ここで、3フレーム目の外部標定要素は既知であり、複数ある特徴点の3次元座標も既知である。また、2つのフレーム画像中における特徴点の画像座標は、それぞれのフレーム画像から得ることができる。よって、未知数となる4フレーム目の外部標定要素を算出することができる。これは、3順目以降の処理サイクル(例えば、5フレーム目や6フレーム目におけるカメラの外部標定要素の算出の場合)においても同じである。   In this case, the external orientation element of the camera in the fourth frame is calculated by the mutual orientation shown in Equations 8 to 11 and FIG. The relative orientation is a method for obtaining an external orientation element by using 6 or more corresponding points in the left and right images. At this time, for example, the left image corresponds to the frame image of the third frame, and the right image corresponds to the frame image of the fourth frame. Here, the external orientation element of the third frame is known, and the three-dimensional coordinates of a plurality of feature points are also known. Further, the image coordinates of the feature points in the two frame images can be obtained from the respective frame images. Therefore, it is possible to calculate the external orientation element of the fourth frame that is an unknown number. This is the same in the third and subsequent processing cycles (for example, in the case of calculating the external orientation element of the camera in the fifth frame and the sixth frame).

例えば、4フレーム目以降におけるカメラの外部標定要素の算出を図8の相互標定により行う場合、例えば左画像が(n−1)フレーム目のフレーム画像に当たり、右画像がnフレーム目のフレーム画像に当たる。ここで、(n−1)フレーム目の外部標定要素は既知であり、複数ある特徴点の3次元座標も既知である。また、2つのフレーム画像中における特徴点の画像座標は、それぞれのフレーム画像から得ることができる。よって、未知数となるnフレーム目の外部標定要素(カメラの位置と姿勢)を算出することができる。   For example, when the external orientation element of the camera in the fourth and subsequent frames is calculated by the relative orientation shown in FIG. 8, for example, the left image corresponds to the (n-1) th frame image, and the right image corresponds to the nth frame image. . Here, the external orientation element of the (n−1) th frame is known, and the three-dimensional coordinates of a plurality of feature points are also known. Further, the image coordinates of the feature points in the two frame images can be obtained from the respective frame images. Therefore, the external orientation element (camera position and orientation) of the nth frame, which is an unknown number, can be calculated.

このように、一連の処理が繰り返し行われることで、(n+1)フレーム目、(n+2)フレーム目、(n+3)フレーム目(n:自然数)を対象とした処理により、(n+1)フレーム目および(n+2)フレーム目で撮影した画像中の特徴点の3次元座標の算出、および(n+3)フレーム目における各カメラの外部標定要素の算出が逐次行われる。また、各処理のサイクルにおけるステップS108に対応する処理において、複数のカメラ毎に設定された重みを考慮したバンドル調整が行われ、各カメラから得られた撮影対象の特徴点の統合座標における3次元座標のデータと、各カメラから得られた統合中心における外部標定要素のデータが統合される。   In this way, by repeating the series of processing, the processing for the (n + 1) th frame, the (n + 2) th frame, the (n + 3) th frame (n: natural number) is performed, and the (n + 1) th frame and ( The calculation of the three-dimensional coordinates of the feature points in the image captured at the (n + 2) th frame and the calculation of the external orientation elements of each camera at the (n + 3) th frame are sequentially performed. Further, in the processing corresponding to step S108 in each processing cycle, bundle adjustment is performed in consideration of the weight set for each of the plurality of cameras, and the three-dimensional coordinates in the integrated coordinates of the feature points of the imaging target obtained from each camera are obtained. The coordinate data and the external orientation element data at the integration center obtained from each camera are integrated.

上述した繰り返し行われる統合中心における外部標定要素の算出が行われることで、車両100の位置が刻々と算出される。つまり、図3の処理を利用して、移動する車両100の位置情報の算出を行うことができる。また、算出された位置の変化から車両100の速度を算出することができる。   The position of the vehicle 100 is calculated momentarily by calculating the external orientation element at the integration center that is repeatedly performed as described above. That is, the position information of the moving vehicle 100 can be calculated using the process of FIG. Further, the speed of the vehicle 100 can be calculated from the calculated change in position.

(優位性)
以上述べた手法によれば、精度の異なる複数の撮影手段を用いて算出した撮影対象の特徴点の3次元座標の値と各撮影手段の外部標定要素とを各撮影手段の精度を反映させた形で統合して扱うことができる。この技術を用いると、複数のカメラを用いて、車両から見える周囲の景観等の画像の3次元データ化が全周カメラを用いずに可能となる。また、全周カメラでは取得が困難な車両周囲の景観の3次元データを得ることができる。
(Superiority)
According to the method described above, the accuracy of each photographing means is reflected on the value of the three-dimensional coordinates of the feature point of the photographing object calculated using a plurality of photographing means having different precisions and the external orientation element of each photographing means. Can be integrated and handled in the form. When this technology is used, it becomes possible to make a three-dimensional data of an image of a surrounding landscape seen from a vehicle using a plurality of cameras without using an all-around camera. In addition, it is possible to obtain three-dimensional data of a landscape around the vehicle that is difficult to obtain with an all-around camera.

2.第2の実施形態
ステップS108において、カメラの撮影データ以外に由来する計測値を更に統合するデータに加えることもできる。以下、この一例を説明する。図1に示す構成では、車両100の加速度が加速度計106で計測され、傾斜が傾斜計107で計測され、位置がGPS装置108により計測される。例えば、傾斜計107の計測値は、外部標定要素の姿勢に係るデータとなる。よって傾斜計107が計測した車両100の傾斜データを数21に取り込むことができる。この際、傾斜計107およびGPS装置108の精度を考慮した重みを傾斜計107とGPS装置108に設定し、数21の該当する部分に測定値を取り込む。こうすることで、傾斜計107が計測した車両100の傾斜データを統合したデータに取り込むことができる。
2. Second Embodiment In step S108, measurement values derived from data other than camera image data can be added to data to be further integrated. Hereinafter, this example will be described. In the configuration shown in FIG. 1, the acceleration of the vehicle 100 is measured by the accelerometer 106, the inclination is measured by the inclinometer 107, and the position is measured by the GPS device 108. For example, the measurement value of the inclinometer 107 is data relating to the orientation of the external orientation element. Therefore, the inclination data of the vehicle 100 measured by the inclinometer 107 can be taken into Equation 21. At this time, weights in consideration of the accuracy of the inclinometer 107 and the GPS device 108 are set in the inclinometer 107 and the GPS device 108, and the measured values are taken into the corresponding portions of Equation 21. By doing so, the inclination data of the vehicle 100 measured by the inclinometer 107 can be taken into the integrated data.

また、GPS装置108あるいはGPS装置108と加速度計106の測定データから、車両100の位置を求め、それを数21の位置のデータの部分に取り込むことで、統合したデータに加速度計106とGPS装置108の計測値を反映させることができる。   Further, the position of the vehicle 100 is obtained from the GPS device 108 or the measurement data of the GPS device 108 and the accelerometer 106, and this is taken into the data portion of the position of Formula 21, so that the accelerometer 106 and the GPS device are integrated into the integrated data. 108 measured values can be reflected.

3.第3の実施形態
ステップS108において、レーザースキャナ109が測定した測定対象物の3次元点群位置データを取り込むこともできる。この場合、レーザースキャナ109が測定した測定対象物の3次元点群位置データとその姿勢のデータが数21に取り込まれる。この際もレーザースキャナ109に係るデータに重み付けを行い、その精度を考慮した状態で数21への取り込みを行う。
3. Third Embodiment In step S108, the three-dimensional point cloud position data of the measurement object measured by the laser scanner 109 can also be captured. In this case, the three-dimensional point cloud position data and the attitude data of the measurement object measured by the laser scanner 109 are taken into Equation 21. At this time, the data relating to the laser scanner 109 is weighted, and the data is taken into Equation 21 in consideration of the accuracy.

4.第4の実施形態
この例では、ステレオペア画像を得る手段として、異なる2つの視点から2つの動画像を撮影するステレオカメラを用いる。なお、動画撮影が可能なステレオカメラが複数あるカメラの一部のカメラのみであってもよいし、複数ある全てのカメラであってもよい。また、2つのカメラを組みとして、ステレオペア画像を得る手段を構成してもよい。この例の場合、図2に示す構成は、図2に関連して説明した機能に加えて、ステレオペア画像を対象とした処理を行なう。なお、ステレオカメラを構成する左右のカメラの相対位置と姿勢の関係は、設定値として既知であるとする。
4). Fourth Embodiment In this example, as a means for obtaining a stereo pair image, a stereo camera that captures two moving images from two different viewpoints is used. Note that only a part of the cameras having a plurality of stereo cameras capable of moving image shooting may be used, or all of the plurality of cameras may be used. In addition, a means for obtaining a stereo pair image may be configured by combining two cameras. In the case of this example, the configuration shown in FIG. 2 performs processing for a stereo pair image in addition to the functions described in relation to FIG. It is assumed that the relationship between the relative positions and postures of the left and right cameras constituting the stereo camera is known as a set value.

この例では、まずカメラからステレオペア動画像のデータを取得する。このステレオペア動画像は、右画像取得用のカメラからの動画像と、左画像取得用のカメラからの動画像とにより構成される。ここで、左右の動画像は、時系列を追って連続して撮影された複数のフレーム画像により構成されている。次いで、取得したステレオペア動画像の中の2フレーム目の左右のステレオペア画像のそれぞれから特徴点の抽出を行い、更に2フレーム目における左右のステレオ画像から抽出した特徴点の対応関係を特定する。   In this example, first, stereo pair moving image data is acquired from a camera. This stereo pair moving image is composed of a moving image from a right image acquisition camera and a moving image from a left image acquisition camera. Here, the left and right moving images are composed of a plurality of frame images taken continuously in time series. Next, feature points are extracted from the left and right stereo pair images of the second frame in the acquired stereo pair moving image, and the correspondence relationship between the feature points extracted from the left and right stereo images in the second frame is specified. .

ここで、ステレオカメラを構成する左右のカメラの位置関係と姿勢の関係は既知であるので、図6に示す原理を用い、特定した特徴点の3次元座標の算出が行われる。他の処理は、第1の実施形態の場合と同じである。   Here, since the positional relationship and the posture relationship between the left and right cameras constituting the stereo camera are known, the three-dimensional coordinates of the identified feature points are calculated using the principle shown in FIG. Other processes are the same as those in the first embodiment.

5.第5の実施形態
重み係数、つまり特定のカメラや計測装置の観測値の精度を他の機器の観測値から演算により推定することもできる。以下、その一例を説明する。ここでは、GPS装置と1台のカメラを考え、GPS装置の計測値を用いて、当該カメラの重みを推定する処理の一例を説明する。図9は、特定のカメラや計測装置の観測値の精度を他の機器の観測値から演算により推定する処理の一例を説明するフローチャートである。図9に示す処理は、図2の重み係数推定部209において実行される。図9のフローチャートを実行するためのプログラムは、画像データ処理装置200が備える適当なメモリ領域に格納され、画像データ処理装置200が備えるCPUによって読み取られて実行される。なお、図9のフローチャートを実行するためのプログラムを外部の適当な記憶媒体に格納し、そこから画像データ処理装置200に提供される形態も可能である。
5. Fifth Embodiment It is also possible to estimate the weighting coefficient, that is, the accuracy of observation values of a specific camera or measurement device, from the observation values of other devices by calculation. An example will be described below. Here, an example of processing for estimating the weight of a camera using a measurement value of the GPS device, considering a GPS device and one camera, will be described. FIG. 9 is a flowchart for explaining an example of processing for estimating the accuracy of the observation value of a specific camera or measurement apparatus from the observation value of another device. The processing shown in FIG. 9 is executed in the weighting factor estimation unit 209 in FIG. The program for executing the flowchart of FIG. 9 is stored in an appropriate memory area included in the image data processing apparatus 200, and is read and executed by the CPU included in the image data processing apparatus 200. Note that a form in which a program for executing the flowchart of FIG. 9 is stored in an appropriate external storage medium and provided to the image data processing apparatus 200 from the storage medium is also possible.

ここでは、図1のGPS装置108と景観観察用カメラ1(103)に係り、GPS装置108の計測値を利用して、景観観察用カメラ1(103)の重み係数を推定する処理の一例を説明する。また、取得する位置情報において、その精度(例えば、誤差10cmといった情報)と、当該機器に与えられる重み係数との関係は予め既知であるとする。   Here, an example of a process for estimating the weighting factor of the landscape observation camera 1 (103) using the measurement value of the GPS device 108 according to the GPS device 108 and the landscape observation camera 1 (103) of FIG. explain. In addition, in the position information to be acquired, it is assumed that the relationship between the accuracy (for example, information such as an error of 10 cm) and the weighting factor given to the device is known in advance.

図9の処理が開始されると、GPS装置108からf−nフレーム目におけるGPS装置108の位置と精度を取得する(ステップS301)。ここで、精度というのは、GPS装置から得られる計測データの精度である。GPS装置は、補足したGPS衛星の数、信号のデコード状態、衛星から受信した信号の種類等に基づき、自身が出力する位置情報の精度に係る信号を出力する機能を有している。ステップS301では、この機能を利用して、GPS装置108から取得したf−nフレーム目の位置情報の精度に係る情報を位置情報と共に取得する。なお、nは、例えばn=3〜10程度が採用される。   When the processing in FIG. 9 is started, the position and accuracy of the GPS device 108 in the fn frame are acquired from the GPS device 108 (step S301). Here, the accuracy is the accuracy of measurement data obtained from the GPS device. The GPS device has a function of outputting a signal related to the accuracy of position information output from the GPS device based on the number of supplemented GPS satellites, the signal decoding state, the type of signal received from the satellite, and the like. In step S301, using this function, information related to the accuracy of the position information of the fn frame acquired from the GPS device 108 is acquired together with the position information. Note that n is, for example, about n = 3 to 10.

次に、景観撮影用カメラ1(103)が撮影した(f−n)フレーム目からfフレーム目までの画像を取得し、これらの画像から撮影対象物の特徴点を抽出し、更に各フレームにおける特徴点の対応する点(対応点)を取得する(ステップS302)。この処理は、図3のステップS103,ステップ104で行った処理と同じである。次に、景観撮影用カメラ1(103)の仮の精度を設定(仮設定)する(ステップS303)。例えば、精度が分っているGPS装置108と同じ精度に仮設定を行う。   Next, images from the (f−n) th frame to the fth frame shot by the landscape shooting camera 1 (103) are acquired, feature points of the shooting target are extracted from these images, and further, in each frame A corresponding point (corresponding point) of the feature point is acquired (step S302). This processing is the same as the processing performed in steps S103 and 104 in FIG. Next, provisional accuracy of the landscape photographing camera 1 (103) is set (temporary setting) (step S303). For example, provisional setting is performed with the same accuracy as the GPS device 108 whose accuracy is known.

次に、ステップS302で取得した対応点に基づくfフレーム目における景観撮影用カメラ1(103)の位置Xfの算出を、カルマンフィルタを用いて行う(ステップS304)。この処理では、景観撮影用カメラ1(103)が撮影した複数のフレーム画像に写った撮影対象物の特徴点の3次元座標から、景観撮影用カメラ1(103)の外部標定要素を求める処理、すなわち図3のステップS105,S106で用いた手法により、景観撮影用カメラ1(103)の位置Xfを算出する。この際、カルマンフィルタを用いて、ステップS303で仮設定した精度を反映した景観撮影用カメラ1(103)の位置の確率分布をXfとして求める。なお、景観撮影用カメラ1(103)の姿勢に関する初期値は、他の機器の情報から得られているものとする。 Next, calculation of the position Xf 1 of the landscape photographing camera 1 (103) in the f-th frame based on the corresponding points acquired in step S302 is performed using a Kalman filter (step S304). In this process, a process for obtaining an external orientation element of the landscape photographing camera 1 (103) from the three-dimensional coordinates of the feature points of the photographing object captured in the plurality of frame images photographed by the landscape photographing camera 1 (103), That is, the position Xf 1 of the landscape photographing camera 1 (103) is calculated by the method used in steps S105 and S106 in FIG. At this time, by using a Kalman filter to determine the probability distribution of the location of the landscape photographing camera 1 that reflects the accuracy temporarily set (103) at step S303 as Xf 1. In addition, the initial value regarding the attitude | position of the landscape camera 1 (103) shall be obtained from the information of another apparatus.

なお、カルマンフィルタを用いると、計算結果はガウス分布となる。これに対して、後述するパーティクルフィルタを用いると、値の候補が複数個ある、という結果が得られる。勿論、カルマンフィルタとパーティクルフィルタはどちらを使っても、あるいは両方組み合わせて使っても良いが、線形計算できる(共線条件式により)3次元座標値に対してはカルマンフィルタを、非線形計算となるカメラの位置に対してはパーティクルフィルタを用いるのが適当である。   When the Kalman filter is used, the calculation result is a Gaussian distribution. On the other hand, when a particle filter described later is used, a result that there are a plurality of value candidates is obtained. Of course, either the Kalman filter or the particle filter may be used, or a combination of both. However, the Kalman filter can be used for 3D coordinate values that can be linearly calculated (by the collinear conditional expression), and the camera that performs nonlinear calculation can be used. It is appropriate to use a particle filter for the position.

ステップS304の後、GPS装置108の計測値からfフレーム目における位置(GPS装置108の位置)と、この位置情報の精度を取得する(ステップS305)。そして、ステップS305で取得したGPS情報に基づき、fフレーム目における景観撮影用カメラ1(103)の位置Xfを、パーティクルフィルタを用いて算出する(ステップS306)。この際、GPS装置108と景観撮影用カメラ1(103)の位置関係が既知であるので、この位置関係を勘案してXfの算出が行われる。 After step S304, the position in the f-th frame (the position of the GPS device 108) and the accuracy of this position information are acquired from the measurement value of the GPS device 108 (step S305). Then, based on the GPS information acquired in step S305, the position Xf 2 landscape photographing camera 1 (103) in the f th frame is calculated using the particle filter (step S306). At this time, since the positional relationship between the GPS device 108 and landscape photographing camera 1 (103) is known, the calculation of Xf 2 is performed in consideration of the positional relationship.

そして、XfとXfの差を評価し、その差が最小であるか否か、の判定が行われる。実際には、ステップS303〜S306処理を複数サイクル行い、XfとXfの差が小さくなるようにステップS303で仮設定した景観撮影用カメラ1(103)の仮設定精度を少しずつ変化させ、XfとXfの差が極小値であるか否か、がステップS307において判定される。ここで、XfとXfの差は、XfとXfの分布がピークを示す位置の差として求められる。 Then, the difference between Xf 1 and Xf 2 is evaluated, and it is determined whether or not the difference is minimum. In practice, step S303~S306 processing performed a plurality of cycles, by varying Xf 1 and landscape photographing camera 1 provisionally set in step S303 as the difference between Xf 2 is reduced temporary setting accuracy (103) gradually, Xf 1 and whether the difference between Xf 2 is a minimum value, but is determined in step S307. Here, the difference between Xf 1 and Xf 2, the distribution of Xf 1 and Xf 2 is calculated as the difference between the position indicating the peak.

XfとXfの差の最小値が得られた場合、その際における景観撮影用カメラ1(103)の仮設定精度が推定された適正な精度(推定精度)として取得される(ステップS308)。そして、ステップS308で取得した景観撮影用カメラ1(103)の推定精度と、ステップ305で取得したGPS情報の精度とに基づいて、景観撮影用カメラ1(103)の重み係数の推定値を算出する(ステップS309)。 When the minimum value of the difference between Xf 1 and Xf 2 is obtained, it is acquired as the appropriate accuracy (estimated accuracy) by which the temporary setting accuracy of the landscape photographing camera 1 (103) at that time is estimated (step S308). . Then, based on the estimation accuracy of the landscape shooting camera 1 (103) acquired in step S308 and the accuracy of the GPS information acquired in step 305, the estimated value of the weight coefficient of the landscape shooting camera 1 (103) is calculated. (Step S309).

すなわち、精度が定量的な値として得られれば、精度と当該機器に与えられる重み係数との関係は予め既知であるので、ステップS308で算出した推定精度に対応する重み係数を算出することができる。   In other words, if the accuracy is obtained as a quantitative value, the relationship between the accuracy and the weighting factor given to the device is known in advance, and therefore the weighting factor corresponding to the estimation accuracy calculated in step S308 can be calculated. .

そして、まだ処理すべきフレームがあるか否か、が判定され(ステップS310)、処理すべきフレームがあれば、ステップS301以下の処理が再度実行され、新たなfフレーム目を対象とした処理が行われる。また、処理すべきフレームがなく、最終フレームである場合、処理を終了する。   Then, it is determined whether or not there is still a frame to be processed (step S310). If there is a frame to be processed, the processing after step S301 is executed again, and processing for the new f-th frame is performed. Done. If there is no frame to be processed and it is the last frame, the process is terminated.

ステップS307の判定は、最小値であるか否か、を判定するのではなく、XfとXfの差が予め定めた閾値を下回ったか否か、を判定する内容であってもよい。 Determination in step S307 is whether or not the minimum value, instead of determining whether or not below the threshold the difference between Xf 1 and Xf 2 is predetermined, may be a content determining.

ここでは、GPSを用いてカメラの重みを推定する例を説明したが、位置情報を得ることができ、更にその精度が分る機器であれば、GPS以外の機器を用いることもできる。このような機器としては、タイヤの回転から位置情報を追尾するオドメータや車両の通過時に位置情報を車両に与えるマーカーを検出する位置検出装置等を挙げることができる。   Here, an example in which the weight of the camera is estimated using GPS has been described. However, any device other than GPS can be used as long as the device can obtain position information and the accuracy thereof. Examples of such devices include an odometer that tracks position information from rotation of a tire, a position detection device that detects a marker that gives position information to the vehicle when the vehicle passes.

また、精度が分っている第1のカメラと精度が分っていない(あるいは撮影対象の性質により、精度が変動する)第2のカメラを対象とし、第1のカメラが撮影した動画に基づく車両の位置情報(本実施形態のGPS位置情報に該当)を基準とし、第2のカメラの精度を推定する手法も可能である。   In addition, the first camera whose accuracy is known and the second camera whose accuracy is unknown (or the accuracy varies depending on the nature of the subject to be photographed) are based on a moving image photographed by the first camera. A method of estimating the accuracy of the second camera on the basis of vehicle position information (corresponding to the GPS position information of the present embodiment) is also possible.

(その他)
外部から与えられる情報に基づいてカメラの位置(車両100の位置)を特定する手段として、GPS以外に(あるいはGPSに加えて)道路沿いや路面に設けられた光ビーコンや電波ビーコンの情報から位置情報を得る手段を利用することもできる。
(Other)
As a means for specifying the position of the camera (the position of the vehicle 100) based on information given from the outside, the position is determined from information on optical beacons and radio wave beacons provided along roads and on road surfaces other than GPS (or in addition to GPS) Means for obtaining information can also be used.

実施形態では、移動体として道路上を走る車両を一例として挙げたが、移動する場所は道路に限定されない。例えば、工事用車両や道路でない場所を走行する車両に本発明を適用することができる。また、移動体は、車両に限定されず、船舶、航空機、移動可能なロボット等であってもよい。   In the embodiment, a vehicle running on a road is exemplified as a moving body, but the moving place is not limited to a road. For example, the present invention can be applied to a construction vehicle or a vehicle that travels on a place other than a road. The moving body is not limited to a vehicle, and may be a ship, an aircraft, a movable robot, or the like.

本発明は、複数のカメラから得た画像データを統合的に取り扱う技術に利用することができる。   The present invention can be used in a technique for integrally processing image data obtained from a plurality of cameras.

Claims (8)

複数のカメラからの画像データを受け付ける画像データ受け付け部と、
前記複数のカメラのそれぞれから得られるステレオペア画像に基づき、撮影対象の特徴点の3次元座標を算出する特徴点算出部と
前記複数のカメラの位置および姿勢を算出する位置姿勢算出部と、
前記複数のカメラ毎に算出された前記特徴点の3次元座標および前記位置算出部において算出された前記複数のカメラそれぞれの位置および姿勢を特定の統合座標上に座標変換する座標変換部と、
前記複数のカメラそれぞれの精度を反映した重みを前記複数のカメラのそれぞれに設定する重み設定部と、
前記重みを反映させた状態で、前記座標変換された前記複数のカメラそれぞれに対応する前記特徴点のデータ、前記複数のカメラそれぞれの位置のデータおよび前記複数のカメラそれぞれの姿勢のデータの少なくとも一つの平均値を算出することで、データの統合を行うデータ統合部と
を備えることを特徴とする画像データ処理装置。
An image data receiving unit for receiving image data from a plurality of cameras;
Based on stereo pair images obtained from each of the plurality of cameras, a feature point calculation unit that calculates three-dimensional coordinates of feature points to be imaged, a position and orientation calculation unit that calculates the positions and orientations of the plurality of cameras,
A coordinate conversion unit that converts the three-dimensional coordinates of the feature points calculated for each of the plurality of cameras and the positions and orientations of the plurality of cameras calculated by the position calculation unit onto specific integrated coordinates;
A weight setting unit that sets a weight reflecting the accuracy of each of the plurality of cameras to each of the plurality of cameras;
At least one of the feature point data corresponding to each of the plurality of coordinate-converted cameras, the position data of each of the plurality of cameras, and the attitude data of each of the plurality of cameras in a state of reflecting the weight. An image data processing apparatus comprising: a data integration unit that integrates data by calculating one average value.
前記データ統合部は、カメラ以外の計測装置から得られた前記複数のカメラが配置された土台となる部分の位置および姿勢の少なくとも一方のデータの統合も行うことを特徴とする請求項1に記載の画像データ処理装置。   The data integration unit also performs integration of at least one of position and orientation data of a base portion on which the plurality of cameras obtained from a measurement device other than the camera are arranged. Image data processing apparatus. 前記複数のカメラが車両に搭載されていることを特徴とする請求項1または2に記載の画像データ処理装置。   The image data processing apparatus according to claim 1, wherein the plurality of cameras are mounted on a vehicle. 前記画像データ受け付け部が受け付けた画像データに基づき、前記車両の位置および前記車両の速度の少なくとも一方の算出が行われることを特徴とする請求項3に記載の画像データ処理装置。   The image data processing apparatus according to claim 3, wherein at least one of the position of the vehicle and the speed of the vehicle is calculated based on the image data received by the image data receiving unit. 前記データの統合において、
前記複数のカメラが撮影した動画を構成するフレーム画像上における前記特徴点に対する線形化された共線条件式を立てるステップと、
前記線形化された共線条件式に各カメラに設定された前記重みを付けるステップと、
前記重みが付けられた前記共線条件式から前記平均値の算出を行うステップと
が行われることを特徴とする請求項1〜4のいずれか一項に記載の画像データ処理装置。
In the integration of the data,
Establishing a linearized collinear conditional expression for the feature points on a frame image constituting a moving image captured by the plurality of cameras;
Attaching the weight set to each camera to the linearized collinear conditional expression;
The image data processing apparatus according to claim 1, wherein the step of calculating the average value from the weighted collinear conditional expression is performed.
前記複数のカメラの中の特定のカメラの重みを推定する重み推定部を更に備え、
前記重み推定部は、
前記特定のカメラに仮の精度を与えるステップと、
前記特定のカメラが撮影した画像に基づいて、前記仮の精度を反映した前記特定のカメラの位置の算出値の分布を第1の分布として求めるステップと、
計測精度が判明している位置計測手段に基づく、当該判明している計測精度を反映した前記特定のカメラの位置の算出値の分布を第2の分布として求めるステップと、
前記第1の分布と前記第2の分布の差が特定の条件を満たす場合の前記仮の精度に基づき、前記特定のカメラの重みを推定するステップと
を実行することを特徴とする請求項1〜5のいずれか一項に記載の画像データ処理装置。
A weight estimation unit for estimating a weight of a specific camera among the plurality of cameras;
The weight estimation unit includes:
Providing provisional accuracy to the particular camera;
Obtaining a distribution of calculated values of the position of the specific camera reflecting the provisional accuracy as a first distribution based on an image captured by the specific camera;
Obtaining a distribution of calculated values of the position of the specific camera reflecting the known measurement accuracy as a second distribution based on the position measurement means whose measurement accuracy is known;
The step of estimating the weight of the specific camera based on the provisional accuracy when a difference between the first distribution and the second distribution satisfies a specific condition is performed. The image data processing device according to any one of?
複数のカメラからの画像データを受け付ける画像データ受け付けステップと、前記複数のカメラのそれぞれから得られるステレオペア画像に基づき、撮影対象の特徴点の3次元座標を算出する特徴点算出ステップと
前記複数のカメラの位置および姿勢を算出する位置姿勢算出ステップと、
前記複数のカメラ毎に算出された前記特徴点の3次元座標および前記位置算出部において算出された前記複数のカメラそれぞれの位置および姿勢を特定の統合座標上に座標変換する座標変換ステップと、
前記複数のカメラそれぞれの精度を反映した重みを設定する重み設定ステップと、
前記重みを反映させた状態で、前記座標変換された前記複数のカメラそれぞれに対応する前記特徴点のデータ、前記複数のカメラそれぞれの位置のデータおよび前記複数のカメラの姿勢のデータの少なくとも一つの平均値を算出することで、データの統合を行うデータ統合ステップと
を備えることを特徴とする画像データ処理方法。
An image data receiving step for receiving image data from a plurality of cameras; a feature point calculating step for calculating three-dimensional coordinates of feature points to be imaged based on stereo pair images obtained from each of the plurality of cameras; A position and orientation calculation step for calculating the position and orientation of the camera;
A coordinate conversion step of coordinate-converting the three-dimensional coordinates of the feature points calculated for each of the plurality of cameras and the positions and orientations of the plurality of cameras calculated by the position calculation unit onto specific integrated coordinates;
A weight setting step for setting a weight reflecting the accuracy of each of the plurality of cameras;
With the weights reflected, at least one of the feature point data corresponding to each of the plurality of coordinate-converted cameras, the position data of each of the plurality of cameras, and the attitude data of the plurality of cameras. An image data processing method comprising: a data integration step of integrating data by calculating an average value.
コンピュータに読み取らせて実行させるプログラムであって、
コンピュータを
複数のカメラからの画像データを受け付ける画像データ受け付け部と、
前記複数のカメラのそれぞれから得られるステレオペア画像に基づき、撮影対象の特徴点の3次元座標を算出する特徴点算出部と、
前記複数のカメラの位置および姿勢を算出する位置姿勢算出部と、
前記複数のカメラ毎に算出された前記特徴点の3次元座標および前記位置算出部において算出された前記複数のカメラそれぞれの位置および姿勢を特定の統合座標上に座標変換する座標変換部と、
前記複数のカメラそれぞれの精度を反映した重みを設定する重み設定部と、
前記重みを反映させた状態で、前記座標変換された前記複数のカメラそれぞれに対応する前記特徴点のデータ、前記複数のカメラそれぞれの位置のデータおよび前記複数のカメラの姿勢のデータの少なくとも一つの平均値を算出することで、データの統合を行うデータ統合部と
して動作させることを特徴とするが画像データ処理用のプログラム。
A program that is read and executed by a computer,
An image data receiving unit for receiving image data from a plurality of cameras;
A feature point calculation unit that calculates three-dimensional coordinates of a feature point to be imaged based on a stereo pair image obtained from each of the plurality of cameras;
A position and orientation calculation unit for calculating the positions and orientations of the plurality of cameras;
A coordinate conversion unit that converts the three-dimensional coordinates of the feature points calculated for each of the plurality of cameras and the positions and orientations of the plurality of cameras calculated by the position calculation unit onto specific integrated coordinates;
A weight setting unit that sets weights reflecting the accuracy of each of the plurality of cameras;
With the weights reflected, at least one of the feature point data corresponding to each of the plurality of coordinate-converted cameras, the position data of each of the plurality of cameras, and the attitude data of the plurality of cameras. A program for processing image data, wherein the program is operated as a data integration unit that integrates data by calculating an average value.
JP2012053645A 2012-03-09 2012-03-09 Image data processing apparatus, image data processing method, and image data processing program Active JP5992184B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012053645A JP5992184B2 (en) 2012-03-09 2012-03-09 Image data processing apparatus, image data processing method, and image data processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012053645A JP5992184B2 (en) 2012-03-09 2012-03-09 Image data processing apparatus, image data processing method, and image data processing program

Publications (2)

Publication Number Publication Date
JP2013187862A true JP2013187862A (en) 2013-09-19
JP5992184B2 JP5992184B2 (en) 2016-09-14

Family

ID=49388906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012053645A Active JP5992184B2 (en) 2012-03-09 2012-03-09 Image data processing apparatus, image data processing method, and image data processing program

Country Status (1)

Country Link
JP (1) JP5992184B2 (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150081975A (en) * 2014-01-07 2015-07-15 한국전자통신연구원 Apparatus for pose estimation of wearable display device using hybrid sensors
WO2015125298A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125297A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125299A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125300A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125301A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125296A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2016020970A1 (en) * 2014-08-04 2016-02-11 日産自動車株式会社 Position self-calculation device and position self-calculation method
JP2016070676A (en) * 2014-09-26 2016-05-09 株式会社トプコン Calculation device, calculation method, and program
JP2016151414A (en) * 2015-02-16 2016-08-22 国立研究開発法人防災科学技術研究所 Analysis system for land surface change
JP6029794B1 (en) * 2015-09-09 2016-11-24 三菱電機株式会社 Navigation equipment and surveying system
JP2017005288A (en) * 2015-06-04 2017-01-05 株式会社クリプトン Image synthesizing device and image synthesizing method
JP2017036980A (en) * 2015-08-10 2017-02-16 日産自動車株式会社 Vehicle position estimation device and vehicle position estimation method
WO2017168472A1 (en) * 2016-03-30 2017-10-05 パナソニックIpマネジメント株式会社 Position estimation device, position estimation method, and control program
WO2019026438A1 (en) * 2017-08-03 2019-02-07 株式会社小糸製作所 Vehicular lighting system, vehicle system, and vehicle
WO2019082669A1 (en) * 2017-10-24 2019-05-02 ソニー株式会社 Information processing device, information processing method, program, and movable body
JP2019132664A (en) * 2018-01-30 2019-08-08 株式会社豊田中央研究所 Vehicle position estimating device, vehicle position estimating method, and vehicle position estimating program
JP2019165506A (en) * 2015-12-07 2019-09-26 グーグル エルエルシー Systems and methods for multiscopic noise reduction and high-dynamic range
WO2020070856A1 (en) * 2018-10-04 2020-04-09 三菱電機株式会社 Coordinate value integration device, coordinate value integration system, coordinate value integration method, and coordinate value integration program
WO2020070857A1 (en) * 2018-10-04 2020-04-09 三菱電機株式会社 Coordinate value integration device, coordinate value integration system, coordinate value integration method, and coordinate value integration program
CN112561999A (en) * 2020-12-21 2021-03-26 惠州市德赛西威汽车电子股份有限公司 Frame pasting equipment and accurate pasting method thereof
CN112949375A (en) * 2019-12-11 2021-06-11 株式会社东芝 Computing system, computing method, and storage medium
JP2021183990A (en) * 2018-11-30 2021-12-02 カシオ計算機株式会社 Position information acquisition system, position information acquisition device, position information acquisition method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6511406B2 (en) * 2016-02-10 2019-05-15 クラリオン株式会社 Calibration system, calibration device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006090957A (en) * 2004-09-27 2006-04-06 Nissan Motor Co Ltd Surrounding object detecting device for moving body, and surrounding object detection method for moving body
JP2010273091A (en) * 2009-05-21 2010-12-02 Nippon Telegr & Teleph Corp <Ntt> Broad band multi-view-point camera calibration method, broad band multi-view-point camera calibration device, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006090957A (en) * 2004-09-27 2006-04-06 Nissan Motor Co Ltd Surrounding object detecting device for moving body, and surrounding object detection method for moving body
JP2010273091A (en) * 2009-05-21 2010-12-02 Nippon Telegr & Teleph Corp <Ntt> Broad band multi-view-point camera calibration method, broad band multi-view-point camera calibration device, and program

Cited By (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102207838B1 (en) * 2014-01-07 2021-01-26 한국전자통신연구원 Apparatus for pose estimation of wearable display device using hybrid sensors
KR20150081975A (en) * 2014-01-07 2015-07-15 한국전자통신연구원 Apparatus for pose estimation of wearable display device using hybrid sensors
JPWO2015125300A1 (en) * 2014-02-24 2017-03-30 日産自動車株式会社 Self-position calculation device and self-position calculation method
WO2015125296A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
US10043080B2 (en) 2014-02-24 2018-08-07 Nissan Motor Co., Ltd. Self-position calculating apparatus and self-position calculating method
WO2015125301A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
US10026196B2 (en) 2014-02-24 2018-07-17 Nissan Motor Co., Ltd. Apparatuses and methods for self-position calculation of a vehicle using a light projector and a camera
US9778029B2 (en) 2014-02-24 2017-10-03 Nissan Motor Co., Ltd. Self-position calculating apparatus and self-position calculating method
US9772627B2 (en) 2014-02-24 2017-09-26 Nissan Motor Co., Ltd. Self-position calculating apparatus and self-position calculating method
CN106030680B (en) * 2014-02-24 2017-09-19 日产自动车株式会社 Self-position computing device and self-position computational methods
CN105981086A (en) * 2014-02-24 2016-09-28 日产自动车株式会社 Local location computation device and local location computation method
CN105993042A (en) * 2014-02-24 2016-10-05 日产自动车株式会社 Local location computation device and local location computation method
CN106030680A (en) * 2014-02-24 2016-10-12 日产自动车株式会社 Local location computation device and local location computation method
JPWO2015125298A1 (en) * 2014-02-24 2017-03-30 日産自動車株式会社 Self-position calculation device and self-position calculation method
WO2015125297A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125298A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125300A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125299A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
CN106030681A (en) * 2014-02-24 2016-10-12 日产自动车株式会社 Local location computation device and local location computation method
JPWO2015125296A1 (en) * 2014-02-24 2017-03-30 日産自動車株式会社 Self-position calculation device and self-position calculation method
JPWO2015125297A1 (en) * 2014-02-24 2017-03-30 日産自動車株式会社 Self-position calculation device and self-position calculation method
CN105993042B (en) * 2014-02-24 2017-10-20 日产自动车株式会社 Self-position computing device and self-position computational methods
JPWO2015125301A1 (en) * 2014-02-24 2017-03-30 日産自動車株式会社 Self-position calculation device and self-position calculation method
CN106030681B (en) * 2014-02-24 2017-09-05 日产自动车株式会社 Self-position computing device and self-position computational methods
US9684837B2 (en) 2014-02-24 2017-06-20 Nissan Motor Co., Ltd. Self-location calculating device and self-location calculating method
US9721170B2 (en) 2014-02-24 2017-08-01 Nissan Motor Co., Ltd. Self-location calculating device and self-location calculating method
JPWO2016020970A1 (en) * 2014-08-04 2017-05-25 日産自動車株式会社 Self-position calculation device and self-position calculation method
WO2016020970A1 (en) * 2014-08-04 2016-02-11 日産自動車株式会社 Position self-calculation device and position self-calculation method
US9933252B2 (en) 2014-08-04 2018-04-03 Nissan Motor Co., Ltd. Self-position calculating apparatus and self-position calculating method
JP2016070676A (en) * 2014-09-26 2016-05-09 株式会社トプコン Calculation device, calculation method, and program
JP2016151414A (en) * 2015-02-16 2016-08-22 国立研究開発法人防災科学技術研究所 Analysis system for land surface change
JP2017005288A (en) * 2015-06-04 2017-01-05 株式会社クリプトン Image synthesizing device and image synthesizing method
JP2017036980A (en) * 2015-08-10 2017-02-16 日産自動車株式会社 Vehicle position estimation device and vehicle position estimation method
WO2017042907A1 (en) * 2015-09-09 2017-03-16 三菱電機株式会社 Navigation device and survey system
US10222210B2 (en) 2015-09-09 2019-03-05 Mitsubishi Electric Corporation Navigation system and survey system
JP6029794B1 (en) * 2015-09-09 2016-11-24 三菱電機株式会社 Navigation equipment and surveying system
JP2019165506A (en) * 2015-12-07 2019-09-26 グーグル エルエルシー Systems and methods for multiscopic noise reduction and high-dynamic range
JPWO2017168472A1 (en) * 2016-03-30 2018-04-05 パナソニックIpマネジメント株式会社 POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, AND CONTROL PROGRAM
WO2017168472A1 (en) * 2016-03-30 2017-10-05 パナソニックIpマネジメント株式会社 Position estimation device, position estimation method, and control program
US10402998B2 (en) 2016-03-30 2019-09-03 Panasonic Intellectual Property Management Co., Ltd. Position estimation apparatus and position estimation method
JPWO2019026438A1 (en) * 2017-08-03 2020-06-11 株式会社小糸製作所 Vehicle lighting system, vehicle system and vehicle
WO2019026438A1 (en) * 2017-08-03 2019-02-07 株式会社小糸製作所 Vehicular lighting system, vehicle system, and vehicle
JP7222892B2 (en) 2017-08-03 2023-02-15 株式会社小糸製作所 Vehicle lighting system, vehicle system and vehicle
WO2019082669A1 (en) * 2017-10-24 2019-05-02 ソニー株式会社 Information processing device, information processing method, program, and movable body
US11100675B2 (en) 2017-10-24 2021-08-24 Sony Corporation Information processing apparatus, information processing method, program, and moving body
JPWO2019082669A1 (en) * 2017-10-24 2020-12-10 ソニー株式会社 Information processing equipment, information processing methods, programs, and mobiles
JP7143857B2 (en) 2017-10-24 2022-09-29 ソニーグループ株式会社 Information processing device, information processing method, program, and mobile object
JP2019132664A (en) * 2018-01-30 2019-08-08 株式会社豊田中央研究所 Vehicle position estimating device, vehicle position estimating method, and vehicle position estimating program
JP7036400B2 (en) 2018-01-30 2022-03-15 株式会社豊田中央研究所 Vehicle position estimation device, vehicle position estimation method, and vehicle position estimation program
WO2020070857A1 (en) * 2018-10-04 2020-04-09 三菱電機株式会社 Coordinate value integration device, coordinate value integration system, coordinate value integration method, and coordinate value integration program
WO2020070856A1 (en) * 2018-10-04 2020-04-09 三菱電機株式会社 Coordinate value integration device, coordinate value integration system, coordinate value integration method, and coordinate value integration program
JP2021183990A (en) * 2018-11-30 2021-12-02 カシオ計算機株式会社 Position information acquisition system, position information acquisition device, position information acquisition method, and program
JP7396336B2 (en) 2018-11-30 2023-12-12 カシオ計算機株式会社 Location information acquisition device, location information acquisition method, and program
JP2021093037A (en) * 2019-12-11 2021-06-17 株式会社東芝 Calculation system, calculation method, program, and storage medium
CN112949375A (en) * 2019-12-11 2021-06-11 株式会社东芝 Computing system, computing method, and storage medium
CN112949375B (en) * 2019-12-11 2024-09-24 株式会社东芝 Computing system, computing method, and storage medium
JP7516037B2 (en) 2019-12-11 2024-07-16 株式会社東芝 CALCULATION SYSTEM, CALCULATION METHOD, PROGRAM, AND STORAGE MEDIUM
CN112561999A (en) * 2020-12-21 2021-03-26 惠州市德赛西威汽车电子股份有限公司 Frame pasting equipment and accurate pasting method thereof
CN112561999B (en) * 2020-12-21 2022-08-19 惠州市德赛西威汽车电子股份有限公司 Frame pasting equipment and accurate pasting method thereof

Also Published As

Publication number Publication date
JP5992184B2 (en) 2016-09-14

Similar Documents

Publication Publication Date Title
JP5992184B2 (en) Image data processing apparatus, image data processing method, and image data processing program
CN112785702B (en) SLAM method based on tight coupling of 2D laser radar and binocular camera
CN108171733B (en) Method of registering two or more three-dimensional 3D point clouds
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
CN111156998B (en) Mobile robot positioning method based on RGB-D camera and IMU information fusion
JP6484729B2 (en) Unmanned aircraft depth image acquisition method, acquisition device, and unmanned aircraft
CN110033489B (en) Method, device and equipment for evaluating vehicle positioning accuracy
JP5027747B2 (en) POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM
JP5027746B2 (en) POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM
WO2021026850A1 (en) Qr code-based navigation attitude determining and positioning method and system
JP5393318B2 (en) Position and orientation measurement method and apparatus
WO2010001940A1 (en) Position measurement method, position measurement device, and program
CN110411476B (en) Calibration adaptation and evaluation method and system for visual inertial odometer
JP2016057108A (en) Arithmetic device, arithmetic system, arithmetic method and program
JP6782903B2 (en) Self-motion estimation system, control method and program of self-motion estimation system
CN103759670A (en) Object three-dimensional information acquisition method based on digital close range photography
CN113551665B (en) High-dynamic motion state sensing system and sensing method for motion carrier
CN113516692B (en) SLAM method and device for multi-sensor fusion
JP2012118666A (en) Three-dimensional map automatic generation device
CN115371673A (en) Binocular camera target positioning method based on Bundle Adjustment in unknown environment
CN113587934A (en) Robot, indoor positioning method and device and readable storage medium
Tu et al. Multi-camera-lidar auto-calibration by joint structure-from-motion
JP2010145219A (en) Movement estimation device and program
JP3512894B2 (en) Relative moving amount calculating apparatus and relative moving amount calculating method
KR102225321B1 (en) System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160817

R150 Certificate of patent or registration of utility model

Ref document number: 5992184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250