JP2007278844A - Image processing apparatus and its processing method - Google Patents

Image processing apparatus and its processing method Download PDF

Info

Publication number
JP2007278844A
JP2007278844A JP2006105568A JP2006105568A JP2007278844A JP 2007278844 A JP2007278844 A JP 2007278844A JP 2006105568 A JP2006105568 A JP 2006105568A JP 2006105568 A JP2006105568 A JP 2006105568A JP 2007278844 A JP2007278844 A JP 2007278844A
Authority
JP
Japan
Prior art keywords
point
residual
image
unit
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006105568A
Other languages
Japanese (ja)
Other versions
JP4874693B2 (en
Inventor
Tetsuji Anai
哲治 穴井
Nobuo Takachi
伸夫 高地
Hitoshi Otani
仁志 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2006105568A priority Critical patent/JP4874693B2/en
Publication of JP2007278844A publication Critical patent/JP2007278844A/en
Application granted granted Critical
Publication of JP4874693B2 publication Critical patent/JP4874693B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of accurately measuring the photographing location or attitude of a photographing device or coordinates of objects on the basis of time-serially changing photograph images. <P>SOLUTION: A series of photograph images are acquired by time-serial photographing. Characteristic points are extracted from the photograph images. The characteristic points are tracked and related to one another. Stereoscopic images are selected from the series of photograph images related to one anther, oriented, and three-dimensionally measured. Three-dimensional coordinates of corresponding characteristic points determined by the three-dimensional measurement are back-projected to the photograph images to compute the residual between coordinates of the corresponding characteristic points and coordinates of the back-projected corresponding characteristic points. On the basis of the computed residual, the appropriateness of the corresponding characteristic points to three-dimensional measurement is judged. Corresponding characteristic points judged as inappropriate are deleted. By performing orientation and three-dimensional measurements without the deleted corresponding characteristic points, it is possible to improve measurement accuracy. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は画像処理装置及びその処理方法に関する。詳しくは、対象物に対して撮影装置が相対的に移動する場合の動的画像を追跡して、撮影装置又は対象物の座標を測定する画像処理装置及びその処理方法に関する。   The present invention relates to an image processing apparatus and a processing method thereof. Specifically, the present invention relates to an image processing apparatus that tracks a dynamic image when an imaging apparatus moves relative to an object and measures coordinates of the imaging apparatus or the object, and a processing method thereof.

相対的な移動をしながら、対象物を連続的に撮影して、撮影装置の位置を測定する技術はあった。しかしながら、実際に自動車等の移動体に撮影装置を搭載したり、人が手に持って撮影を行うと、自動車や人の揺動のため、必ずしも安定した画像が得られるものではなく、フレーム毎に上下動、傾き等を修正する必要があり、また、撮影装置と対象物の間に例えば他の自動車、人、飛鳥、落葉等が入って、特徴点がその陰に隠れて消滅したり、再度復活したりする場合もある。また、三次元空間での動きが二次元画像上では見え難い場合もある。したがって、このような撮影装置の揺動の処理、消失・再現する特徴点の処理と共に三次元計測に不適切な特徴点や対応点を特定し削除する処理が必要となっている。他方、静止した対象物を静止した撮影装置で撮影する場合には、高精度、自動的に対応点探索、計測を行う三次元計測技術が開示されている。(特許文献1参照)   There has been a technique for measuring the position of an imaging apparatus by continuously imaging an object while performing relative movement. However, when an imaging device is actually mounted on a moving body such as an automobile or when a person takes a picture with a hand, a stable image is not necessarily obtained due to the shaking of the automobile or person. It is necessary to correct vertical movement, tilt, etc., and other cars, people, Asuka, fallen leaves etc. enter between the imaging device and the object, and the feature points are hidden behind and disappear, It may be revived again. In addition, it may be difficult to see the movement in the three-dimensional space on the two-dimensional image. Therefore, it is necessary to perform processing for identifying and deleting feature points and corresponding points that are inappropriate for three-dimensional measurement, as well as such processing for swinging the photographing apparatus and processing for feature points that disappear and are reproduced. On the other hand, when a stationary object is imaged with a stationary imaging device, a three-dimensional measurement technique that automatically searches for and measures corresponding points with high accuracy is disclosed. (See Patent Document 1)

特開2003−264852号公報(段落0018〜0073、図1〜図11等)JP 2003-264852 A (paragraphs 0018 to 0073, FIGS. 1 to 11 etc.)

動画像から撮影装置または対象物の三次元座標を測定するには、2枚以上の各動画像上で相互に対応する特徴点すなわち対象物上の同一点(以下、対応特徴点という)を求め、これを追跡する必要がある。しかしながら、かかる対応特徴点を求める際に、例えば三次元的に奥行き方向に移動した場合などは、二次元的に見ると移動したように見えず、三次元空間的に奥行きに差のある2本以上の線によって画像上に交点として認識されるいわゆる、擬似特徴点、擬似基準点と称される点については、正しい誤対応除去ができないことになる。また、従来の動画像解析では、二次元的な点の移動の評価を基本としており、三次元的な点の移動について評価しているものは見出されないが、正しい誤対応除去ができないと、結果的に三次元座標の計測精度が悪くなり、信頼性が低下する。   In order to measure the three-dimensional coordinates of a photographing apparatus or an object from a moving image, feature points corresponding to each other on two or more moving images, that is, the same point on the object (hereinafter referred to as a corresponding feature point) are obtained. Need to keep track of this. However, when the corresponding feature points are obtained, for example, when they move in the depth direction three-dimensionally, they do not appear to move when viewed two-dimensionally, and there are two differences in the depth in three-dimensional space. The so-called pseudo feature points and pseudo reference points that are recognized as intersections on the image by the above lines cannot be removed correctly. In addition, the conventional moving image analysis is based on the evaluation of the movement of the two-dimensional point, and what is evaluated for the movement of the three-dimensional point is not found, but if the correct miscorrespondence removal cannot be performed, As a result, the measurement accuracy of the three-dimensional coordinates deteriorates and the reliability decreases.

そこで、上記静止した対象物を静止した撮影装置で撮影する技術を、そのいずれか一方又は双方が移動する場合に発展適用させて、三次元計測に不適切な特徴点や対応点を特定し削除する処理が必要とされるような、動画像等の時系列的に変化する撮影画像の場合においても、撮影装置の撮影位置、姿勢又は対象物の座標を精度良く計測できる技術を提供することが必要とされている。   Therefore, the technology for photographing a stationary object with a stationary imaging device is developed and applied when one or both of them moves, and feature points and corresponding points inappropriate for 3D measurement are identified and deleted. It is possible to provide a technique that can accurately measure the shooting position, posture, or coordinates of an object of a shooting device even in the case of a shot image that changes in time series such as a moving image that requires processing to be performed. is needed.

本発明は、動画像等の時系列的に変化する撮影画像から、撮影装置の撮影位置、姿勢又は対象物の座標を精度良く計測できる画像処理装置及びその処理方法を提供することを目的とする。   An object of the present invention is to provide an image processing apparatus and a processing method thereof that can accurately measure the shooting position, posture, or coordinates of an object of a shooting apparatus from a shot image that changes in time series such as a moving image. .

上記課題を解決するために、請求項1に記載の画像処理装置100は、例えば図2に示すように、相対的に移動する対象物を、隣合う3以上の画像が重複部分を共有するように時系列的に撮影した一連の撮影画像を取得する撮影画像取得部2と、時系列的に撮影されたいずれかの撮影画像から特徴点を抽出する特徴抽出部3と、一連の撮影画像について特徴点を追跡し、特徴点を相互に対応付ける特徴点追跡部4と、一連の撮影画像から対をなす画像であるステレオ画像を選択するステレオ画像選択部6と、ステレオ画像選択部6で選択されたステレオ画像の相互に対応付けられた特徴点(対象物上の同一点を表す)である対応特徴点を用いて、標定および三次元計測を行なう標定処理・三次元計測部7と、ステレオ画像から三次元計測により求められた対応特徴点の三次元座標を撮影画像に逆投影する逆投影部81と、撮影画像について、対応特徴点の座標と逆投影された対応特徴点の座標との残差を算出する残差算出部82と、残差算出部82で算出された残差に基づいて、対応特徴点の三次元計測への適否を判定する対応点適否判定部83と、対応点適否判定部83で不適切と判定された対応特徴点を削除する誤対応点削除部84とを備え、標定処理・三次元計測部7は、対応特徴点から誤対応点削除部84により削除された対応特徴点を除いて、再度標定および三次元計測を行なう。 In order to solve the above problems, the image processing apparatus 100 according to claim 1, for example, as shown in FIG. 2, an object relatively moving, three or more images mutually Ri next to an overlapping area In this way, a captured image acquisition unit 2 that acquires a series of captured images captured in time series, a feature extraction unit 3 that extracts a feature point from any captured image captured in time series, and a series of captured images The feature point tracking unit 4 that tracks feature points and associates the feature points with each other, the stereo image selection unit 6 that selects a stereo image that is a pair of images from a series of captured images, and the stereo image selection unit 6 select An orientation processing / three-dimensional measurement unit 7 for performing orientation and three-dimensional measurement using corresponding feature points (representing the same point on the object) associated with each other of the stereo images thus obtained, and stereo From image to 3D measurement A back projection unit 81 that back-projects the obtained three-dimensional coordinates of the corresponding feature point onto the photographed image, and, for the photographed image, calculates a residual between the coordinates of the corresponding feature point and the back-projected corresponding feature point The residual calculation unit 82, the corresponding point suitability determination unit 83 that determines whether the corresponding feature point is suitable for three-dimensional measurement based on the residual calculated by the residual calculation unit 82, and the corresponding point suitability determination unit 83 A miscorresponding point deletion unit 84 that deletes the corresponding feature point determined to be inappropriate, and the orientation processing / three-dimensional measurement unit 7 determines the corresponding feature point deleted by the miscorresponding point deletion unit 84 from the corresponding feature point. Except for this, orientation and three-dimensional measurement are performed again.

ここにおいて、相対的に移動する対象物とは、典型的には対象物又は撮影装置のいずれか一方が移動し他方が静止した状態で撮影されるが、両者が共に移動する状態で撮影されても良い。すなわち、両者が相対的に移動する状態で撮影されれば良い。隣り合う3以上の画像が重複部分を共有することにより、特徴点の追跡が可能になる。重複し合う画像数は多い程、計測座標精度を向上できるので望ましいが、例えば10以上が好ましく、50以上であれば更に好ましい。時系列的に撮影した一連の撮影画像とは、時間の経過に伴って順次取得された撮影画像であり、ビデオカメラで連続的に撮影された動画像のフレームから抽出された画像でも良く、単体カメラで適当な時間間隔で順次撮影された画像でも良い。また、動画像のフレームのうち全てのフレームから取得しても良く、数フレーム置きに取得しても良い。また、特徴点の追跡は、第1の画像の特徴点に対して第2の画像の対応する対応点を探索し、相互に対応付けられると次に第2の画像の対応点を新たな特徴点として第3の画像の対応する対応点を探索し、特徴点を順次対応付け、追跡していく。ここでは一連の撮影画像において相互に対応付けられた特徴点を対応特徴点と称する。また、特徴点は時間の経過と共に新規発生、消滅、再現するものであり、このため一連の撮影画像中、相互に対応付けられた特徴点は少なくとも3以上の撮影画像にあれば良い。また、ステレオ画像の選択は、一連の撮影画像について対応特徴点を反映して位置、倍率、傾きを補正した補正画像から選択するのが好ましいが、取得された原画像から選択しても標定処理及び三次元計測で相互に対応付けられるので、それでも良い。また、標定とは撮影装置の撮影位置と傾き算定する処理であり、三次元計測とは各特徴点の三次元座標を算定する処理である。また、逆投影される撮影画像は必ずしもステレオ画像として選択された画像でなくても良い。また、対応特徴点の三次元計測への適否とは、三次元座標計測の精度を劣化させるような特徴点(したがって標定にも悪影響を及ぼすような特徴点でもある)である誤対応点を不適切として除く意図で判定される。なお、誤対応点には、本来対応していないのに誤って対応付けされた特徴点の他に、撮影対象物と異なる動きをする物に付された特徴点、擬似特徴点、擬似基準点等も含まれる。   Here, the relatively moving object is typically shot with either the object or the imaging device moving and the other stationary, but is shot with both moving together. Also good. That is, the image may be taken in a state in which both move relatively. It is possible to track feature points by sharing an overlapping portion between three or more adjacent images. The larger the number of overlapping images, the better because the measurement coordinate accuracy can be improved. For example, 10 or more is preferable, and 50 or more is more preferable. A series of captured images taken in time series is captured images that are sequentially acquired over time, and may be images extracted from frames of moving images continuously captured by a video camera. It may be an image taken sequentially at an appropriate time interval by a camera. Further, it may be acquired from all the frames of the moving image or may be acquired every several frames. Also, the tracking of feature points is performed by searching corresponding points corresponding to the second image with respect to the feature points of the first image. Corresponding corresponding points in the third image are searched as points, and feature points are sequentially associated and tracked. Here, feature points associated with each other in a series of captured images are referred to as corresponding feature points. Also, feature points are newly generated, disappeared, and reproduced with the passage of time. Therefore, in a series of photographed images, the feature points associated with each other may be in at least three or more photographed images. In addition, it is preferable to select a stereo image from a corrected image obtained by correcting the position, magnification, and inclination of a series of captured images by reflecting corresponding feature points. In addition, since they are associated with each other by three-dimensional measurement, that is also acceptable. The orientation is a process for calculating the photographing position and inclination of the photographing apparatus, and the three-dimensional measurement is a process for calculating the three-dimensional coordinates of each feature point. Moreover, the captured image to be back-projected does not necessarily have to be an image selected as a stereo image. In addition, the suitability of the corresponding feature point for 3D measurement does not mean that a miscorresponding point that is a feature point that degrades the accuracy of 3D coordinate measurement (and therefore also a feature point that adversely affects the orientation). Determined with the intention of excluding it as appropriate. It should be noted that, in addition to feature points that are not originally associated but incorrectly associated with miscorresponding points, feature points, pseudo feature points, and pseudo reference points attached to objects that move differently from the object being imaged Etc. are also included.

このように構成すると、三次元計測に不適切な特徴点や対応点を特定し削除する処理が必要とされるような動画像等の時系列的に変化する撮影画像の場合においても、不適切な特徴点や対応点を除去して三次元計測ができるので、動画像等の時系列的に変化する撮影画像から、撮影装置の撮影位置、姿勢又は対象物の座標を精度良く計測できる画像処理装置を提供できる。   With this configuration, even in the case of captured images that change over time such as moving images that require processing to identify and delete feature points and corresponding points that are inappropriate for 3D measurement, they are inappropriate. Image processing that can accurately measure the shooting position, orientation, or coordinates of an object from a shooting image that changes in time series, such as a moving image. Equipment can be provided.

また、請求項2に記載の発明は、請求項1に記載の画像処理装置において、標定処理・三次元計測部7は、ステレオ画像選択部6で選択されたステレオ画像として、基線長がほぼ等しい複数のステレオ画像からの計測値を統計処理して対応特徴点の三次元座標を求める。ここにおいて、基線長とはステレオ画像を撮影した撮影装置の光軸間距離を称する。このように構成すると、統計処理を用いて、三次元座標を高精度化できる。   The invention according to claim 2 is the image processing apparatus according to claim 1, wherein the orientation processing / three-dimensional measurement unit 7 has a substantially equal base length as a stereo image selected by the stereo image selection unit 6. The measured values from a plurality of stereo images are statistically processed to obtain the three-dimensional coordinates of the corresponding feature points. Here, the baseline length refers to the distance between the optical axes of the photographing apparatus that has photographed a stereo image. If comprised in this way, a three-dimensional coordinate can be made highly accurate using a statistical process.

また、請求項3に記載の発明は、請求項1又は請求項2に記載の画像処理装置において、対応点適否判定部83は、残差算出部82で算出された残差が所定の閾値を超える場合に対応特徴点を不適切と判定する。ここにおいて、所定の閾値は例えば3σとする。このように構成すると、不適切な特徴点を所定の閾値を用いて自動的に除去できる。   According to a third aspect of the present invention, in the image processing device according to the first or second aspect, the corresponding point suitability determination unit 83 sets the residual calculated by the residual calculation unit 82 to a predetermined threshold value. If it exceeds, the corresponding feature point is determined to be inappropriate. Here, the predetermined threshold is 3σ, for example. With this configuration, inappropriate feature points can be automatically removed using a predetermined threshold.

また、請求項4に記載の発明は、請求項3に記載の画像処理装置において、所定の閾値は、対応点適否判定部83での判定回数毎に可変とする。このように構成すると、例えば判定回数を重ねるにつれて、閾値を小さくして精度を高めるなど柔軟に対処可能である。   According to a fourth aspect of the present invention, in the image processing apparatus according to the third aspect, the predetermined threshold value is variable for each number of determinations by the corresponding point suitability determination unit 83. With this configuration, for example, as the number of determinations is increased, the threshold value can be reduced to increase the accuracy.

また、請求項5に記載の発明は、請求項1又は請求項2に記載の画像処理装置において、対応点適否判定部83は、残差算出部82で算出された残差の時系列データに基づいて対応特徴点の適否を判定する。このように構成すると、誤対応点は時系列データのいずれかの時点で残差が大きく表れる可能性が高く、これら誤対応点を検出するのに有効である。   According to a fifth aspect of the present invention, in the image processing apparatus according to the first or second aspect, the corresponding point suitability determination unit 83 adds the residual time series data calculated by the residual calculation unit 82 to the time series data of the residual. Based on this, the suitability of the corresponding feature point is determined. When configured in this way, there is a high possibility that a miscorresponding point will have a large residual at any point in time-series data, which is effective in detecting these miscorresponding points.

また、請求項6に記載の発明は、請求項5に記載の画像処理装置において、対応点適否判定部83は、残差の時系列データにおいて、残差が異常に大きいデータを含む対応特徴点が見出された場合に、当該対応特徴点を不適切と判定する。
このように構成すると、残差が異常に大きいデータを含む対応特徴点は不安定であるおそれがあるので、例えばこれを削除することにより計測値の信頼度を高められる。
According to a sixth aspect of the present invention, in the image processing apparatus according to the fifth aspect, the corresponding point suitability determination unit 83 includes corresponding characteristic points including data having an abnormally large residual in the time series data of the residual. Is found, the corresponding feature point is determined to be inappropriate.
With this configuration, the corresponding feature point including data having an abnormally large residual may be unstable. For example, the reliability of the measurement value can be increased by deleting the corresponding feature point.

また、請求項7に記載の発明は、請求項5に記載の画像処理装置において、対応点適否判定部83は、残差の時系列データに基づいて、対応特徴点が移動中の点であるか否かを判定する。このように構成すると、対応特徴点が移動中の点である場合の解析に役立てられる。   According to a seventh aspect of the present invention, in the image processing apparatus according to the fifth aspect, the corresponding point suitability determining unit 83 is a point where the corresponding feature point is moving based on the time series data of the residual. It is determined whether or not. If comprised in this way, it will be useful for the analysis in case a corresponding feature point is a moving point.

また、請求項8に記載の画像処理方法は、例えば図3に示すように、相対的に移動する対象物を、隣り合う3以上の画像が重複部分を共有するように時系列的に撮影した一連の撮影画像を取得する撮影画像取得工程(S100)と、時系列的に撮影されたいずれかの撮影画像から特徴点を抽出する特徴抽出工程(S110)と、一連の撮影画像について特徴点を追跡し、特徴点を相互に対応付ける特徴点追跡工程(S120)と、一連の撮影画像からステレオ画像を選択するステレオ画像選択工程(S140)と、ステレオ画像選択工程(S140)で選択されたステレオ画像の対応特徴点を用いて、標定を行なう第1の標定工程(S150)と、第1の標定工程(S150)の標定結果を用いて三次元計測を行なう第1の三次元計測工程(S160)と、ステレオ画像から三次元計測工程(S160)で求められた対応特徴点の三次元座標を撮影画像に逆投影する逆投影工程(S170)と、撮影画像について、対応特徴点の座標と逆投影された対応特徴点の座標との残差を算出する残差算出工程(S175)と、残差算出工程(S175)で算出された残差に基づいて、対応特徴点の三次元計測への適否を判定する対応点適否判定工程(S185)と、対応点適否判定工程(S185)で不適切と判定された対応特徴点を削除する誤対応点削除工程(S190)と、対応特徴点から誤対応点削除工程(S190)で削除された対応特徴点を除いて、再度標定を行なう第2の標定工程(S150)と、第2の標定工程(S150)の標定結果を用いて三次元計測を行なう第2の三次元計測工程(S160)とを備える。   Further, in the image processing method according to claim 8, for example, as shown in FIG. 3, a relatively moving object is photographed in time series so that three or more adjacent images share an overlapping portion. A captured image acquisition step (S100) for acquiring a series of captured images, a feature extraction step (S110) for extracting feature points from any of the captured images captured in time series, and feature points for a series of captured images. A feature point tracking step (S120) for tracking and associating feature points with each other, a stereo image selection step (S140) for selecting a stereo image from a series of captured images, and a stereo image selected in the stereo image selection step (S140) The first orientation step (S150) for performing orientation using the corresponding feature points and the first three-dimensional measurement step for performing three-dimensional measurement using the orientation results of the first orientation step (S150) ( 160), a back projection step (S170) for back projecting the three-dimensional coordinates of the corresponding feature points obtained from the stereo image in the three-dimensional measurement step (S160) to the photographed image, and the coordinates of the corresponding feature points for the photographed image A residual calculation step (S175) for calculating a residual with the back-projected coordinates of the corresponding feature point, and a three-dimensional measurement of the corresponding feature point based on the residual calculated in the residual calculation step (S175). Corresponding point suitability determining step (S185) for determining the suitability of the corresponding point, an erroneous corresponding point deleting step (S190) for deleting the corresponding feature point determined to be inappropriate in the corresponding point suitability determining step (S185), and the corresponding feature point Three-dimensional measurement using the orientation results of the second orientation step (S150) and the second orientation step (S150) in which the corresponding feature points deleted in the erroneous correspondence point deletion step (S190) are removed and the orientation is performed again. The second three to do And a source measurement step (S160).

このように構成すると、三次元計測に不適切な特徴点や対応点を特定し削除する処理が必要とされるような動画像等の時系列的に変化する撮影画像の場合においても、不適切な特徴点や対応点を除去して三次元計測ができるので、動画像等の時系列的に変化する撮影画像から、撮影装置の撮影位置、姿勢又は対象物の座標を精度良く計測できる画像処理方法を提供できる。   With this configuration, even in the case of captured images that change over time such as moving images that require processing to identify and delete feature points and corresponding points that are inappropriate for 3D measurement, they are inappropriate. Image processing that can accurately measure the shooting position, orientation, or coordinates of an object from a shooting image that changes in time series, such as a moving image. Can provide a method.

また、請求項9に記載の発明は、請求項8に記載の画像処理方法をコンピュータに実行させるためのコンピュータ読み取り可能なプログラムの発明である。   The invention according to claim 9 is an invention of a computer-readable program for causing a computer to execute the image processing method according to claim 8.

本発明によれば、動画像等の時系列的に変化する撮影画像から、撮影装置の撮影位置、姿勢又は対象物の座標を精度良く計測できる画像処理装置及びその処理方法を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the image processing apparatus and its processing method which can measure the imaging | photography position, attitude | position of an imaging device, or the coordinate of a target object from the captured image which changes in time series, such as a moving image, can be provided.

以下に図面に基づき本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

[第1の実施の形態]
図1は本実施の形態における概念を説明するための図である。自動車にカメラを装着し、時間すなわち自動車の位置を少しずつ変えて対象物である市街地を撮影し、これら複数の撮影画像における追跡結果から、カメラの位置座標すなわち自動車の軌跡を求める例である。これによりカーナビゲーションに自動車の位置を連続的に表示可能になるが、GPS電波を受信できない区間で補完的に利用される意義も大きい。以下の実施の形態では、撮影画像において、誤って対応付けされた特徴点、動きのある特徴点、揺らぎの大きい特徴点等の誤対応点については、カメラの位置座標を求めるのに不適当であるため除去する。なお、第1の実施の形態では、残差算出部で算出された残差の時系列データに基づいて特徴点を不適切と判定する例を説明する。
[First Embodiment]
FIG. 1 is a diagram for explaining the concept in the present embodiment. This is an example in which a camera is attached to an automobile, time, that is, the position of the automobile is changed little by little, and an urban area as an object is photographed, and the position coordinates of the camera, that is, the locus of the automobile are obtained from the tracking results in these captured images. This makes it possible to continuously display the position of the car in the car navigation, but it is also significant to be used complementarily in a section where GPS radio waves cannot be received. In the following embodiments, in a captured image, miscorresponding points such as feature points that are incorrectly associated, feature points with movement, and feature points with large fluctuations are inappropriate for obtaining the position coordinates of the camera. Remove because there is. In the first embodiment, an example will be described in which a feature point is determined to be inappropriate based on the time series data of the residual calculated by the residual calculation unit.

図2に本実施の形態における画像処理装置100の構成例を示す。図において、1は画像処理装置100の各部を制御して、画像処理装置として機能せしめる制御部であり、具体的には、撮影画像取得部2への撮影画像取得の指示、特徴抽出部3への特徴点抽出実行の指示、特徴点追跡部4への追跡実行の指示、演算処理部5へのステレオ画像選択指示、標定・三次元計測実行指示、対応特徴点の評価・削除処理の指示等を行う。   FIG. 2 shows a configuration example of the image processing apparatus 100 in the present embodiment. In the figure, reference numeral 1 denotes a control unit that controls each unit of the image processing apparatus 100 so as to function as an image processing apparatus. Specifically, the control unit 1 instructs the captured image acquisition unit 2 to acquire a captured image and the feature extraction unit 3. Instruction for executing feature point extraction, instruction for tracking execution to the feature point tracking unit 4, stereo image selection instruction to the arithmetic processing unit 5, instruction for execution of orientation / three-dimensional measurement, instruction for evaluation / deletion processing of corresponding feature points, etc. I do.

2は動画像等の時系列的に変化する撮影画像を順次取得する撮影画像取得部であり、撮影画像の取得の他に特徴抽出部3への出力、画像メモリ10への撮影画像の保存等を行う。なお、自己の撮影装置で撮影を行なわず、他の撮影装置から通信により撮影画像を取得しても良い。3は順次取得した撮影画像から特徴点を抽出する特徴抽出部であり、撮影画像取得部2より入力された撮影画像からの特徴点の抽出、抽出された特徴点の特徴点追跡部4への出力等を行う。4は特徴抽出部3より入力された特徴点に対応する対応点(厳密には確定するまでは候補対応点というが、本実施の形態では候補対応点を含めて対応点ということとする)を探索し、特徴点の追跡を行う特徴点追跡部であり、追跡処理の他に、追跡結果の対応点情報メモリ9への出力、対応点の配置の判断と特徴抽出部3への特徴点の新設指示等を行う。特徴点追跡部4において特徴点が対応付けられた、すなわち対応特徴点が付された一連の撮影画像は、倍率、揺らぎ、傾きが補正された補正画像として、取得された原画像と共に画像メモリ10に記憶される。   Reference numeral 2 denotes a captured image acquisition unit that sequentially acquires captured images that change in time series, such as moving images. In addition to acquiring captured images, the captured image is output to the feature extraction unit 3, stored in the image memory 10, and the like. I do. Note that a captured image may be acquired by communication from another imaging device without performing imaging with the own imaging device. Reference numeral 3 denotes a feature extraction unit that extracts feature points from sequentially acquired captured images. Extraction of feature points from the captured image input from the captured image acquisition unit 2 and extraction of the extracted feature points to the feature point tracking unit 4 are performed. Perform output, etc. 4 is a corresponding point corresponding to the feature point input from the feature extraction unit 3 (strictly speaking, it is a candidate corresponding point until it is determined, but in this embodiment, it is a corresponding point including the candidate corresponding point). It is a feature point tracking unit that searches and tracks feature points. In addition to the tracking process, the tracking result is output to the corresponding point information memory 9, the arrangement of the corresponding points is determined, and the feature points to the feature extracting unit 3 are Instruct new establishment. A series of photographed images in which feature points are associated in the feature point tracking unit 4, that is, to which the corresponding feature points are attached, are corrected images with corrected magnification, fluctuation, and inclination, together with the acquired original image and the image memory 10. Is remembered.

5は演算処理部で、ステレオ画像選択部6と標定処理・三次元計測部7と対応点評価除去部8とを有する。ステレオ画像選択部6は特徴抽出部3及び特徴点追跡部4において対応特徴点が付された一連の画像からステレオ画像を選択する。標定処理・三次元計測部7はステレオ画像選択部6で選択されたステレオ画像を用いて標定計算、三次元計測を実行するもので、その他に、標定結果及び三次元計測結果の表示部11への出力、外部へ標定結果及び三次元計測結果の出力等を行う。標定計算、三次元計測を行なうためのステレオ画像は1対以上で良いが、多数のステレオ画像を用いて平均化等の統計処理を行うことにより精度を向上できる。対応点評価除去部8は三次元計測結果を用いて、誤って対応付けられた特徴点、移動や揺らぎを伴う不安定な特徴点等の誤対応点、すなわち三次元計測に不適切な特徴点や対応点を除去する。対応点評価除去部8は、ステレオ画像の三次元計測により求められた対応特徴点の三次元座標を撮影画像に逆投影する逆投影部81、撮影画像において、対応特徴点の座標と逆投影された対応特徴点の座標との残差を算出する残差算出部82、残差算出部82で算出された残差に基づいて、対応特徴点の三次元計測への適否を判定する対応点適否判定部83、対応点適否判定部83で不適切と判定された対応特徴点を削除する誤対応点削除部84とを備える。対応点評価除去部8にて不適切な対応特徴点が除去された一連の画像から、再度、ステレオ画像選択部6によりステレオ画像が選択され、再度、標定処理・三次元計測部7において、標定計算、三次元計測が実行される。   An arithmetic processing unit 5 includes a stereo image selection unit 6, an orientation processing / three-dimensional measurement unit 7, and a corresponding point evaluation removal unit 8. The stereo image selection unit 6 selects a stereo image from a series of images to which corresponding feature points are attached in the feature extraction unit 3 and the feature point tracking unit 4. The orientation processing / three-dimensional measurement unit 7 executes orientation calculation and three-dimensional measurement using the stereo image selected by the stereo image selection unit 6. To the display unit 11 of the orientation result and the three-dimensional measurement result, besides, , Output the orientation results and 3D measurement results to the outside. One or more stereo images may be used for orientation calculation and three-dimensional measurement, but accuracy can be improved by performing statistical processing such as averaging using a large number of stereo images. Corresponding point evaluation removal unit 8 uses the three-dimensional measurement result, and miscorresponding points such as feature points incorrectly associated, unstable feature points with movement and fluctuation, that is, feature points inappropriate for three-dimensional measurement And corresponding points are removed. The corresponding point evaluation removing unit 8 backprojects the three-dimensional coordinates of the corresponding feature points obtained by the three-dimensional measurement of the stereo image onto the photographed image, and is back-projected with the coordinates of the corresponding feature points in the photographed image. A residual calculation unit 82 for calculating a residual with the coordinates of the corresponding feature point, and a corresponding point determination for determining whether the corresponding feature point is suitable for three-dimensional measurement based on the residual calculated by the residual calculation unit 82 A determination unit 83; and an erroneous corresponding point deletion unit 84 that deletes the corresponding feature point determined to be inappropriate by the corresponding point suitability determination unit 83. A stereo image is selected again by the stereo image selection unit 6 from the series of images from which the inappropriate corresponding feature points have been removed by the corresponding point evaluation removing unit 8, and the orientation processing / three-dimensional measurement unit 7 again performs orientation. Calculation and three-dimensional measurement are executed.

11は演算処理部5により標定処理又は三次元計測された対象物の画像や撮影した位置の軌跡を平面的又は立体的に表示する表示部、9は特徴点とその対応点(候補対応点を含む)に関する情報を記憶する対応点情報メモリ、10は撮影画像、補正画像、その他の画像を記憶する画像メモリである。対応点情報メモリ9、画像メモリ10には、特徴点追跡時、対応点評価・除去時、ステレオ画像選択時、標定計算や三次元計測時等、必要に応じて随時参照され、また書き込みされる。   Reference numeral 11 denotes a display unit that displays an image of an object subjected to orientation processing or three-dimensional measurement by the arithmetic processing unit 5 and a locus of a captured position in a two-dimensional or three-dimensional manner, and 9 denotes a feature point and its corresponding point (candidate corresponding point Corresponding point information memory 10 for storing information relating to (including), 10 is an image memory for storing captured images, corrected images, and other images. The corresponding point information memory 9 and the image memory 10 are referred to and written whenever necessary, such as when tracking feature points, when evaluating / removing corresponding points, when selecting a stereo image, during orientation calculation, or when measuring three-dimensionally. .

図3に第1の実施の形態における画像処理方法のフロー例を示す。まず、撮影画像取得部2において、相対的に移動する対象物について、動画像等の時系列的に変化する一連の撮影画像を取得する(S100:撮影画像取得工程)。一連の撮影画像は隣り合う3以上の画像が重複部分を共有するように取得する。自己の撮影カメラで画像を撮影して取得しても良く、他の撮影装置で撮影した画像を通信回線を介して取得しても良い。制御部1は撮影画像取得部1から動画像等の時系列的に変化する撮影画像を順次特徴抽出部3に供給する。本実施の形態では自動車に撮影カメラを装着し、移動しながら撮影するので、撮影画像は時間的又は空間的に少しずつ変化する撮影画像であり、画像の大部分で対象物が共通である。特徴抽出部3では、時系列的に撮影されたいずれかの撮影画像から特徴点を抽出し(S110:特徴抽出工程)、抽出された特徴点データは特徴点追跡部4に供給され、対応点情報メモリ9に記憶される。特徴点追跡部4において、一連の撮影画像について、特徴点に対応する対応点を探索し、対応付け、特徴点の追跡が行なわれる(S120:特徴点追跡工程)。特徴点の追跡は、第1の画像の特徴点に対して第2の画像の対応する対応点を探索し、対応付けられると次に第2の画像の対応点を新たな特徴点として第3の画像の対応する対応点を探索し、対応付け、特徴点を順次追跡していく。ここでは一連の撮影画像において相互に対応付けられた特徴点を対応特徴点と称する。対応特徴点データは対応点情報メモリ9に記憶される。また、対応特徴点が付された撮影画像は、倍率、揺らぎ、傾きが補正された補正画像として、画像メモリ10に記憶される(S125)。なお、特徴抽出部3で抽出された特徴点データ及び特徴点追跡部4で対応付けられた対応特徴点データがリアルタイムに順次演算処理部5に供給されれば、移動中の移動体(自動車等)で、早期に標定処理、三次元計測を行ない、ナビゲータに反映できる可能性も高くなる。   FIG. 3 shows a flow example of the image processing method according to the first embodiment. First, the photographic image acquisition unit 2 acquires a series of photographic images that change in a time series such as a moving image for an object that moves relatively (S100: photographic image acquisition step). A series of captured images are acquired so that three or more adjacent images share an overlapping portion. The image may be obtained by taking an image with its own photographing camera, or an image taken with another photographing apparatus may be obtained via a communication line. The control unit 1 sequentially supplies a photographic image that changes in time series such as a moving image from the photographic image acquisition unit 1 to the feature extraction unit 3. In the present embodiment, since a photographing camera is attached to a car and photographing is performed while moving, the photographed image is a photographed image that changes little by little in terms of time or space, and the object is common to most of the image. The feature extraction unit 3 extracts feature points from one of the captured images taken in time series (S110: feature extraction step), and the extracted feature point data is supplied to the feature point tracking unit 4 to correspond points. It is stored in the information memory 9. The feature point tracking unit 4 searches for a corresponding point corresponding to the feature point in the series of photographed images, and associates and tracks the feature point (S120: feature point tracking step). In the tracking of the feature point, the corresponding point of the second image is searched for the feature point of the first image, and when the corresponding point is matched, the corresponding point of the second image is set as a new feature point. Corresponding points of the image are searched, and the correspondence and feature points are sequentially tracked. Here, feature points associated with each other in a series of captured images are referred to as corresponding feature points. Corresponding feature point data is stored in the corresponding point information memory 9. The captured image with the corresponding feature point is stored in the image memory 10 as a corrected image in which the magnification, fluctuation, and inclination are corrected (S125). If the feature point data extracted by the feature extraction unit 3 and the corresponding feature point data correlated by the feature point tracking unit 4 are sequentially supplied to the arithmetic processing unit 5 in real time, a moving object (such as an automobile) ), It is highly possible that the orientation process and the three-dimensional measurement are performed at an early stage and reflected in the navigator.

次に、対応特徴点が付された一連の撮影画像からステレオ画像が選択される(S140:ステレオ画像選択工程)。一連の画像は対応特徴点を反映して倍率、揺らぎ、傾きが補正された補正画像を用いるのが好ましいが、取得された原画像から選択しても次の標定処理及び三次元計測で相互に対応付けられるので、それでも良い。ここでは、補正画像を用いるものとする。   Next, a stereo image is selected from a series of photographed images to which corresponding feature points are attached (S140: stereo image selection step). It is preferable to use a corrected image in which the magnification, fluctuation, and inclination are corrected to reflect the corresponding feature points for the series of images. Since it is matched, it is still possible. Here, a corrected image is used.

図4にステレオ画像選択の例を示す。この例では取得画像から数画像離れた画像をステレオ画像として選択しており、対をなす2画像間のフレーム間隔を一定にすれば基線長がほぼ一定に保たれるので好ましい。なお、選択されるステレオ画像は1対以上で良いが、多数のステレオ画像を用いて平均化等の統計処理を行うことにより精度を向上できるので、ここでは、追跡処理した多数の撮影画像を用いてステレオ画像を選択し、統計処理を行うものとする。   FIG. 4 shows an example of stereo image selection. In this example, an image several images away from the acquired image is selected as a stereo image. If the frame interval between two images that form a pair is made constant, the baseline length can be kept substantially constant, which is preferable. One or more stereo images may be selected. However, since accuracy can be improved by performing statistical processing such as averaging using a large number of stereo images, a large number of tracked images are used here. A stereo image is selected and statistical processing is performed.

図3に戻り、ステレオ画像選択部6で選択されたステレオ画像の対応特徴点を用いて、標定処理・三次元計測部7で標定処理と三次元計測が行なわれる。標定処理では、選択されたステレオ画像について、特徴点と対応点の座標を用いて、相互標定を行い、撮影カメラの撮影位置と傾きが算定される(S150:第1の標定工程)。ステレオ画像同士の接続標定も行われる。なお、仮にステレオ画像が設定できなかった撮影画像に対しては、単写真標定を行うことにより撮影カメラの撮影位置と傾きを算出可能である。続けて、その標定結果を用いて三次元計測により各特徴点の三次元座標が算定される(S160:第1の三次元計測工程)。三次元計測は、例えば標定処理で求めた撮影カメラの位置と傾き(外部標定要素)を初期値とし、バンドル調整を行うことによって求める。これにより、三次元座標だけでなく、さらに正確な撮影カメラの位置と傾きも求まる。   Returning to FIG. 3, using the corresponding feature points of the stereo image selected by the stereo image selection unit 6, the orientation processing and the three-dimensional measurement unit 7 perform orientation processing and three-dimensional measurement. In the orientation process, relative orientation is performed on the selected stereo image using the coordinates of the feature points and the corresponding points, and the photographing position and inclination of the photographing camera are calculated (S150: first orientation step). Connection orientation between stereo images is also performed. Note that, for a captured image for which a stereo image could not be set, the shooting position and tilt of the shooting camera can be calculated by performing single photo orientation. Subsequently, the three-dimensional coordinates of each feature point are calculated by three-dimensional measurement using the orientation result (S160: first three-dimensional measurement step). The three-dimensional measurement is obtained, for example, by performing bundle adjustment using the position and inclination (external orientation element) of the photographing camera obtained by the orientation process as initial values. As a result, not only the three-dimensional coordinates but also a more accurate position and inclination of the photographing camera can be obtained.

次に、対応点評価除去部8において、三次元計測結果を用いて、誤って対応付けられた特徴点、移動や揺らぎを伴う不安定な特徴点等の誤対応点を除去する。まず、逆投影部81で、ステレオ画像について三次元計測工程で求められた対応特徴点の三次元座標を撮影画像に逆投影する(S170:逆投影工程)。逆投影は、基本的には後述する共線条件式(5)に基づいて行われる。次に、残差算出部82で、対応特徴点が付された一連の撮影画像について、対応特徴点の座標と逆投影された対応特徴点の座標との残差を算出する(S175:残差算出工程)。ここで、全体の残差が設定した閾値より小さくなっているか否かを判定する(S180)。この値が設定した閾値以下であれば、三次元座標が確定し(S195)、処理を終了する。そうでなければ、次に進み、対応点適否判定部83で、残差算出部82で算出された残差に基づいて残差評価を行なう、すなわち、対応特徴点の三次元計測への適否を判定する(S185:対応点適否判定工程)。次に、誤対応点削除部84で、対応点適否判定部83で不適切と判定された対応特徴点を削除する(S190:誤対応点削除工程)。   Next, the corresponding point evaluation removing unit 8 uses the three-dimensional measurement result to remove erroneously corresponding points such as feature points that are incorrectly associated and unstable feature points that are moved or fluctuated. First, the back projection unit 81 back projects the 3D coordinates of the corresponding feature points obtained in the 3D measurement process for the stereo image onto the captured image (S170: back projection process). Back projection is basically performed based on the collinear conditional expression (5) described later. Next, the residual calculation unit 82 calculates the residual between the coordinates of the corresponding feature points and the coordinates of the corresponding feature points back-projected with respect to the series of captured images to which the corresponding feature points are attached (S175: residual). Calculation step). Here, it is determined whether or not the overall residual is smaller than the set threshold (S180). If this value is less than or equal to the set threshold value, the three-dimensional coordinates are determined (S195), and the process ends. Otherwise, the process proceeds to the next, and the corresponding point suitability determination unit 83 performs a residual evaluation based on the residual calculated by the residual calculation unit 82, that is, whether or not the corresponding feature point is suitable for three-dimensional measurement. Determination (S185: Corresponding point suitability determination step). Next, the corresponding feature point determined to be inappropriate by the corresponding point suitability determining unit 83 is deleted by the erroneous corresponding point deleting unit 84 (S190: erroneous corresponding point deleting step).

次に、再びステレオ画像選択工程(S140)に戻り、対応特徴点から誤対応点除去部8で削除された対応特徴点を除いて、ステレオ画像選択(S140)、再度の標定が行なわれ(S150:第2の標定工程)、続けて、その標定結果を用いて再度の三次元計測が行なわれる(S160:第2の三次元計測工程)。第2の標定工程及び第2の三次元計測工程では、誤対応点、すなわち検出された不適切な対応特徴点を除いて行なわれるので、より高精度の標定がなされ、三次元座標が算出される。このループの処理(S140〜S190)を繰り返すことにより、計測精度を向上することができる。全体の残差が閾値以下になるまでループの処理を繰り返す。これにより、三次元座標が確定し(S195)、計測を終了する。
以下に、必要に応じ、各工程について説明する。
Next, the process returns to the stereo image selection step (S140) again, the corresponding feature points deleted from the corresponding feature points by the erroneous corresponding point removal unit 8 are removed, and the stereo image selection (S140) is performed again. : Second orientation step), and then, the 3D measurement is performed again using the orientation result (S160: second 3D measurement step). In the second orientation step and the second three-dimensional measurement step, since erroneous correspondence points, that is, detected inappropriate correspondence feature points are excluded, more precise orientation is performed and three-dimensional coordinates are calculated. The By repeating this loop processing (S140 to S190), the measurement accuracy can be improved. The loop process is repeated until the overall residual is below the threshold. Thereby, the three-dimensional coordinates are determined (S195), and the measurement is terminated.
Below, each process is demonstrated as needed.

[特徴点抽出]
特徴抽出部3では各撮影画像から特徴点を抽出する(S110、図5参照)。典型的には初期フレームでは全画面から抽出を行い、次のフレームからは、初期フレームと重複しない新たな画面領域から抽出が行われる。初期フレームにおける特徴点の抽出には、例えばMORAVECオペレータ(H. P. Moravec. Towards Automatic Visual Obstacle Avoidance. Proc. 5th International Joint Conference on Artificial Intelligence, pp. 584, 1977.)や、Hariss,Pressy,Susanなどのオペレータを適宜採用できる。
[Feature point extraction]
The feature extraction unit 3 extracts feature points from each captured image (S110, see FIG. 5). Typically, the initial frame is extracted from the entire screen, and the next frame is extracted from a new screen area that does not overlap the initial frame. For extracting feature points in the initial frame, for example, MORAVEC operator (HP Moravec. Towers Automatic Visual Observed Aviation, Proc. 5th International Joint Conference, Art. An operator such as can be appropriately employed.

[追跡処理]
図5に特徴点追跡の処理フロー例を示す。特徴点追跡部4では、特徴抽出処理により選点された各特徴点を追跡処理する(S120)。すなわち、特徴点に対応する候補対応点を求め、特徴点の移動ベクトル及び画面相対移動量を求め、さらに、これらを連結して移動軌跡を求める。画面相対移動量とは撮影カメラと撮影対象間の画面上での相対的移動量であり、移動ベクトルとは二次元の撮影画像上における各特徴点の相対的移動ベクトルをいう。特徴点の追跡にあたり、まず、隣接撮影画像についてテンプレートマッチングを行い(S13)、特徴点に対応する候補対応点を求める。これにより各特徴点の移動ベクトルが求められる。また、隣接撮影画像を用いて射影変換することにより(S15)、撮影カメラに対する画面相対移動量が求められる。すなわち、フレーム間の全体的な移動は、時間的に非常に短いことから、射影変換によりほぼ近似できるものとの仮定をおき、射影変換により画面相対移動量を推定する。次に、各特徴点の移動ベクトルをフレーム間の画面相対移動量と比較し、移動ベクトルの良否を判断する(S14)。そして、異常な動きを示す誤対応と思われる候補対応点を除去する(S16)。工程S15とS16を繰り返すことにより射影変換の精度が向上する。
[Tracking process]
FIG. 5 shows an example of a processing flow for feature point tracking. The feature point tracking unit 4 tracks each feature point selected by the feature extraction process (S120). That is, a candidate corresponding point corresponding to a feature point is obtained, a feature point movement vector and a screen relative movement amount are obtained, and these are connected to obtain a movement locus. The screen relative movement amount is a relative movement amount on the screen between the photographing camera and the photographing object, and the movement vector is a relative movement vector of each feature point on the two-dimensional photographed image. In tracking feature points, first, template matching is performed on adjacent captured images (S13) to obtain candidate corresponding points corresponding to the feature points. Thereby, the movement vector of each feature point is obtained. Further, by performing projective transformation using the adjacent photographed image (S15), the screen relative movement amount with respect to the photographing camera is obtained. That is, since the overall movement between frames is very short in time, it is assumed that it can be approximated by projective transformation, and the screen relative movement amount is estimated by projective transformation. Next, the movement vector of each feature point is compared with the relative movement amount of the screen between frames, and the quality of the movement vector is determined (S14). Then, candidate corresponding points that are considered to be erroneous correspondences indicating abnormal movement are removed (S16). By repeating steps S15 and S16, the accuracy of projective transformation is improved.

次に、候補対応点の配置判断を行う(S17)。すなわち、撮影画像上での特徴点、対応点の配置を確認する。もし、特徴点の配置が極端に偏ってしまって空白部分が生じた場合などには、新たに生じた空白部分に存在する点を新たな特徴点として特徴抽出部3に新設を指示する。そして、再度特徴抽出(S110)に戻り、順次新たな隣接画像について特徴抽出(S110)と追跡処理(S120)をリアルタイムに繰り返す。もし、一連の撮影画像について特徴抽出が済んでいれば、テンプレートマッチング(S13)に戻り、事後的に一括して、順次新たな隣接画像について追跡処理(S120)が行われる。   Next, the arrangement of candidate corresponding points is determined (S17). That is, the arrangement of feature points and corresponding points on the captured image is confirmed. If the arrangement of feature points is extremely biased and a blank portion is generated, the feature extraction unit 3 is instructed to newly set a point existing in the newly generated blank portion as a new feature point. Then, the process returns to the feature extraction (S110) again, and the feature extraction (S110) and the tracking process (S120) are sequentially repeated in real time for new adjacent images. If feature extraction has been completed for a series of captured images, the process returns to template matching (S13), and after that, tracking processing (S120) is sequentially performed for new adjacent images.

特徴点の追跡に、例えばテンプレートマッチングを使用する(S13)。取得された撮影画像から隣接画像を順次選択してステレオペアとし、例えばSSDA(Sequential Similarity Detection Algorithm:逐次残差)法などの手法によりステレオマッチングを行い、対応点を求める(S13)。SSDA法とは、残差を用いて類似度を決定するもので、部分的な行列の残差が最小となる位置が対応点として求められる。SSDAテンプレートマッチングは、テンプレートマッチングとしては比較的高速であり、ハード化も容易と考えられる。また、正規化相関法などの他の方式を採用することもできる。テンプレートマッチングには、テンプレートサイズと探索範囲を最適に選択することが大事であり、探索範囲については、ビデオカメラのフレームレート、移動速度などを基に最適な設定とする。   For example, template matching is used for tracking feature points (S13). Neighboring images are sequentially selected from the acquired captured images to form a stereo pair, and for example, stereo matching is performed by a technique such as an SSDA (Sequential Similarity Detection Algorithm) method to obtain corresponding points (S13). In the SSDA method, the similarity is determined using the residual, and the position where the partial matrix residual is minimum is obtained as the corresponding point. SSDA template matching is considered to be relatively fast as template matching and easy to implement in hardware. Other methods such as a normalized correlation method can also be employed. For template matching, it is important to optimally select a template size and a search range, and the search range is set optimally based on the frame rate, moving speed, etc. of the video camera.

撮影画面中に、走行中の自動車、人、飛鳥、落葉などの動くものに特徴点が付与された場合、またカメラの揺動が激しい場合などに誤対応点が生じ得る。カメラの揺動については射影変換で補正可能である。他方、撮影対象物と異なる動きをするものは誤対応点を生じさせる。したがって物体などの動きにより生じた誤対応点を除去することにより、特徴点(対応点、候補対応点を含む)の信頼性を向上し、ミスマッチングの判定の精度を向上し、ビデオカメラの大きな動揺にも対応が可能となる。   In the shooting screen, when a feature point is given to a moving object such as a running car, a person, an asuka, a fallen leaf, or when the camera shakes heavily, an erroneous response point may occur. The camera swing can be corrected by projective transformation. On the other hand, an object that moves differently from the object to be photographed causes a miscorresponding point. Therefore, by removing the miscorresponding points caused by the movement of the object etc., the reliability of the feature points (including corresponding points and candidate corresponding points) is improved, the accuracy of the mismatching determination is improved, It is possible to cope with upsets.

[相互標定処理]
次に、標定計算について説明する。
図6は相互標定を説明するための図である。モデル座標系の原点を左側の投影中心にとり、右側の投影中心を結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さにとる。このとき求めるパラメータは、左側のカメラのZ軸の回転角κ、Y軸の回転角φ、右側のカメラのZ軸の回転角κ、Y軸の回転角φ、X軸の回転角ωの5つの回転角となる。この場合左側のカメラのX軸の回転角ωは0なので、考慮する必要はない。
[Relative orientation processing]
Next, the orientation calculation will be described.
FIG. 6 is a diagram for explaining relative orientation. The origin of the model coordinate system is taken as the left projection center, and the line connecting the right projection centers is taken as the X axis. For the scale, the base line length is taken as the unit length. The parameters to be obtained at this time are the rotation angle κ 1 of the left camera, the rotation angle φ 1 of the Y axis, the rotation angle κ 2 of the right camera, the rotation angle φ 2 of the Y axis, and the rotation of the X axis. the five of the rotation angle of the corner ω 2. In this case, the X-axis rotation angle ω 1 of the left camera is 0, so there is no need to consider it.

まず、以下の共面条件式(1)により、左右カメラの位置を定めるのに必要とされるパラメータを求める。
First, parameters required to determine the positions of the left and right cameras are obtained by the following coplanar conditional expression (1).

上述の条件にすると、共面条件式(1)は式(2)のように変形され、式(2)を解けば各パラメータが求まる。
ここで、モデル座標系XYZとカメラ座標系xyzの間には、次に示すような座標変換の関係式(3)、(4)が成り立つ。
Under the above conditions, the coplanar conditional expression (1) is transformed as shown in Expression (2), and each parameter can be obtained by solving Expression (2).
Here, between the model coordinate system XYZ and the camera coordinate system xyz, the following coordinate transformation relational expressions (3) and (4) hold.

これらの式を用いて、次の手順により、未知パラメータを求める。
(i)パラメータ(κ、φ、κ、φ、ω)の初期近似値は通常0とする。
(ii)共面条件式(2)を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を式(3)、(4)により求め、観測方程式をたてる。
(iii)最小二乗法を適用して、近似値に対する補正量を求める。
(iv)近似値を補正する。
(v)補正された近似値を用いて(ii)〜(v)までの操作を収束するまで繰り返す。
収束した場合、更に接続標定を行なう。これは、各モデル間の傾き、縮尺を統一して同一座標系とする処理である。
Using these equations, unknown parameters are obtained by the following procedure.
(I) The initial approximate values of the parameters (κ 1 , φ 1 , κ 2 , φ 2 , ω 2 ) are normally 0.
(Ii) The coplanar conditional expression (2) is Taylor-expanded around the approximate value, and the value of the differential coefficient when linearized is obtained from the expressions (3) and (4), and an observation equation is established.
(Iii) Applying the least square method, a correction amount for the approximate value is obtained.
(Iv) The approximate value is corrected.
(V) The operations from (ii) to (v) are repeated using the corrected approximate value until convergence.
If it converges, connection orientation is further performed. This is a process for unifying the inclination and scale between the models to make the same coordinate system.

この処理を行なう場合、以下の式であらわされる接続較差を算出する。
ΔX=(Xjr−Xjl)/(Z−Zjl
ΔY=(Yjr−Yjl)/(Z−Zjl
ΔZ=(Zjr−Zjl)/(Z−Zjl
ΔD=√(ΔX +ΔY
(ΔXjlΔYjlΔZjl)):統一された座標系の第j番目の左モデル
(ΔXjrΔYjrΔZjr):統一された座標系の第j番目の右モデル
ΔZjおよびΔDjが0.0005(1/2000)以下なら接続標定が正常に行われたとみなされる。正常に行われなかった場合は、標定結果表示でエラーを出力しどこの画像が悪いか表示する。この場合、画像上に別の標定点があれば変更して(ii)〜(v)までの上記計算を繰り返す。だめなら標定点の配置変更を行なう。
When this processing is performed, a connection range expressed by the following equation is calculated.
ΔX j = (X jr −X jl ) / (Z 0 −Z jl )
ΔY j = (Y jr −Y jl ) / (Z 0 −Z jl )
ΔZ j = (Z jr −Z jl ) / (Z 0 −Z jl )
ΔD j = √ (ΔX j 2 + ΔY j 2 )
(ΔX jl ΔY jl ΔZ jl) ): j-th left model of unified coordinate system
(ΔX jr ΔY jr ΔZ jr ): If the j-th right model ΔZj and ΔDj in the unified coordinate system are 0.0005 (1/2000) or less, it is considered that the connection orientation is normally performed. If not successful, an error is output in the orientation result display to indicate which image is bad. In this case, if there is another orientation point on the image, it is changed and the above calculation from (ii) to (v) is repeated. If not, change the location of the orientation point.

〔バンドル調整〕
次に三次元計測に用いるバンドル調整について説明する。バンドル調整は、(5)式に示すように対象空間座標(X,Y,Z)とその画像座標(x,y)、及び投影中心(X,Y,Z)が同一直線上に存在するという共線条件式を基本としている。
[Bundle adjustment]
Next, bundle adjustment used for three-dimensional measurement will be described. In the bundle adjustment, the object space coordinates (X, Y, Z), the image coordinates (x, y), and the projection center (X 0 , Y 0 , Z 0 ) are on the same straight line as shown in the equation (5). It is based on the collinear conditional expression that exists.

(5)式に基づき、全ての対象空間点について観測方程式を作成し、撮影時のカメラの位置と傾きである外部標定要素と対象空間座標について、最小二乗法によって同時解を求める。この場合、(5)式は非線形方程式なので、外部標定要素及び対象空間点、カメラの焦点距離の初期値が必要であるが、外部標定要素及び対象空間点の初期値として、標定処理で求められた値を使用する。また、カメラの焦点距離の初期値として、撮影時の焦点距離の概略値を入力する。三次元計測から、カメラの位置、姿勢がわかったので対応点の三次元座標が例えば前方交会法により算出される   Based on the equation (5), an observation equation is created for all target space points, and a simultaneous solution is obtained by the least square method for the external orientation elements and the target space coordinates, which are the position and inclination of the camera at the time of shooting. In this case, since the equation (5) is a nonlinear equation, the external orientation element, the target space point, and the initial value of the focal length of the camera are necessary. However, the initial value of the external orientation element and the target space point is obtained by the orientation processing. Use the default value. Also, an approximate value of the focal length at the time of shooting is input as the initial value of the focal length of the camera. Since the position and orientation of the camera are known from the 3D measurement, the 3D coordinates of the corresponding points are calculated by the forward intersection method, for example.

図7は、三次元計測の結果を例示する図であり、左側面下方に略直線状に並んだ点が求められた撮影位置を示し、立体図中に散乱している少し小さなプロットが三次元座標値が与えられた特徴対応点を示している。   FIG. 7 is a diagram illustrating the result of the three-dimensional measurement, showing the photographing position where the points arranged in a substantially straight line below the left side surface are obtained, and a little small plot scattered in the three-dimensional diagram is three-dimensional. The feature corresponding point to which the coordinate value was given is shown.

[対応点の評価・除去]
前述の対応点追跡部4における追跡処理により、全てのフレームに対して、特徴点の対応付けがされていることになる。しかし、これらの対応付けは2次元的な解析によるものであり、実際には擬似特徴点、擬似基準点のような不適切な特徴点や対応点が含まれるおそれがある。
そこで本実施の形態ではかかる擬似特徴点、擬似基準点、誤って対応付けされた特徴点、撮影対象物と異なる動きをする物に付された特徴点等、三次元計測に不適切な特徴点や対応点(対応特徴点)、すなわち誤対応点の除去を行なう。これらの不適切な対応特徴点の除去は、標定処理及び三次元計測処理の結果を用いて、対応点評価除去部8において、図3の逆投影工程(S170)〜誤対応点等削除工程(S190)で行なわれる。
[Evaluation and removal of corresponding points]
By the tracking process in the corresponding point tracking unit 4 described above, feature points are associated with all frames. However, these associations are based on a two-dimensional analysis, and may actually include inappropriate feature points and corresponding points such as pseudo feature points and pseudo reference points.
Therefore, in this embodiment, such a pseudo feature point, a pseudo reference point, a feature point that is incorrectly associated, a feature point attached to an object that moves differently from the object to be photographed, and other feature points that are inappropriate for three-dimensional measurement And corresponding points (corresponding feature points), that is, erroneous corresponding points are removed. These inappropriate corresponding feature points are removed by using the results of the orientation process and the three-dimensional measurement process in the corresponding point evaluation removing unit 8 from the back projection step (S170) to the erroneous corresponding point deletion step ( S190).

[逆投影]
逆投影部81において、三次元計測工程(S160)で求められた対応特徴点の三次元座標を撮影画像に逆投影する(S170)。逆投影は、基本的には共線条件式(5)に代入することにより行われる。共線条件式は、対象空間座標(X,Y,Z)とその画像座標(x,y)、及び投影中心(X,Y,Z)が同一直線上に存在するという共線条件式(5)を基本としている。また、逆投影の投影中心(X,Y,Z)として、三次元計測工程(S160)で求められた撮影装置の位置が用いられる。
[Back projection]
In the back projection unit 81, the 3D coordinates of the corresponding feature points obtained in the 3D measurement step (S160) are back projected onto the captured image (S170). Back projection is basically performed by substituting into the collinear conditional expression (5). The collinear conditional expression indicates that the target space coordinates (X, Y, Z), the image coordinates (x, y), and the projection center (X 0 , Y 0 , Z 0 ) exist on the same straight line. Formula (5) is the basis. Further, the position of the imaging device obtained in the three-dimensional measurement step (S160) is used as the projection center (X 0 , Y 0 , Z 0 ) of back projection.

[残差算出]
次に、残差算出部82で、対応特徴点が付された一連の撮影画像について、対応特徴点の座標と逆投影された対応特徴点の座標との残差を算出する(S175)。残差については、たとえば全体の平均二乗誤差σを求め、この値の例えば3倍(3σ)を閾値とする。この場合、ループ処理(S140〜S190)を繰り返してすべての閾値が3σを下回った時点で終了とする。なおこれらの統計的な性質が使えるだけの特徴点数が必要であるが、一連の撮影画像から多数のステレオ画像を選択して処理することにより十分可能である。
[Residual calculation]
Next, the residual calculation unit 82 calculates the residual between the coordinates of the corresponding feature points and the back-projected coordinates of the corresponding feature points with respect to the series of captured images to which the corresponding feature points are attached (S175). For the residual, for example, an overall mean square error σ is obtained, and this value, for example, is 3 times (3σ) as a threshold value. In this case, the loop processing (S140 to S190) is repeated, and the process ends when all the threshold values are below 3σ. Note that the number of feature points that can use these statistical properties is necessary, but it is sufficiently possible to select and process a large number of stereo images from a series of captured images.

〔対応点適否判定(残差評価)〕
三次元計測の結果には、誤対応点、すなわち不適切な特徴点や対応点が含まれている可能性がある。もし三次元計測に不適切な特徴点や対応点があれば、時系列データのいずれかの残差に反映される可能性が高いと推測される。そこで、残差計測の結果から、画像上の残差が大きいものを取り除くことにより誤対応点を除去する(S185〜S190)。
[Correspondence point suitability determination (residual evaluation)]
The result of the three-dimensional measurement may include erroneous corresponding points, that is, inappropriate feature points and corresponding points. If there are feature points and corresponding points that are inappropriate for three-dimensional measurement, it is highly probable that they will be reflected in any residual in the time-series data. Therefore, the erroneous corresponding points are removed by removing those having a large residual on the image from the result of the residual measurement (S185 to S190).

本実施の形態では、残差算出部で算出された残差の時系列データに基づいて特徴点を不適切と判定する例を説明する。対応特徴点の除去は、例えば、ある対応特徴点に注目し、その点の画像上残差の時系列変化を調べることにより行う。本実施の形態では、一連の撮影画像が時系列的に変化しているので、これら一連の撮影画像について残差をプロットすれば、残差の時系列データを得ることができる。   In the present embodiment, an example will be described in which a feature point is determined to be inappropriate based on time series data of residuals calculated by a residual calculation unit. Corresponding feature points are removed by, for example, paying attention to a certain corresponding feature point and examining a time-series change in residual on the image at that point. In the present embodiment, since a series of photographed images changes in time series, if residuals are plotted for these series of photographed images, time series data of residuals can be obtained.

図8に残差の時系列変化の第1の例(点Paの例)を示す。第1の例は、対応特徴点Paが、ステレオペアA,Bに挟まれるフレームにおいてステレオペアA,B間の中央ほど残差が大きい場合を示す。
この場合、左右のステレオペアA,Bの時点で残差が小さいが、実際は擬似特徴点などの誤対応点と考えられる。したがってこのステレオペアA,Bとその間にあるフレーム上の対応点はAB間の全期間で除去される。
FIG. 8 shows a first example of the residual time-series change (example of point Pa). The first example shows a case where the corresponding feature point Pa has a larger residual at the center between the stereo pairs A and B in a frame sandwiched between the stereo pairs A and B.
In this case, the residual is small at the time of the left and right stereo pairs A and B, but it is actually considered to be a miscorresponding point such as a pseudo feature point. Accordingly, the stereo pairs A and B and the corresponding points on the frame between them are removed in the entire period between AB.

図9に残差の時系列変化の第2の例(点Pbの例)を示す。第2の例は、対応特徴点Pbが、ステレオペアA,Bに挟まれるフレームにおいてところどころで残差が大きい場合を示す。
この場合、ステレオペアA,Bに挟まれるフレームのうち残差が大きいフレームだけ対応点を除去することになるが、残差が大きいフレームが極端に多い点については第1の例とおなじく対応点はA,B間の全期間で除去される。具体的には、ステレオペアA,B間の6割以上で残差が大きくかつ連続性がない(たとえば1秒以上連続したものがない)場合には第1の例と同じく対応点はA,B間の全期間で除去される。
FIG. 9 shows a second example (example of point Pb) of the time series change of the residual. The second example shows a case in which the corresponding feature point Pb has a large residual in some places in the frame sandwiched between the stereo pairs A and B.
In this case, the corresponding points are removed only for the frames having a large residual among the frames sandwiched between the stereo pairs A and B, but the corresponding points are the same as those in the first example for the points where the number of frames having the large residual is extremely large. Is removed in the entire period between A and B. Specifically, when 60% or more between stereo pairs A and B is large and there is no continuity (for example, there is no continuous one or more seconds), the corresponding points are A, as in the first example. It is removed in the entire period between B.

図10に残差の時系列変化の第3の例(点Pcの例)を示す。第3の例は、対応特徴点Pcが、ステレオペアA,Bに挟まれるフレームにおいてA,Bどちらかのステレオ画像に近づくほど残差が大きくなる場合を示す。
この場合、対応点は三次元的に移動していたか擬似基準点であったと考えられ、誤対応点として除去する。ただし、残差が非常に小さいフレームが連続する場合は(たとえば1秒以上連続した場合)、この期間では移動していないと判定できるので、その部分については除去しない。
FIG. 10 shows a third example of the time series change of the residual (example of the point Pc). The third example shows a case where the residual becomes larger as the corresponding feature point Pc approaches the stereo image of either A or B in the frame sandwiched between the stereo pairs A and B.
In this case, it is considered that the corresponding point has moved three-dimensionally or was a pseudo reference point, and is removed as an erroneous corresponding point. However, when frames with very small residuals continue (for example, when they continue for 1 second or longer), it can be determined that the frame has not moved during this period, so that portion is not removed.

図11に残差の時系列変化の第4の例(点Pdの例)を示す。第4の例は、対応特徴点Pdが、ステレオペアA,Bに挟まれないフレームにおいてステレオペアから離れるほど残差が大きくなる場合を示す。
この場合、ステレオペアA,B上の対応点とステレオペアA,Bに挟まれるフレーム上の対応点に問題はない。しかしそれ以外のフレーム上の残差が大きい点については除去する。
FIG. 11 shows a fourth example of the time series change of the residual (example of the point Pd). The fourth example shows a case where the residual increases as the corresponding feature point Pd moves away from the stereo pair in a frame that is not sandwiched between the stereo pairs A and B.
In this case, there is no problem between the corresponding points on the stereo pairs A and B and the corresponding points on the frame sandwiched between the stereo pairs A and B. However, other points with large residuals on the frame are removed.

本実施の形態ではこのように種々の残差の時系列パターンに対応して適切な残差除去のアルゴリズムを設定し適用することができる。またこのアルゴリズムをプログラム化しておけば自動的に不適切な対応特徴点を除去できる。   In the present embodiment, it is possible to set and apply an appropriate residual removal algorithm corresponding to various residual time series patterns. In addition, if this algorithm is programmed, inappropriate corresponding feature points can be automatically removed.

[再度の標定処理・三次元計測]
次に、対応点評価除去部8で削除された対応特徴点を除いて、再度、ステレオ画像選択(S140)、標定(S150:第2の標定工程)、三次元計測が行なわれる(S160:第2の三次元計測工程)。これらの工程では、検出された誤対応点、すなわち不適切な対応特徴点を除いて処理が行なわれ、全体の残差が閾値以下になるまで繰り返されるので、高精度の三次元座標が算出される。
以上より、本実施の形態によれば、三次元計測に不適切な特徴点や対応点を特定し削除する処理が必要とされるような動画像等の時系列的に変化する撮影画像の場合においても、不適切な特徴点や対応点を除去して三次元計測ができるので、動画像等の時系列的に変化する撮影画像から、撮影装置の撮影位置、姿勢又は対象物の座標を精度良く計測できる画像処理装置及びその処理方法を提供できる。
[Another orientation process and 3D measurement]
Next, stereo image selection (S140), orientation (S150: second orientation process), and three-dimensional measurement are performed again (S160: first), except for the corresponding feature points deleted by the corresponding point evaluation removing unit 8. 2 three-dimensional measurement process). In these steps, processing is performed except for detected erroneous corresponding points, that is, inappropriate corresponding feature points, and the process is repeated until the overall residual is equal to or less than a threshold value, so that highly accurate three-dimensional coordinates are calculated. The
As described above, according to the present embodiment, in the case of a captured image that changes in time series, such as a moving image that requires processing for identifying and deleting feature points and corresponding points that are inappropriate for three-dimensional measurement. However, it is possible to perform three-dimensional measurement by removing inappropriate feature points and corresponding points, so it is possible to accurately determine the shooting position, orientation, or object coordinates of the shooting device from shot images that change over time, such as moving images. It is possible to provide an image processing apparatus and a processing method thereof that can measure well.

[第2の実施の形態]
第1の実施の形態では、特徴点適否判定部は、残差算出部で算出された残差の時系列データに基づいて前記特徴点を不適切と判定する例を説明したが、本実施の形態では、前記残差算出部で算出された残差が所定の閾値を超える場合に前記特徴点を不適切と判定する例を示す。残差は、たとえば全体の平均二乗誤差σを求め、この値の3倍(3σ)を閾値とする。より高精度な結果を求める場合は、2σまで閾値を下げても良い。また、特徴点適否判定部での判定回数を重ねるにつれて、閾値を小さくして精度を高めることも可能である。このように閾値で判定する場合には、時系列データを参照するまでもなく、自動的に残差の大きい対応特徴点を一律に削除できる。典型的には、いずれかの時点でかかる閾値を超える対応特徴点が見出された場合には、全撮影画像から当該対応特徴点を削除するが、例えば3回連続して閾値を超えた場合に削除する、閾値を超えた近くの対応特徴点のみ削除する等、除去条件を適宜定めることも可能である。その他の点では第1の実施の形態と同様である。
[Second Embodiment]
In the first embodiment, the feature point suitability determination unit has described an example in which the feature point is determined to be inappropriate based on the time series data of the residual calculated by the residual calculation unit. The form shows an example in which the feature point is determined to be inappropriate when the residual calculated by the residual calculation unit exceeds a predetermined threshold. For the residual, for example, an overall mean square error σ is obtained, and three times this value (3σ) is set as a threshold value. When obtaining a more accurate result, the threshold value may be lowered to 2σ. Further, as the number of determinations by the feature point suitability determination unit is increased, the threshold value can be reduced to increase the accuracy. In this way, when determining with the threshold value, it is not necessary to refer to the time series data, and corresponding feature points having a large residual can be automatically deleted uniformly. Typically, if a corresponding feature point exceeding the threshold is found at any point in time, the corresponding feature point is deleted from all captured images. For example, when the threshold is exceeded three times in succession It is also possible to determine the removal conditions as appropriate, such as deleting only the corresponding feature points near the threshold value. Other points are the same as those of the first embodiment.

〔第3の実施の形態〕
本実施の形態は、対応特徴点を削除するだけでなく、残差の大きい対応特徴点を多数有する撮影画像を画像ごと除去する例である。したがって、いずれかの撮影画像について、残差の大きい対応特徴点が多数見出された場合には、当該画像自体を一連の撮影画像から削除して、ステレオ画像選択、標定、三次元計測を含むループ処理を行なう。揺らぎや瞬時の動き等により特徴点全体が不安定になる画像が生じた場合に、その特徴点を除いて三次元計測の信頼度を高めるためである。その他の点では第1の実施の形態と同様である。
[Third Embodiment]
The present embodiment is an example in which not only the corresponding feature points are deleted, but also the captured images having many corresponding feature points having a large residual are removed for each image. Therefore, when a large number of corresponding feature points having a large residual are found for any one of the photographed images, the image itself is deleted from the series of photographed images and includes stereo image selection, orientation, and three-dimensional measurement. Perform loop processing. This is to improve the reliability of three-dimensional measurement when an image in which the entire feature point becomes unstable due to fluctuation, instantaneous movement, or the like is removed. Other points are the same as those of the first embodiment.

[第4の実施の形態]
本実施の形態は、残差算出部で算出された残差の時系列データに基づいて移動している対応特徴点を抽出する例を示す。残差が時系列に一定の傾向で安定に推移している対応特徴点は、移動している特徴点であると判断する。例えば、一定の割合で残差が増加又は減少する特徴点、緩やかな周期で残差が変化する特徴点等である。これらの特徴点については、例えばステレオ画像間における移動体の座標差(距離)を一定値に仮定する等により、移動体の三次元座標の軌跡を推測することも可能である。その他の点では第1の実施の形態と同様である。
[Fourth Embodiment]
The present embodiment shows an example of extracting corresponding feature points that are moving based on the time series data of the residuals calculated by the residual calculation unit. Corresponding feature points whose residuals are stably changing with a constant tendency in time series are determined to be moving feature points. For example, a feature point where the residual increases or decreases at a constant rate, a feature point where the residual changes at a gradual cycle, and the like. For these feature points, it is possible to estimate the trajectory of the three-dimensional coordinates of the moving object, for example, by assuming that the coordinate difference (distance) of the moving object between stereo images is a constant value. Other points are the same as those of the first embodiment.

[第5の実施の形態]
第1の実施の形態では、三次元座標の算定において、複数のステレオ画像から求められた三次元座標を統計処理して各特徴点の三次元座標を算定し、これを撮影画像上に逆投影して残差を求めたが、本実施の形態では、個別のステレオ画像から求められた三次元座標を撮影画像上に逆投影して残差を求める。この場合、第1の実施の形態に比して残差は表れ難いが、例えば基線長を十分に取れば、不安定な特徴点は残差が現れ易いので、不適切な特徴点を除去可能である。その他の点では第1の実施の形態と同様である。
[Fifth Embodiment]
In the first embodiment, in the calculation of the three-dimensional coordinates, the three-dimensional coordinates obtained from the plurality of stereo images are statistically processed to calculate the three-dimensional coordinates of each feature point, and this is back-projected on the photographed image. In this embodiment, the residual is obtained by back projecting the three-dimensional coordinates obtained from the individual stereo images onto the photographed image. In this case, the residual is less likely to appear as compared with the first embodiment, but for example, if a sufficient base line length is taken, an unstable feature point is likely to show a residual, so that an inappropriate feature point can be removed. It is. Other points are the same as those of the first embodiment.

[第6の実施の形態]
本実施の形態では、ステレオ画像選択部は、ステレオ画像の基線長と三次元座標の測定精度との関係を表す対応表を有し、対応表から要求精度を満たす基線長となるようにステレオ画像を選択する例を示す。測定精度は基線長に依存するので、要求精度に合わせてステレオ画像の基線長を決めることにより、要求に合った三次元計測結果を提供できる。その他の点では第1の実施の形態と同様である。
[Sixth Embodiment]
In the present embodiment, the stereo image selection unit has a correspondence table that represents the relationship between the baseline length of the stereo image and the measurement accuracy of the three-dimensional coordinates, and the stereo image has a baseline length that satisfies the required accuracy from the correspondence table. An example of selecting is shown. Since the measurement accuracy depends on the baseline length, a three-dimensional measurement result that meets the requirements can be provided by determining the baseline length of the stereo image in accordance with the required accuracy. Other points are the same as those of the first embodiment.

[第7の実施の形態]
第1の実施の形態では、撮影対象が静止状態で、撮影装置が移動する例について説明したが、本実施の形態は撮影装置が静止状態で、撮影対象が移動する例である。この場合においても、本来の対象物の他に、撮影装置と対象物の間に動くものが割り込んだり、撮影装置に揺動が生じる場合があり、特徴点を追跡し、動画像等の順次少しずつ変化する撮影画像における対象物に係る特徴点の三次元座標を求めることができる。また、対象物自体が回転するようなものであれば、その特徴点が消失と復活を繰り返すので、本発明を適用可能である。また、複数の対象物が異なる動きをする場合もあり、このような場合についてもそれぞれの対象物について本発明を適用可能である。
[Seventh Embodiment]
In the first embodiment, an example in which the photographing apparatus moves while the photographing target is stationary is described. However, the present embodiment is an example in which the photographing target moves while the photographing apparatus is stationary. Even in this case, in addition to the original object, a moving object may be interrupted between the image capturing apparatus and the object, or the image capturing apparatus may be shaken. It is possible to obtain the three-dimensional coordinates of the feature points related to the object in the captured image that changes gradually. In addition, if the object itself rotates, the feature point repeatedly disappears and is restored, so that the present invention can be applied. In addition, a plurality of objects may move differently, and the present invention can be applied to each object even in such a case.

また、本発明は、以上の実施の形態に記載の画像処理方法をコンピュータに実行させるためのプログラムとしても実現可能である。プログラムは制御部1の内蔵メモリに蓄積して使用してもよく、システム内外の記憶装置に蓄積して使用してもよく、インターネットからダウンロードして使用しても良い。また、当該プログラムを記録した記録媒体としても実現可能である。   The present invention can also be realized as a program for causing a computer to execute the image processing method described in the above embodiment. The program may be stored and used in a built-in memory of the control unit 1, may be stored in a storage device inside or outside the system, or may be downloaded from the Internet and used. Moreover, it is realizable also as a recording medium which recorded the said program.

以上、本発明の実施の形態について説明したが、本発明は以上の実施の形態に限定されるものではなく、実施の形態に種々変更を加えられることは明白である。   Although the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and it is obvious that various modifications can be made to the embodiment.

例えば、以上の実施の形態では、対象物又は撮影装置の一方が移動し、他方が静止している状態で撮影画像を取得する例について説明したが、両者とも移動する場合に本発明を適用しても良い。例えば、一方の移動速度・方向が一定の場合など十分適用可能である。また、追跡処理における異常値の除去が省略されていたとしても、本発明における残差計測を用いて、不適切な特徴点の除去が可能である。また、追跡処理において予め移動ベクトルの差異から、特異な特徴点を除去してから、本発明の残差計測を適用しても良い。また、特徴点の抽出にMORAVECオペレータを、テンプレートマッチングにSSDAテンプレートマッチングを使用する例を説明したが、他のオペレータ、テンプレートマッチング法を使用しても良い。また、使用するステレオ画像の数、基線長、特徴点の数等は適宜選択可能である。   For example, in the above embodiment, an example has been described in which a captured image is acquired in a state where one of the object or the imaging apparatus is moving and the other is stationary. However, the present invention is applied when both are moving. May be. For example, the present invention is sufficiently applicable when one moving speed and direction are constant. Even if the removal of the abnormal value in the tracking process is omitted, it is possible to remove inappropriate feature points using the residual measurement in the present invention. In addition, the residual measurement according to the present invention may be applied after removing unique feature points from the difference of the movement vectors in advance in the tracking process. Further, although an example in which the MORAVEC operator is used for feature point extraction and the SSDA template matching is used for template matching has been described, other operators and template matching methods may be used. The number of stereo images to be used, the base line length, the number of feature points, and the like can be selected as appropriate.

本発明は動画像を用いた撮影装置又は撮影対象の位置座標の計測等に使用される。   The present invention is used for a photographing apparatus using a moving image or measurement of position coordinates of a photographing target.

第1の実施の形態の概念を説明するための図である。It is a figure for demonstrating the concept of 1st Embodiment. 第1の実施の形態における画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus in 1st Embodiment. 第1の実施の形態における画像処理方法のフロー例を示す図である。It is a figure which shows the example of a flow of the image processing method in 1st Embodiment. ステレオ画像選択の例を示す図である。It is a figure which shows the example of a stereo image selection. 特徴点追跡の処理フロー例を示す図である。It is a figure which shows the example of a processing flow of feature point tracking. 相互標定を説明するための図である。It is a figure for demonstrating mutual orientation. 三次元計測の結果を例示する図である。It is a figure which illustrates the result of three-dimensional measurement. 残差の時系列変化の第1の例を示す図である。It is a figure which shows the 1st example of the time series change of a residual. 残差の時系列変化の第2の例を示す図である。It is a figure which shows the 2nd example of the time series change of a residual. 残差の時系列変化の第3の例を示す図である。It is a figure which shows the 3rd example of the time series change of a residual. 残差の時系列変化の第4の例を示す図である。It is a figure which shows the 4th example of the time series change of a residual.

符号の説明Explanation of symbols

1 制御部
2 撮影画像取得部
3 特徴抽出部
4 特徴点追跡部
5 演算処理部
6 ステレオ画像選択部
7 標定処理・三次元計測部
8 対応点評価除去部
9 対応点情報メモリ
10 画像メモリ
11 表示部
81 逆投影部
82 残差算出部
83 対応点適否判定部
84 誤対応点削除部
100 画像処理装置
DESCRIPTION OF SYMBOLS 1 Control part 2 Captured image acquisition part 3 Feature extraction part 4 Feature point tracking part 5 Operation processing part 6 Stereo image selection part 7 Orientation process and three-dimensional measurement part 8 Corresponding point evaluation removal part 9 Corresponding point information memory 10 Image memory 11 Display Unit 81 back projection unit 82 residual calculation unit 83 corresponding point suitability determination unit 84 incorrect corresponding point deletion unit 100 image processing apparatus

Claims (9)

相対的に移動する対象物を、隣り合う3以上の画像が重複部分を共有するように時系列的に撮影した一連の撮影画像を取得する撮影画像取得部と;
前記時系列的に撮影されたいずれかの撮影画像から特徴点を抽出する特徴抽出部と、
前記一連の撮影画像について前記特徴点を追跡し、特徴点を相互に対応付ける特徴点追跡部と;
前記一連の撮影画像から対をなす画像であるステレオ画像を選択するステレオ画像選択部と;
前記ステレオ画像選択部で選択されたステレオ画像の前記相互に対応付けられた特徴点である対応特徴点を用いて、標定および三次元計測を行なう標定処理・三次元計測部と;
前記ステレオ画像から三次元計測により求められた前記対応特徴点の三次元座標を前記撮影画像に逆投影する逆投影部と;
前記撮影画像について、前記対応特徴点の座標と前記逆投影された対応特徴点の座標との残差を算出する残差算出部と;
前記残差算出部で算出された残差に基づいて、前記対応特徴点の三次元計測への適否を判定する対応点適否判定部と;
前記対応点適否判定部で不適切と判定された対応特徴点を削除する誤対応点削除部とを備え;
前記標定処理・三次元計測部は、前記対応特徴点から前記誤対応点削除部により削除された対応特徴点を除いて、再度標定および三次元計測を行なう;
画像処理装置。
A captured image acquisition unit that acquires a series of captured images obtained by capturing a relatively moving object in time series so that three or more adjacent images share an overlapping portion;
A feature extraction unit that extracts feature points from any of the captured images captured in time series;
A feature point tracking unit that tracks the feature points of the series of captured images and associates the feature points with each other;
A stereo image selection unit that selects a stereo image that is a pair of images from the series of captured images;
An orientation processing / three-dimensional measurement unit that performs orientation and three-dimensional measurement using corresponding feature points that are the feature points associated with each other of the stereo image selected by the stereo image selection unit;
A back projection unit that back projects the three-dimensional coordinates of the corresponding feature points obtained from the stereo image by three-dimensional measurement onto the captured image;
A residual calculation unit for calculating a residual between the coordinates of the corresponding feature point and the coordinates of the back-projected corresponding feature point with respect to the captured image;
A corresponding point suitability determining unit that determines the suitability of the corresponding feature point for three-dimensional measurement based on the residual calculated by the residual calculating unit;
An erroneous corresponding point deletion unit that deletes the corresponding feature point determined to be inappropriate by the corresponding point suitability determination unit;
The orientation processing / three-dimensional measurement unit performs orientation and three-dimensional measurement again by removing the corresponding feature point deleted by the erroneous corresponding point deletion unit from the corresponding feature point;
Image processing device.
前記標定処理・三次元計測部は、前記ステレオ画像選択部で選択されたステレオ画像として、基線長がほぼ等しい複数のステレオ画像からの計測値を統計処理して前記対応特徴点の三次元座標を求める;
請求項1に記載の画像処理装置。
The orientation processing / three-dimensional measurement unit statistically processes measurement values from a plurality of stereo images having substantially the same base line length as the stereo image selected by the stereo image selection unit, and calculates the three-dimensional coordinates of the corresponding feature points. Ask;
The image processing apparatus according to claim 1.
前記対応点適否判定部は、前記残差算出部で算出された残差が所定の閾値を超える場合に前記対応特徴点を不適切と判定する;
請求項1又は請求項2に記載の画像処理装置。
The corresponding point suitability determining unit determines that the corresponding feature point is inappropriate when the residual calculated by the residual calculating unit exceeds a predetermined threshold;
The image processing apparatus according to claim 1.
前記所定の閾値は、前記対応点適否判定部での判定回数毎に可変とする;
請求項3に記載の画像処理装置。
The predetermined threshold is variable for each number of determinations by the corresponding point suitability determination unit;
The image processing apparatus according to claim 3.
前記対応点適否判定部は、前記残差算出部で算出された残差の時系列データに基づいて前記対応特徴点の適否を判定する;
請求項1又は請求項2に記載の画像処理装置。
The corresponding point suitability determining unit determines the suitability of the corresponding feature point based on the time series data of the residual calculated by the residual calculating unit;
The image processing apparatus according to claim 1.
前記対応点適否判定部は、前記残差の時系列データにおいて、残差が異常に大きいデータを含む対応特徴点が見出された場合に、当該対応特徴点を不適切と判定する;
請求項5に記載の画像処理装置。
The corresponding point suitability determination unit determines that the corresponding feature point is inappropriate when a corresponding feature point including data having an abnormally large residual is found in the time series data of the residual;
The image processing apparatus according to claim 5.
前記対応点適否判定部は、前記残差の時系列データに基づいて、前記対応特徴点が移動中の点であるか否かを判定する;
請求項5に記載の画像処理装置。
The corresponding point suitability determination unit determines whether the corresponding feature point is a moving point based on the time series data of the residual;
The image processing apparatus according to claim 5.
相対的に移動する対象物を、隣り合う3以上の画像が重複部分を共有するように時系列的に撮影した一連の撮影画像を取得する撮影画像取得工程と;
前記時系列的に撮影されたいずれかの撮影画像から特徴点を抽出する特徴抽出工程と;
前記一連の撮影画像について前記特徴点を追跡し、特徴点を相互に対応付ける特徴点追跡工程と;
前記一連の撮影画像からステレオ画像を選択するステレオ画像選択工程と;
前記ステレオ画像選択工程で選択されたステレオ画像の前記対応特徴点を用いて、標定を行なう第1の標定工程と;
前記第1の標定工程の標定結果を用いて三次元計測を行なう第1の三次元計測工程と;
前記ステレオ画像から前記三次元計測工程で求められた前記対応特徴点の三次元座標を前記撮影画像に逆投影する逆投影工程と;
前記撮影画像について、前記対応特徴点の座標と前記逆投影された対応特徴点の座標との残差を算出する残差算出工程と;
前記残差算出工程で算出された残差に基づいて、前記対応特徴点の三次元計測への適否を判定する対応点適否判定工程と;
前記対応点適否判定工程で不適切と判定された対応特徴点を削除する誤対応点削除工程と;
前記対応特徴点から前記誤対応点削除工程で削除された対応特徴点を除いて、再度標定を行なう第2の標定工程と;
前記第2の標定工程の標定結果を用いて三次元計測を行なう第2の三次元計測工程とを備える;
画像処理方法。
A captured image acquisition step of acquiring a series of captured images obtained by capturing a relatively moving object in time series so that three or more adjacent images share an overlapping portion;
A feature extraction step of extracting feature points from any of the captured images taken in time series;
A feature point tracking step of tracking the feature points of the series of captured images and associating the feature points with each other;
A stereo image selection step of selecting a stereo image from the series of captured images;
A first orientation step of performing orientation using the corresponding feature points of the stereo image selected in the stereo image selection step;
A first three-dimensional measurement step of performing three-dimensional measurement using the orientation result of the first orientation step;
A back projection step of back projecting the three-dimensional coordinates of the corresponding feature points obtained from the stereo image in the three-dimensional measurement step onto the captured image;
A residual calculation step for calculating a residual between the coordinates of the corresponding feature point and the coordinates of the back-projected corresponding feature point for the captured image;
A corresponding point suitability determination step for determining the suitability of the corresponding feature point for three-dimensional measurement based on the residual calculated in the residual calculation step;
An erroneous corresponding point deleting step of deleting the corresponding feature point determined to be inappropriate in the corresponding point suitability determining step;
A second orientation step of performing orientation again by removing the corresponding feature points deleted in the erroneous corresponding point deletion step from the corresponding feature points;
A second three-dimensional measurement step of performing a three-dimensional measurement using the orientation result of the second orientation step;
Image processing method.
請求項8に記載の画像処理方法をコンピュータに実行させるためのコンピュータ読み取り可能なプログラム。


A computer-readable program for causing a computer to execute the image processing method according to claim 8.


JP2006105568A 2006-04-06 2006-04-06 Image processing apparatus and processing method thereof Active JP4874693B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006105568A JP4874693B2 (en) 2006-04-06 2006-04-06 Image processing apparatus and processing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006105568A JP4874693B2 (en) 2006-04-06 2006-04-06 Image processing apparatus and processing method thereof

Publications (2)

Publication Number Publication Date
JP2007278844A true JP2007278844A (en) 2007-10-25
JP4874693B2 JP4874693B2 (en) 2012-02-15

Family

ID=38680437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006105568A Active JP4874693B2 (en) 2006-04-06 2006-04-06 Image processing apparatus and processing method thereof

Country Status (1)

Country Link
JP (1) JP4874693B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013890A (en) * 2009-07-01 2011-01-20 Fujifilm Corp Image composition device and method
JP2011053937A (en) * 2009-09-02 2011-03-17 Nec Corp Image conversion parameter calculation device, image conversion parameter calculation method, and program
US20130236107A1 (en) * 2012-03-09 2013-09-12 Kabushiki Kaisha Topcon Moving image processing device, moving image processing method, and recording medium having moving image processing program
GB2506411A (en) * 2012-09-28 2014-04-02 Omg Plc Determination of position from images and associated camera positions
JP2014123208A (en) * 2012-12-20 2014-07-03 Mitsubishi Electric Corp Three-dimensional restoration device
JP2014519117A (en) * 2011-05-30 2014-08-07 コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ Method for camera localization and 3D reconstruction in a partially known environment
JP6029794B1 (en) * 2015-09-09 2016-11-24 三菱電機株式会社 Navigation equipment and surveying system
KR20160136817A (en) * 2015-05-21 2016-11-30 주식회사 맥스트 Method for displaying augmented reality of based 3d point cloud cognition, apparatus and system for executing the method
CN112907677A (en) * 2019-12-04 2021-06-04 杭州海康威视数字技术股份有限公司 Camera calibration method and device for single-frame image and storage medium
US11893752B2 (en) 2020-08-24 2024-02-06 Fujitsu Limited Moving body speed derivation method and moving body speed derivation program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0778252A (en) * 1993-06-30 1995-03-20 Kobe Steel Ltd Object recognition method
JPH08149461A (en) * 1994-11-18 1996-06-07 Sony Corp Moving image processor and method therefor
JP2000268179A (en) * 1999-01-14 2000-09-29 Oojisu Soken:Kk Three-dimensional shape information obtaining method and device, two-dimensional picture obtaining method and device and record medium
JP2001148012A (en) * 1999-11-19 2001-05-29 Minolta Co Ltd Method and device for searching corresponding point
JP2002202124A (en) * 2000-12-28 2002-07-19 Kajima Corp Image measuring method and recording medium with recorded image measuring program
JP2005031044A (en) * 2003-07-11 2005-02-03 Olympus Corp Three-dimensional error measuring device
JP2005115420A (en) * 2003-10-02 2005-04-28 Kazuo Iwane Three-dimensional shape generation device
WO2005040721A1 (en) * 2003-10-29 2005-05-06 Waro Iwane 3d automatic measuring apparatus
JP2005309782A (en) * 2004-04-21 2005-11-04 Toyota Motor Corp Image processor
JP2005332177A (en) * 2004-05-19 2005-12-02 Etsuji Kitagawa Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0778252A (en) * 1993-06-30 1995-03-20 Kobe Steel Ltd Object recognition method
JPH08149461A (en) * 1994-11-18 1996-06-07 Sony Corp Moving image processor and method therefor
JP2000268179A (en) * 1999-01-14 2000-09-29 Oojisu Soken:Kk Three-dimensional shape information obtaining method and device, two-dimensional picture obtaining method and device and record medium
JP2001148012A (en) * 1999-11-19 2001-05-29 Minolta Co Ltd Method and device for searching corresponding point
JP2002202124A (en) * 2000-12-28 2002-07-19 Kajima Corp Image measuring method and recording medium with recorded image measuring program
JP2005031044A (en) * 2003-07-11 2005-02-03 Olympus Corp Three-dimensional error measuring device
JP2005115420A (en) * 2003-10-02 2005-04-28 Kazuo Iwane Three-dimensional shape generation device
WO2005040721A1 (en) * 2003-10-29 2005-05-06 Waro Iwane 3d automatic measuring apparatus
JP2005309782A (en) * 2004-04-21 2005-11-04 Toyota Motor Corp Image processor
JP2005332177A (en) * 2004-05-19 2005-12-02 Etsuji Kitagawa Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013890A (en) * 2009-07-01 2011-01-20 Fujifilm Corp Image composition device and method
JP2011053937A (en) * 2009-09-02 2011-03-17 Nec Corp Image conversion parameter calculation device, image conversion parameter calculation method, and program
US9613420B2 (en) 2011-05-30 2017-04-04 Commissariat A L'energie Atomique Et Aux Energies Alternatives Method for locating a camera and for 3D reconstruction in a partially known environment
JP2014519117A (en) * 2011-05-30 2014-08-07 コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ Method for camera localization and 3D reconstruction in a partially known environment
US9171225B2 (en) * 2012-03-09 2015-10-27 Kabushiki Kaisha Topcon Device, method, and recording medium for detecting and removing mistracked points in visual odometry systems
US20130236107A1 (en) * 2012-03-09 2013-09-12 Kabushiki Kaisha Topcon Moving image processing device, moving image processing method, and recording medium having moving image processing program
GB2506411A (en) * 2012-09-28 2014-04-02 Omg Plc Determination of position from images and associated camera positions
US10885328B2 (en) 2012-09-28 2021-01-05 The Boeing Company Determination of position from images and associated camera positions
GB2506411B (en) * 2012-09-28 2020-03-11 2D3 Ltd Determination of position from images and associated camera positions
US10311297B2 (en) 2012-09-28 2019-06-04 The Boeing Company Determination of position from images and associated camera positions
JP2014123208A (en) * 2012-12-20 2014-07-03 Mitsubishi Electric Corp Three-dimensional restoration device
KR101725478B1 (en) * 2015-05-21 2017-04-11 주식회사 맥스트 Method for displaying augmented reality of based 3d point cloud cognition, apparatus and system for executing the method
US9741170B2 (en) 2015-05-21 2017-08-22 Maxst Co., Ltd. Method for displaying augmented reality content based on 3D point cloud recognition, and apparatus and system for executing the method
KR20160136817A (en) * 2015-05-21 2016-11-30 주식회사 맥스트 Method for displaying augmented reality of based 3d point cloud cognition, apparatus and system for executing the method
US10222210B2 (en) 2015-09-09 2019-03-05 Mitsubishi Electric Corporation Navigation system and survey system
WO2017042907A1 (en) * 2015-09-09 2017-03-16 三菱電機株式会社 Navigation device and survey system
JP6029794B1 (en) * 2015-09-09 2016-11-24 三菱電機株式会社 Navigation equipment and surveying system
CN112907677A (en) * 2019-12-04 2021-06-04 杭州海康威视数字技术股份有限公司 Camera calibration method and device for single-frame image and storage medium
CN112907677B (en) * 2019-12-04 2023-07-25 杭州海康威视数字技术股份有限公司 Camera calibration method and device for single-frame image and storage medium
US11893752B2 (en) 2020-08-24 2024-02-06 Fujitsu Limited Moving body speed derivation method and moving body speed derivation program

Also Published As

Publication number Publication date
JP4874693B2 (en) 2012-02-15

Similar Documents

Publication Publication Date Title
JP5362189B2 (en) Image processing apparatus and processing method thereof
JP4889351B2 (en) Image processing apparatus and processing method thereof
JP4874693B2 (en) Image processing apparatus and processing method thereof
JP5087264B2 (en) Image processing apparatus and method
JP4800163B2 (en) Position measuring apparatus and method
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
US7860276B2 (en) Image processing device and method
JP4851239B2 (en) Image processing apparatus and processing method thereof
JP5027747B2 (en) POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM
US6865289B1 (en) Detection and removal of image occlusion errors
US7844077B2 (en) Location measuring device and method
JP5084374B2 (en) Position measuring apparatus and position measuring method
JP6506032B2 (en) Survey data processing apparatus, survey data processing method and program
JP5184830B2 (en) Position measuring apparatus and position measuring method
JP2010014443A (en) Position measurement method, position measurement device, and program
JP6922348B2 (en) Information processing equipment, methods, and programs
JP3842988B2 (en) Image processing apparatus for measuring three-dimensional information of an object by binocular stereoscopic vision, and a method for recording the same, or a recording medium recording the measurement program
JP4851240B2 (en) Image processing apparatus and processing method thereof
JP4809134B2 (en) Image processing apparatus and processing method thereof
JP6506031B2 (en) Survey data processing apparatus, survey data processing method and program
JP4550081B2 (en) Image measurement method
JP4813263B2 (en) Image processing apparatus and processing method thereof
JP4153322B2 (en) Method and apparatus for associating measurement points in photogrammetry

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141202

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4874693

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250