JP2018137667A - Camera calibration method, program and device - Google Patents

Camera calibration method, program and device Download PDF

Info

Publication number
JP2018137667A
JP2018137667A JP2017031987A JP2017031987A JP2018137667A JP 2018137667 A JP2018137667 A JP 2018137667A JP 2017031987 A JP2017031987 A JP 2017031987A JP 2017031987 A JP2017031987 A JP 2017031987A JP 2018137667 A JP2018137667 A JP 2018137667A
Authority
JP
Japan
Prior art keywords
intersection
feature vector
camera
model
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017031987A
Other languages
Japanese (ja)
Other versions
JP6738293B2 (en
Inventor
強 要
Tsutomu Kaname
強 要
内藤 整
Hitoshi Naito
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017031987A priority Critical patent/JP6738293B2/en
Publication of JP2018137667A publication Critical patent/JP2018137667A/en
Application granted granted Critical
Publication of JP6738293B2 publication Critical patent/JP6738293B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To accurately calculate a homography matrix from a camera image without requiring complete model matching while using a number of intersections.SOLUTION: A feature vector element generation part 52 generates a feature vector element for each detected intersection. The presence/absence of a field line extending in each direction for each of intersections is allocated to each of bits of the feature vector element consisting of binary data of four bits, and the presence/absence in a "UP" direction is allocated to a most significant bit (MSB1). The presence/absence in a "RIGHT" direction is allocated to an MSB2, the presence/absence in a "DOWN" direction is allocated to an MSB3, and the presence/absence in a "LEFT" direction is allocated to a least significant bit (MSB4). If a field line is present, "1" is set to each of bits and if a field line is absent, "0" is set. A feature vector element at an intersection where a vertical field line in the "UP" direction and a vertical field line in the LEFT" direction are detected becomes "1001".SELECTED DRAWING: Figure 7

Description

本発明は、カメラキャリブレーション方法および装置に係り、特に、野球、サッカーまたはテニスのように、フィールドラインを含むカメラ画像を用いてカメラキャリブレーションを行う方法、プログラムおよび装置に関する。   The present invention relates to a camera calibration method and apparatus, and more particularly to a method, program, and apparatus for performing camera calibration using a camera image including a field line, such as baseball, soccer, or tennis.

カメラキャリブレーションは、3Dコンピュータビジョンにおいて非常に重要な技術であり、現実シーンのワールド座標系とカメラ画像のピクセル座標系との関係は、カメラに固有の内部および外部パラメータ(あるいはホモグラフィ行列)に基づいて求められる。   Camera calibration is a very important technology in 3D computer vision, and the relationship between the world coordinate system of the real scene and the pixel coordinate system of the camera image depends on the internal and external parameters (or homography matrix) specific to the camera. Based on.

特に、スポーツ系の映像における自由視点でのナビゲーションでは、実際のフィールド上での各選手の位置が重要であり、カメラ画像における各選手の座標をホモグラフィ行列で射影変換することで求められる。したがって、正確なカメラキャリブレーションを自動で行える技術が、自由視点ナビゲーションやビデオ分析のリアルタイムアプリケーションにおいて必要とされる。   In particular, in navigation from a free viewpoint in sports videos, the position of each player on the actual field is important, and can be obtained by projective transformation of the coordinates of each player in the camera image using a homography matrix. Therefore, a technology capable of automatically performing accurate camera calibration is required for real-time applications such as free viewpoint navigation and video analysis.

非特許文献1には、スポーツイベントにおける自由視点ナビゲーションのためのフィールドモデルに基づくカメラの自動キャリブレーション方法が開示されている。非特許文献1では、カメラ画像内の線分のヒストグラムを使用して頑健なフィールド線を抽出し、2本の水平線と2本の垂直線との4つの交点を抽出して、ホモグラフィ行列を推定している。   Non-Patent Document 1 discloses an automatic camera calibration method based on a field model for free viewpoint navigation in sports events. In Non-Patent Document 1, a robust field line is extracted using a histogram of line segments in a camera image, four intersections of two horizontal lines and two vertical lines are extracted, and a homography matrix is extracted. Estimated.

特許文献1には、カメラ画像からフィールドライン画像を抽出し、フィールドライン画像からラインセグメントを抽出してフィールドラインを認識し、各フィールドラインを垂直および水平フィールドライン群に分類し、フィールドライン群ごとに各フィールドラインを評価し、評価の高いフィールドライン同士の交点に基づいて対応点を設定し、設定された対応点に基づいてホモグラフィ行列を決定する技術が開示されている。   In Patent Document 1, a field line image is extracted from a camera image, a line segment is extracted from the field line image to recognize a field line, and each field line is classified into a vertical and horizontal field line group. A technique is disclosed in which each field line is evaluated, a corresponding point is set based on the intersection of the highly evaluated field lines, and a homography matrix is determined based on the set corresponding point.

特開2016-220129号公報JP 2016-220129 A

Qiang Yao, Hiroshi Sankoh, Keisuke Nonaka, Sei Naito, "Automatic Camera Self-Calibration for Immersive Navigation of Free Viewpoint Sports Video", Multimedia Signal Processing (MMSP), 2016 IEEE International Workshop on. Montreal, Canada, IEEE, 2016. 09.Qiang Yao, Hiroshi Sankoh, Keisuke Nonaka, Sei Naito, "Automatic Camera Self-Calibration for Immersive Navigation of Free Viewpoint Sports Video", Multimedia Signal Processing (MMSP), 2016 IEEE International Workshop on. Montreal, Canada, IEEE, 2016. 09 .

非特許文献1では、カメラ画像から4つの交点しか抽出できないので完全なモデルマッチングが必要であり、マッチングに長時間を要するのみならず、4つの交点がカメラ画像の広い領域をカバーしない限りはホモグラフィ行列の精度が低下するという技術課題があった。   In Non-Patent Document 1, only four intersections can be extracted from a camera image, so complete model matching is required. Not only does matching require a long time, but homogeneity is not required unless the four intersections cover a wide area of the camera image. There has been a technical problem that the accuracy of the graphic matrix decreases.

特許文献1では、正しいホモグラフィ行列を計算するためには完全なモデルマッチングが必要であり、カメラ画像から認識できない交点があるとホモグラフィ行列の精度が低下するという技術課題があった。   In Patent Document 1, perfect model matching is necessary to calculate a correct homography matrix, and there is a technical problem in that the accuracy of the homography matrix decreases if there is an intersection that cannot be recognized from the camera image.

本発明の目的は、上記の技術課題を解決し、多数の交点を用いながら完全なモデルマッチングを必要とせずに、カメラ画像からホモグラフィ行列を精度良く算出できるカメラキャリブレーション方法、プログラムおよび装置を提供することにある。   An object of the present invention is to solve the above technical problem and to provide a camera calibration method, program, and apparatus capable of accurately calculating a homography matrix from a camera image without using perfect model matching while using a large number of intersections. It is to provide.

上記の目的を達成するために、本発明は、フィールドモデルとカメラ画像との間のホモグラフィ行列に基づいてカメラキャリブレーションを行う装置において、以下の構成を具備した点に特徴がある。   In order to achieve the above object, the present invention is characterized in that an apparatus for performing camera calibration based on a homography matrix between a field model and a camera image has the following configuration.

(1) カメラ画像からフィールドラインを抽出する手段と、フィールドラインの交点を計算する手段と、交点ごとに当該交点を通るフィールドラインの数および向きに基づいてカメラ交点特徴ベクトル要素を生成する手段と、各カメラ交点特徴ベクトル要素を所定の順序で配列してカメラ交点特徴ベクトルVcを生成する手段と、フィールドモデルの各フィールドラインの交点ごとにモデル交点特徴ベクトル要素を生成する手段と、カメラ交点特徴ベクトルVcの各カメラ交点特徴ベクトル要素と交点の配列が類似するモデル交点特徴ベクトル要素の組み合わせごとに当該各モデル交点特徴ベクトル要素を前記所定の順序で配列して複数のモデル交点特徴ベクトルVmを生成する手段と、カメラ交点特徴ベクトルVcと各モデル交点特徴ベクトルVmとを比較して類似度の高いモデル交点特徴ベクトルVmを抽出する手段と、類似度の高いモデル交点特徴ベクトルVmとカメラ交点特徴ベクトルVcとの対応関係に基づいて対応点を設定し、ホモグラフィ行列を計算する手段とを具備した。   (1) means for extracting a field line from a camera image, means for calculating an intersection of field lines, means for generating a camera intersection feature vector element based on the number and direction of field lines passing through the intersection for each intersection Means for arranging camera intersection feature vector elements in a predetermined order to generate a camera intersection feature vector Vc; means for generating a model intersection feature vector element for each intersection of each field line of a field model; and camera intersection feature Each model intersection feature vector element is arranged in the predetermined order for each combination of the model intersection feature vector elements having the intersection arrangement similar to each camera intersection feature vector element of the vector Vc to generate a plurality of model intersection feature vectors Vm The camera intersection feature vector Vc and each model intersection feature vector Vm The model intersection feature vector Vm with high similarity is extracted, and the corresponding points are set based on the correspondence between the model intersection feature vector Vm with high similarity and the camera intersection feature vector Vc, and the homography matrix is calculated. Means.

(2) 前記類似度の高いモデル交点特徴ベクトルVmを抽出する手段が、類似度の高い上位Nベストのモデル交点特徴ベクトルVmを抽出し、前記Nベストのモデル交点特徴ベクトルVmを評価する手段を具備し、前記評価する手段は、フレーム画像の左右の境界線を各ホモグラフィ行列でフィールドモデルに投影して各対応する線分を求める手段と、前記各対応する線分の交点をカメラポイントとして登録する手段と、n番目のフレーム画像に基づいて登録されたカメラポイントとm番目のフレーム画像に基づいて登録されたカメラポイントとの変位を計算する手段とを具備し、変位が最小値を示すホモグラフィ行列の評価を最も高くするようにした。   (2) The means for extracting the model intersection feature vector Vm having a high similarity is a means for extracting the model intersection feature vector Vm of the top N best model having a high similarity and evaluating the model intersection feature vector Vm of the N best. And the means for evaluating includes means for projecting the left and right boundary lines of the frame image onto a field model with each homography matrix, and obtaining each corresponding line segment, and using the intersection of each corresponding line segment as a camera point Means for registering, and means for calculating a displacement between a camera point registered based on the nth frame image and a camera point registered based on the mth frame image, and the displacement exhibits a minimum value The highest evaluation of the homography matrix was made.

(3) 前記特徴ベクトル要素が、各交点から延びるフィールドラインの向きの数をビット長とするバイナリデータであり、各方向に延びるフィールドラインが抽出されたか否かに応じて各ビット値が2値のいずれかに設定されるようにした。   (3) The feature vector element is binary data whose bit length is the number of field lines extending from each intersection, and each bit value is binary depending on whether or not a field line extending in each direction is extracted. Was set to one of the following.

(4) 前記類似度の高いモデル交点特徴ベクトルVmを抽出する手段は、各交点の特徴ベクトル要素を当該各交点がラスタスキャンされる順序で配列してカメラ交点特徴ベクトルVcとするようにした。   (4) The means for extracting the model intersection feature vector Vm having a high degree of similarity arranges the feature vector elements of each intersection in the order in which the respective intersections are raster-scanned to form the camera intersection feature vector Vc.

(5) 前記類似度の高いモデル交点特徴ベクトルVmを抽出する手段は、カメラ画像から抽出されたフィールドラインの交点にカメラ画像上で見えない交点が含まれていると、前記カメラ交点特徴ベクトルVcの当該見えない交点の特徴ベクトル要素の部分に、モデル交点特徴ベクトルVmのマッチング範囲内の対応する交点の特徴ベクトル要素をコピーするようにした。   (5) The means for extracting the model intersection feature vector Vm having a high degree of similarity includes the camera intersection feature vector Vc if the intersection of the field lines extracted from the camera image includes an intersection that cannot be seen on the camera image. The feature vector element of the corresponding intersection within the matching range of the model intersection feature vector Vm is copied to the feature vector element of the intersection of the invisible.

本発明によれば、以下のような効果が達成される。   According to the present invention, the following effects are achieved.

(1) ホモグラフィ行列を計算するための対応点が4点に限定されず、かつ全ての対応点での完全なマッチングが不要となるので、ホモグラフィ行列を短時間で精度良く算出できるようになる。   (1) The number of corresponding points for calculating a homography matrix is not limited to four points, and perfect matching at all corresponding points is not required, so that the homography matrix can be calculated accurately in a short time. Become.

(2) 各交点の特徴量として、当該交点から延びるラインの方向及び数に基づくバイナリデータ(特徴ベクトル要素)を採用するので、各交点の特徴量のデータサイズが小さくなり、マッチング処理が簡単化されて処理速度が向上する。   (2) Since binary data (feature vector elements) based on the direction and number of lines extending from the intersection is used as the feature quantity at each intersection, the data size of the feature quantity at each intersection is reduced and the matching process is simplified. As a result, the processing speed is improved.

(3) カメラ画像から抽出した各交点の特徴量(特徴ベクトル要素)を所定の規則、例えば、ラスタスキャンの順序で一次元に配列することでカメラ交点特徴ベクトルVcを生成する一方、当該各交点と配列が類似するフィールドモデルの各交点の組み合わせのみを抽出し、当該組み合わせごとに各交点の特徴量を同じ規則で一次元に配列することでモデル交点特徴ベクトルVmを生成するので、マッチング対象のモデル交点特徴ベクトル数が減ぜられ、高速なマッチング処理が可能になる。   (3) The camera intersection feature vector Vc is generated by arranging the feature values (feature vector elements) of each intersection extracted from the camera image in a one-dimensional manner in a predetermined rule, for example, in the order of raster scanning. The model intersection feature vector Vm is generated by extracting only the combination of each intersection point of the field model whose array is similar to that of the field model and arranging the feature values of each intersection point in one dimension according to the same rule for each combination. The number of model intersection feature vectors is reduced, enabling high-speed matching processing.

(4) カメラ画像で見えない交点が検知されると、その特徴量(特徴ベクトル要素)がフィールドモデルの対応する交点の特徴量で補間されるので、見えない交点が存在してもマッチング精度の低下が防止される。   (4) When an invisible intersection is detected in the camera image, the feature quantity (feature vector element) is interpolated with the feature quantity of the corresponding intersection in the field model. Reduction is prevented.

本発明の第1実施形態に係るカメラキャリブレーション装置の主要部の構成を示した機能ブロック図である。It is the functional block diagram which showed the structure of the principal part of the camera calibration apparatus which concerns on 1st Embodiment of this invention. カメラ画像IRGBの一例を示した図である。It is the figure which showed an example of the camera image I RGB . フィールドグラウンド画像Gの一例を示した図である。5 is a diagram showing an example of a field ground image G. FIG. フィールドライン画像Fの一例を示した図である。5 is a diagram showing an example of a field line image F. FIG. ルックアップテーブル(LUT)の一例を示した図である。It is the figure which showed an example of the look-up table (LUT). 各交点から延びるフィールドラインの方向を示した図である。It is the figure which showed the direction of the field line extended from each intersection. 特徴ベクトル要素の設定方法を示した図である。It is the figure which showed the setting method of the feature vector element. 特徴ベクトル要素の設定例を示した図である。It is the figure which showed the example of a setting of the feature vector element. カメラ交点特徴ベクトルの生成方法を示した図である。It is the figure which showed the production | generation method of the camera intersection feature vector. 特徴ベクトルVc,Vmのマッチング方法を示した図である。It is the figure which showed the matching method of feature vector Vc, Vm. 見えない交点の特徴ベクトル要素を補間する方法を説明する図である。It is a figure explaining the method of interpolating the feature vector element of an invisible intersection. 見えない交点の例を示した図である。It is the figure which showed the example of the intersection which cannot be seen. 本発明の第2実施形態に係るカメラキャリブレーション装置の主要部の構成を示した機能ブロック図である。It is the functional block diagram which showed the structure of the principal part of the camera calibration apparatus which concerns on 2nd Embodiment of this invention. ホモグラフィ行列の評価方法を説明するための図である。It is a figure for demonstrating the evaluation method of a homography matrix. ホモグラフィ行列の評価手順を示したフローチャートである。It is the flowchart which showed the evaluation procedure of the homography matrix. 2つのカメラcam1,cam2のホモグラフィ行列を較正する方法を示した図である。It is the figure which showed the method of calibrating the homography matrix of two cameras cam1 and cam2.

以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係るカメラキャリブレーション装置の主要部の構成を示した機能ブロック図であり、ここでは、本発明の説明に不要な構成は図示が省略されている。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram showing the configuration of the main part of a camera calibration apparatus according to an embodiment of the present invention, and here, the configuration unnecessary for the description of the present invention is omitted.

フィールドグラウンド画像抽出部10は、図2に示したようなフィールドグラウンドの写ったカメラ画像IRGBからフィールドグラウンド領域以外のバックグラウンド領域を除去してフィールドグラウンド画像Gを取得する。 The field ground image extraction unit 10 acquires a field ground image G by removing background regions other than the field ground region from the camera image I RGB in which the field ground is captured as shown in FIG.

本実施形態では、初めにカメラ画像IRGBをRBG色空間からHSV色空間の画像IHSVに変換する。次いで、いくつかの統計的閾値σmin H, σmax H、σmin Vを推定し、次式(1)のラベリングプロセスを用いてフィールドグラウンドを抽出する。本実施形態では、ラベルされたマスク画像Bにより、図3に示したフィールドグラウンド画像Gが抽出される。 In this embodiment, first, the camera image I RGB is converted from the RBG color space to the image I HSV in the HSV color space. Next, several statistical thresholds σ min H , σ max H and σ min V are estimated, and a field ground is extracted using a labeling process of the following equation (1). In the present embodiment, the field ground image G shown in FIG. 3 is extracted from the labeled mask image B.

フィールドライン画像抽出部20は、前記フィールドグラウンド画像Gに基づいて、画素強度(グレースケール)および画素勾配を次式(2)で閾値化することにより、図4に一例を示したフィールドライン画像Fを抽出する。   Based on the field ground image G, the field line image extraction unit 20 thresholds the pixel intensity (grayscale) and the pixel gradient according to the following equation (2), so that the field line image F shown in FIG. To extract.

ここでは、初めにフィールドグラウンド画像Gがグレー画像に変換されている。符号thwおよびthgradは、それぞれ白色およびピクセル勾配の閾値である。符号Δは次式(3)で表される。τはフィールドグラウンド画像Gの各ピクセルG(x,y)の勾配を計算するために使用される距離である。 Here, the field ground image G is first converted into a gray image. The symbols th w and th grad are white and pixel gradient thresholds, respectively. The symbol Δ is expressed by the following equation (3). τ is the distance used to calculate the gradient of each pixel G (x, y) of the field ground image G.

フィールドライン解析部30において、セグメント検知部31は、フィールドライン画像Fに周知のハフ変換を適用して、フィールドラインの構成要素であるセグメント(線分)を検出する。各セグメントは始点座標P1(x1,y1)および終点座標P2 (x2,y2)によって定義されてセグメントリストに登録される。   In the field line analysis unit 30, the segment detection unit 31 applies a well-known Hough transform to the field line image F to detect a segment (line segment) that is a component of the field line. Each segment is defined by the start point coordinate P1 (x1, y1) and the end point coordinate P2 (x2, y2) and registered in the segment list.

セグメントパラメータ計算部32は、検出された各セグメントの傾きkおよびオフセット(切片)bの2つのパラメータを、それぞれ次式(4),(5)で算出する。これら2つのパラメータは、後述するラインプルーニング部33、ライン分類部34およびソート部35で使用される。   The segment parameter calculation unit 32 calculates two parameters of the detected slope k and offset (intercept) b of each segment by the following equations (4) and (5), respectively. These two parameters are used by the line pruning unit 33, the line classification unit 34, and the sorting unit 35 described later.

前記ハフ変換により検出されたセグメント群には同一のフィールドラインを構成するセグメントが含まれることから、ラインプルーニング部33は、冗長線を除去するためにラインプルーニングを実行する。このとき、前記傾きkおよびオフセットbは2つの線分を比較するために使用され、次式(6),(7)がいずれも成立すると、2つのセグメントli,ljは同一のフィールドラインを構成すると判断されてセグメントljがセグメントリストから除去され、セグメントリストに残ったセグメントに基づいて各フィールドラインが判別される。   Since the segment group detected by the Hough transform includes segments constituting the same field line, the line pruning unit 33 performs line pruning to remove redundant lines. At this time, the slope k and the offset b are used to compare two line segments, and if the following equations (6) and (7) are both established, the two segments li and lj constitute the same field line. As a result, the segment lj is removed from the segment list, and each field line is determined based on the segments remaining in the segment list.

ここで、ki,kjはそれぞれセグメントli,ljの傾きであり、bi,bjはそれぞれセグメントli,ljのオフセットである。閾値Δαは傾きki,kjの同一性を判断する閾値であり、閾値Δβはオフセットbi,bjの同一性を判断する閾値である。   Here, ki and kj are the slopes of the segments li and lj, respectively, and bi and bj are the offsets of the segments li and lj, respectively. The threshold Δα is a threshold for determining the identity of the slopes ki and kj, and the threshold Δβ is a threshold for determining the identity of the offsets bi and bj.

ライン分類部34は、判別されたフィールドラインから交点を計算するために、各フィールドラインを、その傾きkに基づいて水平フィールドラインLHおよび垂直フィールドラインLVのいずれかに分類する。 Line classification unit 34, to calculate the intersection point from the determined field lines, each field line is classified into one of the horizontal field lines L H and vertical field lines L V based on the inclination k.

本実施形態では、ライン分類閾値γを予め定義しておき、|ki|>γならば垂直フィールドラインLVに分類し、|ki|≦γならば水平フィールドラインLHに分類する。また、ライン分類閾値はカメラの位置および撮影方向によって異なることがある。したがって、ライン分類処理の後、水平フィールドラインLHおよび垂直フィールドラインLVは2つのサブセットになっている。 In the present embodiment, it has defined a line classification threshold gamma advance, | ki |> classified gamma if the vertical field lines L V, | ki | ≦ γ if classified into horizontal field lines L H. In addition, the line classification threshold value may differ depending on the position of the camera and the shooting direction. Therefore, after the line classification process, the horizontal field line L H and the vertical field line L V are in two subsets.

ソート部35は、水平フィールドラインLHを上から下にソートし、垂直フィールドラインLVを左から右にソートする。水平フィールドラインLHをソートする際はオフセットbiを使用して、対応するラインを上から下にソートする。垂直フィールドラインLVのソートでは、一番上の水平フィールドラインLHに注目して当該水平フィールドラインLHと各垂直フィールドラインLVとの交点を算出し、当該交点のx座標値に従って各垂直フィールドラインLVをソートする。 Sorting unit 35 sorts from above horizontal field lines L H below, sort the vertical field lines L V from left to right. Using an offset bi is when sorting horizontal field lines L H, sorted from top to bottom the corresponding line. In the sorting of the vertical field lines L V , paying attention to the top horizontal field line L H , the intersection of the horizontal field line L H and each vertical field line L V is calculated, and each intersection is determined according to the x coordinate value of the intersection. to sort the vertical field line L V.

なお、前記傾き閾値Δα、オフセット閾値Δβおよびライン分類閾値γは、カメラの位置および向きに依存する。そこで、本実施形態では図5に示したように、各カメラの位置に固有の閾値群を登録したルックアップテーブル(LUT)100を予め構築していき、カメラごとに当該カメラに対応した閾値群を採用するようにしている。   The inclination threshold value Δα, the offset threshold value Δβ, and the line classification threshold value γ depend on the position and orientation of the camera. Therefore, in this embodiment, as shown in FIG. 5, a look-up table (LUT) 100 in which a threshold group unique to each camera position is registered is built in advance, and a threshold group corresponding to the camera for each camera. Is adopted.

図1へ戻り、交点検出部40は、垂直フィールドラインLVと水平フィールドラインLHとの交点を周知の手法で検出し、その座標を計算する。 Returning to FIG. 1, the intersection detection unit 40 detects an intersection between the vertical field line L V and the horizontal field line L H by a known method, and calculates the coordinates thereof.

ベクトル情報生成部50は、検知された交点の特徴量として特徴ベクトル要素を生成する。ライン方向分析部51は、交点ごとに当該交点から延びるフィールドラインの数および向きに基づいて特徴ベクトル要素を生成するために、検知された交点ごとに当該交点から延びるフィールドラインの有無を検知する。   The vector information generation unit 50 generates a feature vector element as a detected feature amount of the intersection. The line direction analysis unit 51 detects the presence or absence of a field line extending from the intersection for each detected intersection in order to generate a feature vector element based on the number and direction of field lines extending from the intersection for each intersection.

本実施形態では、各交点P(x,y)で直交する4方向に関してフィールドラインの探索を実施するが、図6に示したように、垂直フィールドラインLvに沿った各方向が「UP(上)」「DOWN(下)」、水平フィールドラインLHに沿った各方向が「RIGHT(右)」「LEFT(左)」と定義される。 In this embodiment, field lines are searched for four directions orthogonal to each intersection P (x, y). As shown in FIG. 6, each direction along the vertical field line Lv is “UP (upper ) ”,“ DOWN (down) ”, and the respective directions along the horizontal field line L H are defined as“ RIGHT (right) ”and“ LEFT (left) ”.

また、本実施形態ではロバスト性を維持するために、各方向に画素値を積算するアキュムレータを定義する。di Uは「UP」方向のアキュムレータであり、交点P(x,y)の「UP」方向に沿って白いピクセルが発見されるごとに、対応するアキュムレータdi Uに「1」が加算される。さらに、累積範囲をNと定義する(Nは妥当な探索範囲)。したがって、次式(8)で表される累積数は0とNとの間の値をとる。 In the present embodiment, in order to maintain robustness, an accumulator that integrates pixel values in each direction is defined. d i U is an accumulator in the “UP” direction, and each time a white pixel is found along the “UP” direction of the intersection P (x, y), “1” is added to the corresponding accumulator d i U. The Furthermore, the cumulative range is defined as N (N is a reasonable search range). Therefore, the cumulative number represented by the following equation (8) takes a value between 0 and N.

また、本実施形態では存否閾値μ(0<μ<1)が定義され、di U>μNであれば「UP」方向へのフィールドラインの存在が認定され、di U≦μNであればフィールドラインの存在が否定される。さらに、本実施形態では別の閾値μrejを高速アルゴリズムとして定義し、連続して次式(9)が成立すると、当該方向へのフィールドラインの存在が否定される。 In the present embodiment, presence / absence threshold value μ (0 <μ <1) is defined. If d i U > μN, the presence of the field line in the “UP” direction is recognized, and if d i U ≦ μN. The presence of the field line is denied. Further, in the present embodiment, another threshold value μ rej is defined as a high-speed algorithm, and if the following equation (9) is continuously established, the presence of a field line in the direction is denied.

このような分析は、交点P(x、y)を起点として、各フィールドラインの傾きに基づく方向ごとに行われ、UP方向のアキュムレータdi U、DOWN方向のアキュムレータdi D、RIGHT方向のアキュムレータdi R、LEFT方向のアキュムレータdi Lの解析は、それぞれ次式(10)〜(13)に基づいて行われる。 Such analysis, the intersection P (x, y) as the starting point, is performed for each direction based on the inclination of the field lines, the UP direction accumulator d i U, the DOWN direction accumulator d i D, RIGHT direction of the accumulator analysis of d i R, LEFT direction of the accumulator d i L is respectively performed based on the following equation (10) to (13).

各式は、それぞれの方向に白色の画素(画素地=255)が見つかれば「1」となし、見つからなければ「0」となる。   Each expression is “1” if a white pixel (pixel location = 255) is found in each direction, and “0” if not found.

特徴ベクトル要素生成部52は、検知された交点ごとに当該交点から各方向へ延びるフィールドラインの存否に基づいて特徴ベクトル要素を生成する。   The feature vector element generation unit 52 generates a feature vector element for each detected intersection point based on the presence / absence of a field line extending from the intersection point in each direction.

本実施形態では、図7に示したように、交点ごとに各方向へ延びるフィールドラインの存否が、4ビットのバイナリデータで構成される特徴ベクトル要素の各ビットに割り当てられ、例えば、「UP」方向への存否が最上位ビット(MSB1)に割り当てられる。   In the present embodiment, as shown in FIG. 7, the presence / absence of a field line extending in each direction at each intersection is assigned to each bit of a feature vector element composed of 4-bit binary data. For example, “UP” The presence or absence in the direction is assigned to the most significant bit (MSB1).

同様に、「RIGHT」方向への存否がMSB2に割り当てられ、「DOWN」方向への存否がMSB3に割り当てられ、「LEFT」方向への存否が最下位ビット(MSB4)に割り当てられる。そして、各ビットに対して、フィールドラインが存在していれば「1」、存在していなければ「0」がセットされる。したがって、図7,8に示したように、「UP」方向へ延びる垂直フィールドラインと「LEFT」方向へ延びる垂直フィールドラインとが検知されている交点の特徴ベクトル要素は"1001"となる。   Similarly, presence / absence in the “RIGHT” direction is assigned to MSB2, presence / absence in the “DOWN” direction is assigned to MSB3, and presence / absence in the “LEFT” direction is assigned to the least significant bit (MSB4). For each bit, “1” is set if the field line exists, and “0” is set if it does not exist. Therefore, as shown in FIGS. 7 and 8, the feature vector element of the intersection where the vertical field line extending in the “UP” direction and the vertical field line extending in the “LEFT” direction is detected is “1001”.

カメラ交点特徴ベクトル生成部53は、各交点の特徴ベクトル要素を所定の順序、例えば図9に示したようなラスタスキャンの順序で一次元に配列してカメラ交点特徴ベクトルVcを生成する。したがって、図9の例ではカメラ交点特徴ベクトルVcは次式(14)のようになる。   The camera intersection feature vector generation unit 53 generates the camera intersection feature vector Vc by arranging the feature vector elements at each intersection in a predetermined order, for example, the raster scan order as shown in FIG. Therefore, in the example of FIG. 9, the camera intersection feature vector Vc is expressed by the following equation (14).

図1へ戻り、モデル交点特徴ベクトル要素記憶部60には、フィールドモデルの各フィールドラインの交点ごとに当該交点を通るフィールドラインの数および方向に基づいて予め上記と同様の手順で生成された特徴ベクトル要素が記憶されている。   Returning to FIG. 1, in the model intersection feature vector element storage unit 60, a feature generated in advance by the same procedure as described above based on the number and direction of the field lines passing through the intersection for each field line intersection of the field model. Vector elements are stored.

対応点設定部70において、マッチング候補抽出部71は、カメラ交点特徴ベクトルVcの各特徴ベクトル要素に係る交点を定義した水平フィールドラインLHおよび垂直フィールドラインLVの各本数に応じて、カメラ交点特徴ベクトルVcの各特徴ベクトル要素と交点の配列が類似するモデル交点特徴ベクトル要素の組み合わせを抽出する。そして、当該特徴ベクトル要素の組み合わせごとに各特徴ベクトル要素を配列して複数のモデル交点特徴ベクトルVmを生成する。 In the corresponding point setting unit 70, the matching candidate extraction unit 71 determines whether the camera intersection point is in accordance with the number of horizontal field lines L H and vertical field lines L V that define the intersection points related to the feature vector elements of the camera intersection feature vector Vc. A combination of model intersection feature vector elements having a similar intersection array with each feature vector element of the feature vector Vc is extracted. Then, each feature vector element is arranged for each combination of the feature vector elements to generate a plurality of model intersection feature vectors Vm.

マッチング部72は、カメラ交点特徴ベクトルVcと各モデル交点特徴ベクトルVmとの間でマッチングを実行し、類似度が最も高いモデル交点特徴ベクトルVmとカメラ交点特徴ベクトルVcとの対応関係に基づいて対応点を設定する。   The matching unit 72 performs matching between the camera intersection feature vector Vc and each model intersection feature vector Vm, and responds based on the correspondence relationship between the model intersection feature vector Vm having the highest similarity and the camera intersection feature vector Vc. Set a point.

図10は、カメラ交点特徴ベクトルVcとモデル交点特徴ベクトルVmとのマッチング方法を模式的に示した図である。   FIG. 10 is a diagram schematically showing a matching method between the camera intersection feature vector Vc and the model intersection feature vector Vm.

カメラ交点特徴ベクトルVcが、例えば3本の水平フィールドラインLHと2本の垂直フィールドラインLVとの交点に関する6つの特徴ベクトル要素をラスタスキャン順に連結して構成されていると、マッチング候補抽出部71は、Vm要素記憶部60から、フィールドモデルの3本の水平フィールドラインと2本の垂直フィールドラインとの交点、すなわちカメラ画像の交点と配列(水平及び垂直位置)が類似する交点に係る6つの特徴ベクトル要素のセットを全て抽出し、それぞれをラスタスキャン順に連結してモデル交点特徴ベクトルVmを生成する。 If the camera intersection feature vector Vc is composed of, for example, six feature vector elements related to the intersection of three horizontal field lines L H and two vertical field lines L V in the raster scan order, a matching candidate is extracted. The unit 71 relates from the Vm element storage unit 60 to the intersection of the three horizontal field lines and the two vertical field lines of the field model, that is, the intersection of the camera image intersection and the arrangement (horizontal and vertical positions). All sets of six feature vector elements are extracted and connected to each other in raster scan order to generate a model intersection feature vector Vm.

すなわち、図9に示したように、フィールドモデルが6本の水平フィールドラインLHと7本の垂直フィールドラインLVとから構成されていると、6本の水平フィールドラインLHから任意に選択した3本(6C3=20通り)と、7本の垂直フィールドラインLVから任意に選択した2本(7C2=21通り)との各交点に関する6つの特徴ベクトル要素の組み合わせを前記Vm要素記憶部60から取得し、組み合わせごとに6つの特徴ベクトル要素を連結して420個のモデル交点特徴ベクトルVmを生成する。 That is, as shown in FIG. 9, when the field model is composed of six horizontal field lines L H and seven vertical field lines L V , the field model is arbitrarily selected from the six horizontal field lines L H. the aforementioned three (the ways 6 C 3 = 20) was a combination of six of the feature vector element for each intersection of the two selected arbitrarily from seven vertical field lines L V (7 C 2 = 21 ways) Acquired from the Vm element storage unit 60 and connects six feature vector elements for each combination to generate 420 model intersection feature vectors Vm.

マッチング部72は、カメラ交点特徴ベクトルVcと各モデル交点特徴ベクトルVmとのハミング距離Dをそれぞれ求める。そして、全ての組み合わせについてハミング距離Dが求まると、その中で最小のハミング距離Dを与えるモデル交点特徴ベクトルVmとカメラ交点特徴ベクトルVcとの対応する交点が対応点として登録される。   The matching unit 72 obtains the Hamming distance D between the camera intersection feature vector Vc and each model intersection feature vector Vm. When the hamming distance D is obtained for all the combinations, the corresponding intersection of the model intersection feature vector Vm and the camera intersection feature vector Vc that gives the minimum hamming distance D is registered as a corresponding point.

なお、図12に示したように、検出された交点Pに、カメラ画像の範囲から外れて見えない(インビジブル)交点が含まれていると、カメラ交点特徴ベクトルVcの対応する交点部分には特徴ベクトル要素が生成されない。   As shown in FIG. 12, if the detected intersection P includes an invisible intersection that is outside the range of the camera image, the corresponding intersection portion of the camera intersection feature vector Vc has a feature. Vector elements are not generated.

本実施形態では、このような場合も想定し、カメラ交点特徴ベクトルVcがインビジブルな交点(符号?で代表)を含み、4ビットの特徴ベクトル要素vが設定されていない場合には、モデル交点特徴ベクトルVmにおいて対応する交点の4ビット値をコピーすることでカメラ交点特徴ベクトルVcを補間する。そして、補間後のカメラ交点特徴ベクトルVcとモデル交点特徴ベクトルVmとに基づいてハミング距離Dを計算する。   In the present embodiment, assuming such a case, if the camera intersection feature vector Vc includes an invisible intersection (represented by a symbol?) And the 4-bit feature vector element v is not set, the model intersection feature The camera intersection feature vector Vc is interpolated by copying the 4-bit value of the corresponding intersection in the vector Vm. Then, the Hamming distance D is calculated based on the camera intersection feature vector Vc and the model intersection feature vector Vm after interpolation.

図1へ戻り、ホモグラフィ行列決定部80は、少なくとも4つの対応点に基づいてホモグラフィ行列を決定する。カメラパラメータ計算部90は、前記決定されたホモグラフィ行列とカメラの内部パラメータとに基づいてカメラキャリブレーション行列を計算する。   Returning to FIG. 1, the homography matrix determination unit 80 determines a homography matrix based on at least four corresponding points. The camera parameter calculation unit 90 calculates a camera calibration matrix based on the determined homography matrix and camera internal parameters.

図13は、本発明の第2実施形態の構成を示した機能ブロック図であり、上記と同一の符号は同一又は同等部分を表している。本実施形態は、複数のホモグラフィ行列を評価して、いずれか一のホモグラフィ行列を選択するホモグラフィ行列評価部110を設けた点に特徴がある。   FIG. 13 is a functional block diagram showing the configuration of the second embodiment of the present invention, and the same reference numerals as those described above represent the same or equivalent parts. The present embodiment is characterized in that a homography matrix evaluation unit 110 that evaluates a plurality of homography matrices and selects any one of the homography matrices is provided.

上記の第1実施形態では、カメラ交点特徴ベクトルVcと複数のモデル交点特徴ベクトルVmとのマッチング結果に基づいて最尤のモデル交点特徴ベクトルVmを一つだけ求め、その対応点に基づいてホモグラフィ行列を求めるものとして説明したが、本実施形態では、前記対応点設定部70がハミング距離Dの小さい上位Nベストのモデル交点特徴ベクトルVmを抽出する。   In the first embodiment, only one maximum likelihood model intersection feature vector Vm is obtained based on the matching result between the camera intersection feature vector Vc and the plurality of model intersection feature vectors Vm, and the homography is obtained based on the corresponding points. In the present embodiment, the corresponding point setting unit 70 extracts the top N best model intersection feature vector Vm having a small Hamming distance D.

前記ホモグラフィ行列決定部80は、上位Nベストのモデル交点特徴ベクトルVmに関する対応点セットごとにホモグラフィ行列を計算することでN個のホモグラフィ行列を生成し、モグラフィ行列評価部110は、N個のホモグラフィ行列の中から最尤のモグラフィ行列を選択する。   The homography matrix determination unit 80 generates N homography matrices by calculating a homography matrix for each corresponding point set related to the top N best model intersection feature vector Vm. The most likely mammography matrix is selected from the homography matrices.

ホモグラフィ行列の評価、検証に関しては逆投影が効果的な方法として知られている。しかしながら、特に固定されていないカメラ(パンチルトズーム)の場合には評価に相応の時間が必要となる。そこで、本実施形態では、逆投影手法よりもはるかに簡単で高速な新しい検証方法を新規に採用している
図14は、前記ホモグラフィ行列評価部110によるホモグラフィ行列の評価方法を示した図である。
Back projection is known as an effective method for evaluating and verifying a homography matrix. However, in the case of a camera that is not particularly fixed (pan / tilt / zoom), an appropriate time is required for evaluation. Therefore, in this embodiment, a new verification method that is much simpler and faster than the back projection method is newly adopted. FIG. 14 is a diagram showing a homography matrix evaluation method performed by the homography matrix evaluation unit 110. It is.

本実施形態では、初めにn番目のフレーム画像にホモグラフィ行列を適用してカメラポイント(M,N)が推定される。次いで、m番目のフレーム画像にホモグラフィ行列を適用してカメラポイント(M',N')が推定される。そして、カメラポイント(M,N),(M',N')を比較することで当該ホモグラフィ行列が評価される。   In this embodiment, first, a camera point (M, N) is estimated by applying a homography matrix to the nth frame image. Next, a camera point (M ′, N ′) is estimated by applying a homography matrix to the m-th frame image. Then, the homography matrix is evaluated by comparing the camera points (M, N) and (M ′, N ′).

図15は、ホモグラフィ行列の評価手順を示したフローチャートであり、ステップS1では、n番目のフレーム画像上で2つの境界線が選択される。ここでは、左側境界線W1Lおよび右側境界線W1Rが選択されたものとして説明する。 FIG. 15 is a flowchart showing a homography matrix evaluation procedure. In step S1, two boundary lines are selected on the nth frame image. Here, description will be made assuming that the left boundary line W 1L and the right boundary line W 1R are selected.

ステップS2では、前記抽出されているホモグラフィ行列を用いて各境界線W1L,W1Rがフィールドモデルに投影される。ステップS3では、投影された2つの線分W1l,W1rの交点座標を求め、これが基準カメラポイント(M,N)として登録される。 In step S2, the boundary lines W 1L and W 1R are projected onto the field model using the extracted homography matrix. In step S3, the intersection coordinates of the two projected line segments W 1l and W 1r are obtained and registered as reference camera points (M, N).

ステップS4では、m番目のフレーム画像上で選択された2つの境界線W2Lおよび右側境界線W2Rを対象に上記と同様の処理が実行されてカメラポイント(M',N')が登録される。ステップS5では、次式に基づいて各カメラポイント(M,N),(M',N')の変位θが計算される。 In step S4, the same processing as described above is executed for the two boundary lines W 2L and the right boundary line W 2R selected on the mth frame image, and camera points (M ′, N ′) are registered. The In step S5, the displacement θ of each camera point (M, N), (M ′, N ′) is calculated based on the following equation.

ステップS6では、前記Nベストの各ホモグラフィ行列を用いて計算された各変位θが比較され、最小の変位θを与えるホモグラフィ行列が最尤のホモグラフィ行列として選択される。   In step S6, the displacements θ calculated using the N best homography matrices are compared, and the homography matrix that gives the minimum displacement θ is selected as the maximum likelihood homography matrix.

本実施形態によれば、全体として、固定されていないカメラは、上記の方法を使用することによって、自動的、堅牢かつ迅速に評価することができる。
また、上記のようにして計算された最尤のホモグラフィ行列は、図16に示したように、互いに遠く離れた2つのカメラcam1,cam2を較正するためにも使用することができる。通常、2つのカメラ間の較正は、特徴点の検出およびマッチングを使用することで実現される。しかしながら、2つのカメラcam1,cam2間のベースラインが大きいと較正精度が低くなり、あるいは較正できない場合もある。
According to this embodiment, as a whole, an unfixed camera can be evaluated automatically, robustly and quickly by using the method described above.
The maximum likelihood homography matrix calculated as described above can also be used to calibrate two cameras cam1 and cam2 that are far away from each other, as shown in FIG. Usually, calibration between two cameras is achieved by using feature point detection and matching. However, if the baseline between the two cameras cam1 and cam2 is large, the calibration accuracy may be low, or calibration may not be possible.

そこで、本発明ではフィールドモデルベースの較正方法として、cam1とcam2をリンクするブリッジを提供する。具体的には、各カメラcam1,cam2についてフィールドモデルに関するホモグラフィ行列H(1),H(2)を計算し、次式(16)でカメラCam1,Cam2間のホモグラフィ行列を計算する。 Therefore, the present invention provides a bridge that links cam1 and cam2 as a field model-based calibration method. Specifically, the homography matrices H (1) and H (2) related to the field model are calculated for each camera cam1 and cam2, and the homography matrix between the cameras Cam1 and Cam2 is calculated by the following equation (16).

なお、上記の各実施形態では、予めフィールド画像からフィールドラインを抽出して水平フィールドラインLHおよび垂直フィールドラインLVを抽出し、各水平フィールドラインLHと各垂直フィールドラインLVとの交点を検出したが、本発明はこれのみに限定されるものではなく、フィールド線画像とフィールドモデルの特徴点をそれぞれSIFTなどの周知の特徴検出法を用いて検出し、検出した特徴点をフィールド線の交点とみなすようにしても良い。 In each embodiment described above, extracts the horizontal field lines L H and vertical field lines L V by extracting field lines from pre-field image, the intersection between the horizontal field lines L H and the vertical field lines L V However, the present invention is not limited to this. The feature points of the field line image and the field model are detected using a well-known feature detection method such as SIFT, and the detected feature points are detected as field lines. It may be considered as an intersection of.

10…フィールドグラウンド画像抽出部,20…フィールドライン画像抽出部,30…フィールドライン解析部,31…セグメント検知部,32…セグメントパラメータ計算部,33…ラインプルーニング部,34…ライン分類部,35…ソート部,40…交点検出部,50…ベクトル情報生成部,51…ライン方向分析部,52…特徴ベクトル要素生成部,53…カメラ交点特徴ベクトル(Vc)生成部,60…Vm要素記憶部,70…対応点設定部,71…マッチング候補抽出部,72…マッチング部,80…ホモグラフィ行列決定部,90…カメラパラメータ計算部,100…ルックアップテーブル(LUT),110…ホモグラフィ行列評価部   DESCRIPTION OF SYMBOLS 10 ... Field ground image extraction part, 20 ... Field line image extraction part, 30 ... Field line analysis part, 31 ... Segment detection part, 32 ... Segment parameter calculation part, 33 ... Line pruning part, 34 ... Line classification part, 35 ... Sorting unit, 40 ... intersection detection unit, 50 ... vector information generation unit, 51 ... line direction analysis unit, 52 ... feature vector element generation unit, 53 ... camera intersection point feature vector (Vc) generation unit, 60 ... Vm element storage unit, DESCRIPTION OF SYMBOLS 70 ... Corresponding point setting part, 71 ... Matching candidate extraction part, 72 ... Matching part, 80 ... Homography matrix determination part, 90 ... Camera parameter calculation part, 100 ... Look-up table (LUT), 110 ... Homography matrix evaluation part

Claims (14)

フィールドモデルとカメラ画像との間のホモグラフィ行列に基づいてカメラキャリブレーションを行う装置において、
カメラ画像からフィールドラインを抽出する手段と、
フィールドラインの交点を計算する手段と、
前記交点ごとに当該交点を通るフィールドラインの数および向きに基づいてカメラ交点特徴ベクトル要素を生成する手段と、
各カメラ交点特徴ベクトル要素を所定の順序で配列してカメラ交点特徴ベクトルVcを生成する手段と、
フィールドモデルの各フィールドラインの交点ごとにモデル交点特徴ベクトル要素を生成する手段と、
カメラ交点特徴ベクトルVcの各カメラ交点特徴ベクトル要素と交点の配列が類似するモデル交点特徴ベクトル要素の組み合わせごとに当該各モデル交点特徴ベクトル要素を前記所定の順序で配列して複数のモデル交点特徴ベクトルVmを生成する手段と、
前記カメラ交点特徴ベクトルVcと各モデル交点特徴ベクトルVmとを比較して類似度の高いモデル交点特徴ベクトルVmを抽出する手段と、
前記類似度の高いモデル交点特徴ベクトルVmとカメラ交点特徴ベクトルVcとの対応関係に基づいて対応点を設定する手段と、
前記対応点に基づいてホモグラフィ行列を計算する手段とを具備したことを特徴とするカメラキャリブレーション装置。
In a device that performs camera calibration based on a homography matrix between a field model and a camera image,
Means for extracting a field line from a camera image;
Means for calculating the intersection of the field lines;
Means for generating a camera intersection feature vector element based on the number and orientation of field lines passing through the intersection for each intersection;
Means for arranging each camera intersection feature vector element in a predetermined order to generate a camera intersection feature vector Vc;
Means for generating a model intersection feature vector element for each intersection of each field line of the field model;
Each model intersection feature vector element is arranged in the predetermined order for each combination of model intersection feature vector elements whose intersections are similar to each camera intersection feature vector element of the camera intersection feature vector Vc, and a plurality of model intersection feature vectors Means for generating Vm;
Means for comparing the camera intersection feature vector Vc and each model intersection feature vector Vm to extract a model intersection feature vector Vm having a high degree of similarity;
Means for setting corresponding points based on the corresponding relationship between the model intersection feature vector Vm having a high similarity and the camera intersection feature vector Vc;
And a means for calculating a homography matrix based on the corresponding points.
前記モデル交点特徴ベクトルVmを生成する手段は、類似度の高い上位Nベストのモデル交点特徴ベクトルVmを抽出し、
前記Nベストのモデル交点特徴ベクトルVmを評価する手段を具備し、
最も評価の高いモデル交点特徴ベクトルVmにおける対応点に基づいてホモグラフィ行列を計算することを特徴とする請求項1に記載のカメラキャリブレーション装置。
The means for generating the model intersection feature vector Vm extracts the top N best model intersection feature vector Vm having a high similarity,
Means for evaluating the N-best model intersection feature vector Vm;
The camera calibration apparatus according to claim 1, wherein a homography matrix is calculated based on corresponding points in the model intersection feature vector Vm having the highest evaluation.
前記評価する手段は、
フレーム画像の左右の境界線を各ホモグラフィ行列でフィールドモデルに投影して各対応する線分を求める手段と、
前記各対応する線分の交点をカメラポイントとして登録する手段と、
n番目のフレーム画像に基づいて登録されたカメラポイントとm番目のフレーム画像に基づいて登録されたカメラポイントとの変位を計算する手段とを具備し、
前記変位が最小値を示すホモグラフィ行列の評価を最も高くすることを特徴とする請求項2に記載のカメラキャリブレーション装置。
The means for evaluating is
Means for determining the corresponding line segment by projecting the left and right boundary lines of the frame image onto the field model with each homography matrix;
Means for registering the intersection of each corresponding line segment as a camera point;
means for calculating a displacement between a camera point registered based on the nth frame image and a camera point registered based on the mth frame image;
The camera calibration apparatus according to claim 2, wherein evaluation of a homography matrix in which the displacement has a minimum value is made highest.
前記モデル交点特徴ベクトルVmを生成する手段は、カメラ画像の各交点を計算する各フィールドラインに対応するフィールドモデル上の各フィールドラインの組み合わせ候補ごとに計算されるモデル交点特徴ベクトル要素に基づいてモデル交点特徴ベクトルVmを生成することを特徴とする請求項1ないし3のいずれかに記載のカメラキャリブレーション装置。   The means for generating the model intersection feature vector Vm is a model based on a model intersection feature vector element calculated for each combination of field lines on the field model corresponding to each field line for calculating each intersection of the camera image. 4. The camera calibration apparatus according to claim 1, wherein an intersection feature vector Vm is generated. 前記各特徴ベクトル要素が、各交点から延びるフィールドラインの向きの数をビット長とするバイナリデータであり、各方向に延びるフィールドラインが抽出されたか否かに応じて各ビット値が2値のいずれかに設定されることを特徴とする請求項1ないし4のいずれかに記載のカメラキャリブレーション装置。   Each feature vector element is binary data whose bit length is the number of field lines extending from each intersection, and each bit value is binary depending on whether or not a field line extending in each direction is extracted. The camera calibration apparatus according to claim 1, wherein the camera calibration apparatus is set to be either. 前記各特徴ベクトル要素が4ビットのバイナリデータであり、各ビット位置には各交点から延びる相互に直行する4方向のそれぞれが対応付けられたことを特徴とする請求項5に記載のカメラキャリブレーション装置。   6. The camera calibration according to claim 5, wherein each of the feature vector elements is binary data of 4 bits, and each bit position is associated with each of four directions extending from each intersection and orthogonal to each other. apparatus. 前記カメラ交点特徴ベクトル要素を生成する手段は、カメラ画像上で各交点から各方向に所定範囲内でフィールドライン画素の探索を繰り返して発見数を積算し、積算値が所定の閾値を超えると当該方向にフィールドラインが延びている判別することを特徴とする請求項5または6に記載のカメラキャリブレーション装置。   The means for generating the camera intersection feature vector element repeats the search for field line pixels within a predetermined range in each direction from each intersection on the camera image, integrates the number of discoveries, and if the integrated value exceeds a predetermined threshold, 7. The camera calibration apparatus according to claim 5, wherein a field line is determined to extend in a direction. 前記カメラ交点特徴ベクトル要素を生成する手段は、フィールドライン画素の発見率の少ない向きの探索を途中で中断することを特徴とする請求項7に記載のカメラキャリブレーション装置。   8. The camera calibration apparatus according to claim 7, wherein the means for generating the camera intersection feature vector element interrupts a search in a direction with a low discovery rate of field line pixels. 前記フィールドラインを抽出する手段が、抽出された各フィールドラインを垂直フィールドラインおよび水平フィールドラインのいずれかに分類する手段を具備し、
前記交点を計算する手段は、各垂直フィールドラインと各水平フィールドラインとの交点を計算することを特徴とする請求項1ないし8のいずれかに記載のカメラキャリブレーション装置。
The means for extracting the field lines comprises means for classifying each extracted field line into either a vertical field line or a horizontal field line;
9. The camera calibration apparatus according to claim 1, wherein the means for calculating the intersection calculates an intersection between each vertical field line and each horizontal field line.
前記カメラ交点特徴ベクトルVcを生成する手段は、各交点のカメラ交点特徴ベクトル要素を当該各交点がラスタスキャンされる順序で配列してカメラ交点特徴ベクトルVcとすることを特徴とする請求項1ないし9のいずれかに記載のカメラキャリブレーション装置。   The means for generating the camera intersection feature vector Vc arranges the camera intersection feature vector elements of each intersection in the order in which the intersections are raster-scanned to form a camera intersection feature vector Vc. The camera calibration device according to any one of 9. 前記モデル交点特徴ベクトルVmを抽出する手段は、前記カメラ交点特徴ベクトルVcと各モデル交点特徴ベクトルVmとのハミング距離Dを求め、当該ハミング距離Dが最小となるモデル交点特徴ベクトルVmを抽出することを特徴とする請求項1ないし10のいずれかに記載のカメラキャリブレーション装置。   The means for extracting the model intersection feature vector Vm obtains a Hamming distance D between the camera intersection feature vector Vc and each model intersection feature vector Vm, and extracts a model intersection feature vector Vm that minimizes the Hamming distance D. The camera calibration device according to claim 1, wherein: 前記モデル交点特徴ベクトルVmを抽出する手段は、カメラ画像から抽出されたフィールドラインの交点にカメラ画像上で見えない交点が含まれていると、前記カメラ交点特徴ベクトルVcの当該見えない交点の特徴ベクトル要素の部分に、比較するモデル交点特徴ベクトルVmの対応する交点の特徴ベクトル要素をコピーすることを特徴とする請求項1ないし11のいずれかに記載のカメラキャリブレーション装置。   The means for extracting the model intersection feature vector Vm is a feature of the invisible intersection of the camera intersection feature vector Vc when an intersection that is not visible on the camera image is included in the intersection of the field lines extracted from the camera image. 12. The camera calibration apparatus according to claim 1, wherein a feature vector element of an intersection corresponding to a model intersection feature vector Vm to be compared is copied to a vector element portion. フィールドのモデルとカメラ画像との間のホモグラフィ行列に基づいてカメラキャリブレーションを行う方法において、
カメラ画像からフィールドラインを抽出し、
フィールドラインの交点を計算し、
前記交点ごとに当該交点を通るフィールドラインの数および向きに基づいて特徴ベクトル要素を生成し、
前記各特徴点の特徴ベクトル要素を所定の順序で配列してカメラ交点特徴ベクトルVcを生成し、
フィールドモデルの各フィールドラインの交点ごとにモデル交点特徴ベクトル要素を生成し、
カメラ交点特徴ベクトルVcの各カメラ交点特徴ベクトル要素と交点の配列が類似するモデル交点特徴ベクトル要素の組み合わせごとに当該各モデル交点特徴ベクトル要素を前記所定の順序で配列して複数のモデル交点特徴ベクトルVmを生成し、
前記カメラ交点特徴ベクトルVcとの類似度の高いモデル交点特徴ベクトルVmとカメラ交点特徴ベクトルVcとの対応関係に基づいて対応点を設定し、
前記対応点に基づいてホモグラフィ行列を計算することを特徴とするカメラキャリブレーション方法。
In a method for performing camera calibration based on a homography matrix between a model of a field and a camera image,
Extract field lines from camera images,
Calculate the intersection of the field lines,
Generating feature vector elements for each intersection based on the number and orientation of field lines passing through the intersection;
A feature vector element of each feature point is arranged in a predetermined order to generate a camera intersection feature vector Vc,
Generate model intersection feature vector elements for each field line intersection in the field model,
Each model intersection feature vector element is arranged in the predetermined order for each combination of model intersection feature vector elements whose intersections are similar to each camera intersection feature vector element of the camera intersection feature vector Vc, and a plurality of model intersection feature vectors Generate Vm
A corresponding point is set based on a correspondence relationship between the model intersection feature vector Vm and the camera intersection feature vector Vc having a high similarity with the camera intersection feature vector Vc,
A camera calibration method, wherein a homography matrix is calculated based on the corresponding points.
フィールドのモデルとカメラ画像との間のホモグラフィ行列に基づいてカメラキャリブレーションを行う方法において、
カメラ画像からフィールドラインを抽出する手順と、
フィールドラインの交点を計算する手順と、
前記交点ごとに当該交点を通るフィールドラインの数および向きに基づいて特徴ベクトル要素を生成する手順と、
前記各特徴点の特徴ベクトル要素を所定の順序で配列してカメラ交点特徴ベクトルVcを生成する手順と、
フィールドモデルの各フィールドラインの交点ごとにモデル交点特徴ベクトル要素を生成する手順と、
カメラ交点特徴ベクトルVcの各カメラ交点特徴ベクトル要素と交点の配列が類似するモデル交点特徴ベクトル要素の組み合わせごとに当該各モデル交点特徴ベクトル要素を前記所定の順序で配列して複数のモデル交点特徴ベクトルVmを生成する手順と、
前記カメラ交点特徴ベクトルVcとの類似度の高いモデル交点特徴ベクトルVmとカメラ交点特徴ベクトルVcとの対応関係に基づいて対応点を設定する手順ち、
前記対応点に基づいてホモグラフィ行列を計算する手順とを、コンピュータに実行させるカメラキャリブレーションプログラム。
In a method for performing camera calibration based on a homography matrix between a model of a field and a camera image,
The procedure to extract the field line from the camera image;
The procedure to calculate the intersection of the field lines;
Generating a feature vector element for each intersection based on the number and orientation of field lines passing through the intersection;
A procedure for generating the camera intersection feature vector Vc by arranging the feature vector elements of the feature points in a predetermined order;
A procedure for generating a model intersection feature vector element for each intersection of each field line of the field model;
Each model intersection feature vector element is arranged in the predetermined order for each combination of model intersection feature vector elements whose intersections are similar to each camera intersection feature vector element of the camera intersection feature vector Vc, and a plurality of model intersection feature vectors The steps to generate Vm,
A procedure for setting corresponding points based on the correspondence between the model intersection feature vector Vm and the camera intersection feature vector Vc having a high degree of similarity with the camera intersection feature vector Vc;
A camera calibration program for causing a computer to execute a procedure for calculating a homography matrix based on the corresponding points.
JP2017031987A 2017-02-23 2017-02-23 Camera calibration method, program and device Expired - Fee Related JP6738293B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017031987A JP6738293B2 (en) 2017-02-23 2017-02-23 Camera calibration method, program and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017031987A JP6738293B2 (en) 2017-02-23 2017-02-23 Camera calibration method, program and device

Publications (2)

Publication Number Publication Date
JP2018137667A true JP2018137667A (en) 2018-08-30
JP6738293B2 JP6738293B2 (en) 2020-08-12

Family

ID=63365851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017031987A Expired - Fee Related JP6738293B2 (en) 2017-02-23 2017-02-23 Camera calibration method, program and device

Country Status (1)

Country Link
JP (1) JP6738293B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021118516A (en) * 2020-01-29 2021-08-10 Kddi株式会社 Intersection detection method and device and camera calibration device
CN114399555A (en) * 2021-12-20 2022-04-26 禾多科技(北京)有限公司 Data online calibration method and device, electronic equipment and computer readable medium
JP2022528301A (en) * 2020-03-13 2022-06-10 シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド Calibration method, positioning method, equipment, electronic devices and storage media

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021118516A (en) * 2020-01-29 2021-08-10 Kddi株式会社 Intersection detection method and device and camera calibration device
JP7198233B2 (en) 2020-01-29 2022-12-28 Kddi株式会社 INTERSECTION DETECTION METHOD AND DEVICE AND CAMERA CALIBRATION DEVICE
JP2022528301A (en) * 2020-03-13 2022-06-10 シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド Calibration method, positioning method, equipment, electronic devices and storage media
CN114399555A (en) * 2021-12-20 2022-04-26 禾多科技(北京)有限公司 Data online calibration method and device, electronic equipment and computer readable medium
CN114399555B (en) * 2021-12-20 2022-11-11 禾多科技(北京)有限公司 Data online calibration method and device, electronic equipment and computer readable medium

Also Published As

Publication number Publication date
JP6738293B2 (en) 2020-08-12

Similar Documents

Publication Publication Date Title
US11922615B2 (en) Information processing device, information processing method, and storage medium
US8693785B2 (en) Image matching devices and image matching methods thereof
CN110678901A (en) Information processing apparatus, information processing method, and program
CN114119751A (en) Method and system for large scale determination of RGBD camera poses
EP3093822B1 (en) Displaying a target object imaged in a moving picture
JP6738293B2 (en) Camera calibration method, program and device
US20230095142A1 (en) Method and apparatus for improving object image
JP2021108193A (en) Image processing device, image processing method, and program
JP6110174B2 (en) Image detection apparatus, control program, and image detection method
US8164633B2 (en) Calibration apparatus and method for imaging devices and computer program
JP7165353B2 (en) Image feature output device, image recognition device, image feature output program, and image recognition program
JP2018092354A (en) Object detection apparatus and method for detecting objects
JP6661082B2 (en) Image recognition device and image recognition program
JP4165571B2 (en) Image processing apparatus and method, and program
JP6717769B2 (en) Information processing device and program
KR102637913B1 (en) Method and apparatus for composing images
JP6542407B1 (en) Reading system, reading method, program, and storage medium
JP2018022416A (en) Face direction estimation apparatus and program thereof
CN109977740B (en) Depth map-based hand tracking method
JP2011113177A (en) Method and program for structuring three-dimensional object model
KR101636481B1 (en) Method And Apparatus for Generating Compound View Image
JP2012226403A (en) Image area tracking device, image area tracking method, and computer program
CN111047604B (en) Transparency mask extraction method and device for high-definition image and storage medium
KR102513220B1 (en) Adjacent camera recognition system and method between multiple cameras for 3D image
JP7297720B2 (en) Camera calibration method, apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191030

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200507

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200717

R150 Certificate of patent or registration of utility model

Ref document number: 6738293

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees