JP2010187130A - Camera calibrating device, camera calibration method, camera calibration program, and recording medium having the program recorded therein - Google Patents

Camera calibrating device, camera calibration method, camera calibration program, and recording medium having the program recorded therein Download PDF

Info

Publication number
JP2010187130A
JP2010187130A JP2009029082A JP2009029082A JP2010187130A JP 2010187130 A JP2010187130 A JP 2010187130A JP 2009029082 A JP2009029082 A JP 2009029082A JP 2009029082 A JP2009029082 A JP 2009029082A JP 2010187130 A JP2010187130 A JP 2010187130A
Authority
JP
Japan
Prior art keywords
camera
image
state
camera calibration
internal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009029082A
Other languages
Japanese (ja)
Inventor
Tatsuya Osawa
達哉 大澤
Hiroyuki Arai
啓之 新井
Hideki Koike
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009029082A priority Critical patent/JP2010187130A/en
Publication of JP2010187130A publication Critical patent/JP2010187130A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To facilitate measurement of internal and external parameters of a camera. <P>SOLUTION: A silhouette image creation means 12 creates a silhouette image resulting from extracting an area of an object from an image inputted from an image acquisition means 11 like a camera. A parameter estimation means 14 selects a preliminarily prepared change type of the object in accordance with an arbitrary probability and generates a state candidate according with the selected change type. A simulation image is created by projecting the silhouette image on a virtual camera having the same camera internal and external parameters as the generated state candidate on the basis of the state candidate and simulating the silhouette image. An evaluation value is obtained which results from product operation between a result of comparison between both images and a determination result of likelihood of the object itself based on prior knowledge. It is determined whether the state candidate can be accepted as the final change state or not in accordance with the evaluation value. Internal and external parameters of the camera are estimated from the accepted change state. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、人物・動物を含む物体をカメラで撮影した画像を利用してカメラの内部・外部パラメータを推定する技術に関する。   The present invention relates to a technique for estimating internal and external parameters of a camera using an image obtained by photographing an object including a person / animal with a camera.

コンピュータビジョン分野では、カメラの撮影情報を利用して人物などの動く対象の追跡に関する研究が多く行われている。この人物追跡技術は、主に映像監視技術などに応用されている。ここでは例えば次の処理が実現されている。   In the field of computer vision, much research has been conducted on tracking moving objects such as people using camera information. This person tracking technology is mainly applied to video surveillance technology and the like. Here, for example, the following processing is realized.

すなわち、カメラなどの画像取得装置を利用して対象物体を観測し、画像上における対象の領域(シルエット)を抽出したシルエット画像を用意する。予め追跡に利用するカメラの内部・外部パラメータを予め計測して求めておき、三次元空間中に人物モデルを配置し、先に算出したパラメータを持つ仮想のカメラでこのシーンを撮影すると、シルエット画像のシミュレーションを行うことができる。   That is, a target object is observed using an image acquisition device such as a camera, and a silhouette image obtained by extracting a target region (silhouette) on the image is prepared. When the internal and external parameters of the camera used for tracking are measured in advance and obtained, a person model is placed in the three-dimensional space, and this scene is shot with a virtual camera having the previously calculated parameters, a silhouette image is obtained. Can be simulated.

そして、人物モデルに楕円体を用いて生成したシミュレーション画像とシルエット画像を比較することで、複数の人物の追跡を行う方法が提案されている。この一例として非特許文献1の技術が知られている。   A method for tracking a plurality of persons by comparing a simulation image generated using an ellipsoid with a silhouette image and a silhouette image has been proposed. As an example of this, the technique of Non-Patent Document 1 is known.

大澤 達哉,数藤 恭子,新井 啓之,小池 秀樹 “単眼動画像を用いた近接する複数対象の追跡” 信学技報 Vol.108 No.93 2008年6月12日発行 P1〜P6Tatsuya Osawa, Atsuko Kudo, Hiroyuki Arai, Hideki Koike “Tracking multiple adjacent objects using monocular moving images” IEICE Tech. 108 no. 93 Published on June 12, 2008 P1-P6

非特許文献1人物の方法によれば、三次元空間上での位置を直接予測し、予測した結果を実際に設置されているカメラと同じ内部・外部パラメータを持つ仮想のカメラで撮影し、シルエット画像のシミュレーションを行い、実際に撮影された画像と整合性を比較することで、一台のカメラ情報のみを用いて、人物の三次元空間上での位置の追跡が行われる。   According to the method of non-patent document 1, a person directly predicts a position in a three-dimensional space, and captures the predicted result with a virtual camera having the same internal and external parameters as the camera actually installed. By simulating the image and comparing the consistency with the actually captured image, the position of the person in the three-dimensional space is tracked using only one camera information.

しかしながら、シルエット画像のシミュレーションを行うには事前に撮影に用いるカメラの内部・外部パラメータを計測しておく必要がある。ところが、カメラの内部・外部パラメータの計測には専門知識を必要とするので、訓練を受けた熟練者にしか計測ができないおそれがあった。   However, in order to simulate a silhouette image, it is necessary to measure the internal and external parameters of the camera used for shooting in advance. However, since measurement of the internal and external parameters of the camera requires specialized knowledge, there is a possibility that only a trained skilled person can perform the measurement.

本発明は、上述のような従来技術の問題点を解決するためになされたものであり、カメラの内部・外部パラメータを容易に計測可能な技術を提供することを解決課題としている。   The present invention has been made to solve the above-described problems of the prior art, and an object of the present invention is to provide a technique capable of easily measuring internal and external parameters of a camera.

そこで、本発明は、前記課題を解決するために、物体の変化状態(物体数・物体の大きさ・物体の位置)の予測結果を評価することで、カメラの内部・外部パラメータを自動的に推定している。   Therefore, in order to solve the above problems, the present invention automatically evaluates the internal / external parameters of the camera by evaluating the prediction result of the change state of the object (number of objects, size of the object, position of the object). Estimated.

本発明の一態様は、物体の撮影画像から撮影に利用しているカメラの内部・外部パラメータを求めるカメラ校正装置であって、前記カメラの撮影画像から物体の写っている領域を抽出したシルエット画像を作成するシルエット画像作成手段と、前記物体の変化タイプに応じて予測した状態を、前記シルエット画像を利用して評価することで、前記カメラの内部・外部パラメータを推定するパラメータ推定手段と、を備える。   One aspect of the present invention is a camera calibration apparatus for obtaining internal and external parameters of a camera used for photographing from a photographed image of an object, and a silhouette image obtained by extracting a region where an object is photographed from the photographed image of the camera A silhouette image creating means for creating a parameter estimation means for estimating internal and external parameters of the camera by evaluating the predicted state according to the change type of the object using the silhouette image. Prepare.

本発明の他の態様は、物体の撮影画像から撮影に利用しているカメラの内部・外部パラメータを求めるカメラ校正方法であって、シルエット画像作成手段が、前記カメラの撮影画像から物体の写っている領域を抽出したシルエット画像を作成する第1ステップと、パラメータ推定手段が、前記物体の変化タイプに応じて予測した状態を、前記シルエット画像を利用して評価することで、前記カメラの内部・外部パラメータを推定する第2ステップと、を有する。   Another aspect of the present invention is a camera calibration method for obtaining internal and external parameters of a camera used for photographing from a photographed image of an object, wherein the silhouette image creating means captures an object from the photographed image of the camera. A first step of creating a silhouette image in which a region is extracted, and the parameter estimation means evaluates the state predicted according to the change type of the object using the silhouette image, thereby A second step of estimating external parameters.

前記両態様においては、前記物体の状態を、楕円体モデルの集合で表し、モデル頭頂部の画像上での二次元座標値と、頭部に近似する楕円体の短軸と、身体に近似する楕円体の短軸と、身長を示すモデルの高さで人物を表すことが好ましい。   In both aspects, the state of the object is represented by a set of ellipsoidal models, and approximates to the body, the two-dimensional coordinate values on the model top, the short axis of the ellipsoid that approximates the head, and the body. It is preferable to represent the person by the ellipsoidal short axis and the height of the model indicating the height.

なお、本発明は、前記カメラ校正装置としてコンピュータを機能させるプログラムの態様で提供してもよく、また該プログラムを記録した記録媒体の態様で提供してもよい。   The present invention may be provided in the form of a program that causes a computer to function as the camera calibration device, or may be provided in the form of a recording medium on which the program is recorded.

本発明によれば、カメラの内部・外部パラメータが自動的に推定されることから、該パラメータの計測が容易となる。   According to the present invention, since the internal and external parameters of the camera are automatically estimated, it is easy to measure the parameters.

カメラの撮影状況を示す概略図。Schematic which shows the imaging | photography condition of a camera. カメラの位置・姿勢を表す座標図。The coordinate diagram showing the position and orientation of the camera. 三次元モデルを示す楕円体モデルの概略図。Schematic of an ellipsoid model showing a three-dimensional model. 本発明の実施形態に係るカメラ構成装置の構成図。The block diagram of the camera structure apparatus which concerns on embodiment of this invention. 同 カメラ校正装置の処理を示すチャート図。The chart figure which shows the process of the camera calibration apparatus. (a)は入力画像、(b)はシルエット画像。(A) is an input image, (b) is a silhouette image. (a)は入力画像、(b)は垂直エッジ画像、(c)は水平エッジ画像。(A) is an input image, (b) is a vertical edge image, and (c) is a horizontal edge image. 同 パラメータの推定の処理ステップを示すフローチャート。The flowchart which shows the process step of estimation of the parameter. 同 シルエット画像から計算した水平方向の頭部位置の確率分布図。Probability distribution map of horizontal head position calculated from the same silhouette image. 同 エッジ検出画像から計算した垂直方向の頭部位置の確率分布図。The probability distribution map of the head position in the vertical direction calculated from the edge detection image. (a)は実施例の入力画像、(b)は実施例のシルエット画像、(c)は実施例のエッジ画像(水平)、(d)は実施例のエッジ画像(垂直)、(e)は実施例のシミュレーション画像、(f)は実施例で推定された対象の三次元位置(A) is an input image of the embodiment, (b) is a silhouette image of the embodiment, (c) is an edge image (horizontal) of the embodiment, (d) is an edge image (vertical) of the embodiment, and (e) is Simulation image of the example, (f) is the three-dimensional position of the object estimated in the example

(1)基本原理
まず本発明の基本原理を以下に説明する。本発明は、三次元空間中に存在する1又は複数の物体(人物・動物を含む)を撮影することで、各々の物体の変化状態、即ち物体数・物体位置・物体の大きさ、及び撮影に利用した画像取得手段のカメラ内部・外部パラメータを推定している。
(1) Basic Principle First, the basic principle of the present invention will be described below. The present invention captures one or a plurality of objects (including a person / animal) existing in a three-dimensional space, thereby changing the state of each object, that is, the number of objects, the position of the object, the size of the object, and the imaging. The camera internal and external parameters of the image acquisition means used for the estimation are estimated.

ここでは撮影される1又は複数の対象物は同一平面上に存在しているものと仮定する。一例として図1に示すように、平面上を歩行する複数の人物を対象とし、位置と姿勢を固定されたカメラ1(例えばデジタルカメラやビデオカメラなど)を用いてもよい。この場合に三次元空間を定義する座標は任意に設定することが可能であるため、XY平面を人物が歩行している平面とし、Z軸を床面からの高さを表すように設定することが可能である。   Here, it is assumed that one or more objects to be photographed exist on the same plane. As an example, as shown in FIG. 1, a camera 1 (for example, a digital camera or a video camera) that targets a plurality of persons walking on a plane and whose positions and postures are fixed may be used. In this case, the coordinates that define the three-dimensional space can be set arbitrarily, so the XY plane should be the plane on which the person is walking and the Z axis should be set to represent the height from the floor. Is possible.

図2に示すように、X軸およびY軸の原点にカメラ1を置けば、カメラ1の三次元位置は(0,0,Tz)と平面上からの高さを示す一つの変数で表すことができ、またカメラ1の姿勢についてもX軸、Y軸周りの回転角(φ,θ)を用いた二変数で表すことができる。これら3つの変数(Tz,φ,θ)がカメラ1の外部パラメータを示している。   As shown in FIG. 2, if the camera 1 is placed at the origin of the X axis and the Y axis, the three-dimensional position of the camera 1 is represented by (0, 0, Tz) and one variable indicating the height from the plane. The posture of the camera 1 can also be expressed by two variables using rotation angles (φ, θ) around the X axis and the Y axis. These three variables (Tz, φ, θ) indicate the external parameters of the camera 1.

つぎにカメラ1の内部パラメータは、カメラレンズの歪を無視し、投影中心が画像の中心を示していることを仮定すると、レンズの焦点距離fのみで表すことが可能である。   Next, the internal parameters of the camera 1 can be expressed only by the focal length f of the lens, assuming that the distortion of the camera lens is ignored and the projection center indicates the center of the image.

これらカメラ1の内部・外部パラメータを用いると、三次元空間上の点が二次元画像上のどこに投影されるかを計算するのに必要な投影行列Pを、以下の式1により計算することが可能である。この式1において行列Iは3×3の単位行列である。   Using these internal and external parameters of the camera 1, a projection matrix P necessary for calculating where on the two-dimensional image a point on the three-dimensional space is projected can be calculated by the following equation (1). Is possible. In Equation 1, the matrix I is a 3 × 3 unit matrix.

Figure 2010187130
Figure 2010187130

また、対象物体を表すために図3に示すように、2つの楕円体P.Qを用いて人物の形状に近似したモデルを定義した。ここではモデル頭頂部の画像上での二次元座標値(x,y),頭部に近似する楕円体Pの短軸r1,身体に近似する楕円体Qの短軸r2,身長を表すモデルの高さhで人物を表している。なお、前記楕円体Pの長軸と短軸は一定の比率を保っていると考え、長軸半径r=k1×r1とした。ここでk1は任意の定数であり、例えば1.5という数値を使ってもよい。また、前記楕円体Qの長軸に関しても同様に長軸半径r=h−k2×r1とした。k2は任意の定数であり、例えば1.2という数値を使ってもよい。   In order to represent the target object, as shown in FIG. A model approximating the shape of a person was defined using Q. Here, the model represents the two-dimensional coordinate value (x, y) on the image of the top of the model, the short axis r2 of the ellipsoid P approximating the head, the short axis r2 of the ellipsoid Q approximating the body, and the height. A person is represented by a height h. The major axis and the minor axis of the ellipsoid P are considered to maintain a constant ratio, and the major axis radius r = k1 × r1. Here, k1 is an arbitrary constant, and for example, a numerical value of 1.5 may be used. Similarly, the major axis radius of the ellipsoid Q is set to r = h−k2 × r1. k2 is an arbitrary constant, and for example, a numerical value of 1.2 may be used.

したがって、一人の人物の状態は、(x,y,r1,r2,h)の5つのパラメータにより表すことができる。また、複数の人物の状態を表す対象状態は、各人物の位置、大きさを表すベクトルM(人物モデル)を並べたものによって表すことも可能である。すなわち、カメラ1の内部・外部パラメータと複数の人物の状態を含んだ状態Sは、以下の式2で表される。   Therefore, the state of one person can be expressed by five parameters (x, y, r1, r2, h). The target state representing the states of a plurality of persons can also be represented by arranging vectors M (person models) representing the positions and sizes of the persons. That is, the state S including the internal / external parameters of the camera 1 and the states of a plurality of persons is expressed by the following Expression 2.

Figure 2010187130
Figure 2010187130

ここで状態Sを構成する人物kの位置、大きさ、形を表す人物モデルMkは、以下の式3で表される5次元ベクトルである。 Here, the person model M k representing the position, size, and shape of the person k constituting the state S is a five-dimensional vector represented by the following Expression 3.

Figure 2010187130
Figure 2010187130

ただし、ここで人物モデルMkを構成する5つのパラメータは、前述の人物の形状を近似したモデルのパラメータである。 Here, the five parameters constituting the person model M k are parameters of a model that approximates the shape of the person described above.

以上により、もしカメラ1の内部・外部パラメータおよび複数の対象の状態を含む状態Sが既知であるならば、非特許文献1の方法と同様にしてシルエット画像のシミュレーションを行うことが可能であることは自明である。   As described above, if the state S including the internal / external parameters of the camera 1 and the states of a plurality of objects is known, it is possible to simulate a silhouette image in the same manner as in the method of Non-Patent Document 1. Is self-explanatory.

本発明は、この状態Sを予測し、シルエット画像のシミュレーションを行い、実際のシルエット画像と比較し、整合性を評価することで、予測された状態Sの評価を行う。   The present invention evaluates the predicted state S by predicting the state S, simulating a silhouette image, comparing it with an actual silhouette image, and evaluating consistency.

本発明の基本原理は、以上の処理を確率統計状態分布推定法の一種であるMCMC(Markov Chain Monte Carlo)法を用いることで、正しいパラメータの組み合わせを表す状態Sを推定することである。この基本原理は、本発明の実施形態に係るカメラ校正装置に反映されている。   The basic principle of the present invention is to estimate a state S representing a correct combination of parameters by using the MCMC (Markov Chain Monte Carlo) method which is a kind of probability statistical state distribution estimation method for the above processing. This basic principle is reflected in the camera calibration apparatus according to the embodiment of the present invention.

(2)具体的な実施形態
つぎに図4〜図10に基づき本発明の実施形態を説明する。図4は、本発明の実施形態に係るカメラ構成装置10の構成例を示している。このカメラ構成装置10は、物体の画像を取得する画像取得手段11とネットワーク接続されているものとする。
(2) Specific Embodiment Next, an embodiment of the present invention will be described with reference to FIGS. FIG. 4 shows a configuration example of the camera configuration device 10 according to the embodiment of the present invention. Assume that this camera configuration apparatus 10 is connected to an image acquisition unit 11 that acquires an image of an object via a network.

この画像取得手段11は、各時刻に撮影された画像データを取得する手段、即ち前記カメラ1に相当する。詳細に述べれば、デジタルカメラやビデオカメラなどでとらえた物体の画像をデジタル信号に変換する画像センサなどで構成されている。ここでも撮影対象の物体(1又は複数の人物・動物など)は、同一平面上に存在しているものとする。   The image acquisition means 11 corresponds to a means for acquiring image data taken at each time, that is, the camera 1. More specifically, the image sensor includes an image sensor that converts an image of an object captured by a digital camera or a video camera into a digital signal. Here again, it is assumed that an object to be imaged (one or a plurality of persons / animals, etc.) exists on the same plane.

具体的には、前記カメラ校正装置10は、コンピュータにより構成され、前記画像取得手段11から時系列に画像データが入力される。ここでは前記カメラ校正装置10は、コンピュータのハードウェア資源(CPU,メモリ,ハードディスクドライブ装置,通信インタフェースなど)とソフトウェアとの協働の結果、シルエット画像作成手段12,エッジ画像作成手段13,パラメータ推定手段14として機能している。   Specifically, the camera calibration device 10 is configured by a computer, and image data is input from the image acquisition unit 11 in time series. Here, the camera calibration device 10 is a result of cooperation between computer hardware resources (CPU, memory, hard disk drive, communication interface, etc.) and software, resulting in silhouette image creation means 12, edge image creation means 13, parameter estimation. It functions as the means 14.

前記シルエット画像作成手段12は、入力された画像データから対象物体の写っている領域だけを抽出したシルエット画像を作成する。前記エッジ画像作成手段13は、入力された画像データからエッジを抽出したエッジ画像を作成する。   The silhouette image creating means 12 creates a silhouette image obtained by extracting only the region where the target object is shown from the input image data. The edge image creating means 13 creates an edge image obtained by extracting an edge from input image data.

前記パラメータ推定手段14は、前記シルエット画像の作成手段12によって作成されたシルエット画像を用いて、前記状態Sを推定する。すなわち、シルエット画像中に存在する物体数・物体の大きさ・物体の三次元位置と、前記画像取得手段11の内部・外部パラメータ(焦点距離f・三次元位置(0,0,Tz)およびX軸とY軸周りの回転角で表される姿勢(φ,θ))とを推定する。この推定結果は、モニタやプリンタなどに出力される。以下、図5のチャートに基づき前記カメラ校正装置10の処理ステップ(S501〜S504)を説明する。   The parameter estimation unit 14 estimates the state S using the silhouette image created by the silhouette image creation unit 12. That is, the number of objects present in the silhouette image, the size of the object, the three-dimensional position of the object, and the internal / external parameters (focal length f, three-dimensional position (0, 0, Tz) and X A posture (φ, θ)) expressed by an axis and a rotation angle around the Y axis is estimated. This estimation result is output to a monitor or a printer. The processing steps (S501 to S504) of the camera calibration device 10 will be described below based on the chart of FIG.

S501:処理が開始されると、前記画像取得手段11から撮影画像のデータ(Im)が通信インタフェース経由で入力される(S501)。この実施形態では一例としてネットワーク経由で入力されることを前提に説明するが、前記画像データ(Im)を取得できれば取得手段の如何は問わないものとする。   S501: When processing is started, captured image data (Im) is input from the image acquisition means 11 via a communication interface (S501). In this embodiment, description will be made on the assumption that the data is input via a network as an example. However, any acquisition means may be used as long as the image data (Im) can be acquired.

S502:前記シルエット画像作成手段12によって、S501で入力された画像データ(Im)に対し、シルエット画像(Sil)を作成する。シルエット画像は、撮影した画像の対象物体が写っている領域の輝度値が1、他の領域が0である2値画像であり、図6(a)は入力画像の一例を示し、図6(b)はシルエット画像の一例を示している。このようなシルエット画像は、背景差分法やフレーム間差分法などの周知な方法を利用することで簡単に生成することができる。   S502: The silhouette image creating means 12 creates a silhouette image (Sil) for the image data (Im) input in S501. The silhouette image is a binary image in which the luminance value of the region where the target object of the photographed image is reflected is 1 and the other region is 0. FIG. 6A shows an example of the input image. b) shows an example of a silhouette image. Such a silhouette image can be easily generated by using a known method such as a background difference method or an inter-frame difference method.

S503:前記エッジ画像作成手段13によって、S501で入力された画像データ(Im)に対し、エッジ画像を作成する。ここではエッジは垂直方向、水平方向を検出し、垂直方向Ehおよび水平方向Evを成分とする(Eh,Ev)を各画素ごと保存し、これをエッジ画像とする。   S503: The edge image creation means 13 creates an edge image for the image data (Im) input in S501. Here, the edge detects the vertical direction and the horizontal direction, and (Eh, Ev) having the vertical direction Eh and the horizontal direction Ev as components is stored for each pixel, and this is used as an edge image.

このエッジ画像の生成はよく知られたSobelオペレータ等を用いて簡単に生成することができる。一例として図7(a)は入力画像を示し、図7(b)は垂直エッジ検出画像を示し、図7(c)は水平エッジ検出画像を示している。なお、S502.S503で作成したシルエット画像・エッジ画像はメモリ(RAM)やハードディスクドライブ装置に記憶・保存してもよい。   The edge image can be easily generated by using a well-known Sobel operator or the like. As an example, FIG. 7A shows an input image, FIG. 7B shows a vertical edge detection image, and FIG. 7C shows a horizontal edge detection image. Note that S502. The silhouette image / edge image created in S503 may be stored / saved in a memory (RAM) or a hard disk drive.

S504:前記パラメータ推定手段14によって、S502で作成されたシルエット画像(Sil)を用いて、画像中に存在する物体の数、三次元位置、大きさ、前記画像取得手段11におけるカメラの内部・外部パラメータ[カメラの焦点距離f、三次元位置(0,0,Tz)、X軸・Y軸周りの回転角で表される姿勢(φ,θ)]を含む状態Sを推定する。   S504: Using the silhouette image (Sil) created in S502 by the parameter estimation means 14, the number of objects existing in the image, the three-dimensional position, the size, the inside / outside of the camera in the image acquisition means 11 The state S including the parameters [focal length f of the camera, three-dimensional position (0, 0, Tz), posture (φ, θ) represented by rotation angles around the X axis and Y axis] is estimated.

以下、図8のフローチャートに基づきS504の具体的な処理内容(S601〜S607)を説明する。ここでは状態Sの推定は、複数回、(B+P)回の反復計算によって生成される(B+P)個の状態候補を用いて行われる。また、初期状態をS’0,n回目の反復計算において生成された状態候補をS’nと表すことにする。最初のB回に生成された状態候補は捨て、最後のP回に得られた状態候補は全て等確率で起こりうると考えパラメータを推定する。これは最初のほうに生成された状態候補は初期状態S’0に大きく依存していると考えられるためである。 Hereinafter, the specific processing content (S601 to S607) of S504 will be described based on the flowchart of FIG. Here, the estimation of the state S is performed using (B + P) state candidates generated by a plurality of (B + P) iterations. Further, the initial state is represented as S ′ 0 , and the state candidate generated in the n-th iterative calculation is represented as S ′ n . The state candidates generated in the first B times are discarded, and the state parameters obtained in the last P times can be generated with equal probability, and the parameters are estimated. This is because the state candidate generated at the beginning is considered to largely depend on the initial state S ′ 0 .

そして、更新回数(n=1)として処理が開始される。Sの初期状態は、任意であるが、例えば、次のように設定することができる。(f,Tz,φ,θ)=(X_SIZE,200,0.0,0.0)、人物の状態を空集合とする。すなわちS=(X_SIZE,200,0.0,0.0)である。ただし、X_SIZEは入力画像の水平方向の大きさである。   Then, the processing is started as the number of updates (n = 1). The initial state of S is arbitrary, but can be set as follows, for example. (F, Tz, φ, θ) = (X_SIZE, 200, 0.0, 0.0), and the state of the person is an empty set. That is, S = (X_SIZE, 200, 0.0, 0.0). X_SIZE is the horizontal size of the input image.

S601:変化タイプの選択を行う。変化タイプとは対象状態を変化させる処理のタイプを表すものであり、次の7種類から成る。   S601: A change type is selected. The change type represents the type of processing for changing the target state, and consists of the following seven types.

1:人物の追加,2:人物の消去,3:人物の位置変更,4:人物の大きさ変更,5:焦点距離変更,6:カメラ位置変更,7:カメラ姿勢変更。   1: Add person, 2: Delete person, 3: Change person's position, 4: Change person's size, 5: Change focal length, 6: Change camera position, 7: Change camera posture.

まず現在の状態として人物が含まれていない場合には必ず(1:人物の追加)が選択される。それ以外の場合には各タイプが選ばれる確率を予め任意に設定しておき、確率的に4つのタイプから選択を行う。例えば(p1,p2,p3,p4,p5,p6,p7)=(0.05,0.05,0.2,0.2,0.1,0.2,0.2)というように設定することができる(piはタイプiが選択される確率)。   First, when a person is not included in the current state, (1: Add person) is always selected. In other cases, the probability that each type is selected is set arbitrarily in advance, and the probability is selected from four types. For example, (p1, p2, p3, p4, p5, p6, p7) = (0.05, 0.05, 0.2, 0.2, 0.1, 0.2, 0.2) (Pi is the probability that type i will be selected).

S602:S601において選択された変化タイプに従い、状態候補S*を生成する。以下で変化タイプ別に処理を説明する。 S602: A state candidate S * is generated according to the change type selected in S601. The processing will be described below for each change type.

<1:人物の追加>
人物の追加が選ばれた場合には新たにモデルパラメータの設定を行う必要がある。例えばこれは文献1に記載の次の方法を用いてもよい。
<1: Add person>
When the addition of a person is selected, it is necessary to newly set model parameters. For example, the following method described in Document 1 may be used.

まず人物に近似する楕円体の大きさを表すパラメータr1、r2およびhに関しては、人物の大きさに関する経験的な事前知識(3mを超える身長の人はいないなど)から取り得る値の範囲を制限することができる。ここではこの範囲を
r1:r1min≦r1≦r1max
r2:r2min≦r2≦r2max
h:hmin≦h≦hmax
とし、この条件下で一様乱数を発生させることで、r1、r2、hのパラメータを新たに生成することができる。
First, regarding the parameters r1, r2 and h representing the size of an ellipsoid that approximates a person, the range of values that can be taken from empirical prior knowledge about the size of the person (such as no one with a height exceeding 3 m) is limited. can do. Here, this range is set to r1: r1 min ≦ r1 ≦ r1 max
r2: r2 min ≤ r2 ≤ r2 max
h: h min ≤ h ≤ h max
By generating uniform random numbers under these conditions, parameters r1, r2, and h can be newly generated.

頭部位置(x,y)に関するパラメータは、以下のようにして生成することが可能である。まず水平方向の頭部位置xを生成する。図9に示すように人物は画像上で垂直方向に立っているように撮影されていることを仮定すると、ある位置xにおいて垂直方向に対象だけが写っているシルエット画像(Sil)を足し合わせれば人物の頭部が存在する位置において、この値Vが高くなる。ある位置xにおける足し合わせ量V(x)は、以下の式4で表され、これを画像上の全てのxにおいて計算する。   The parameter relating to the head position (x, y) can be generated as follows. First, a horizontal head position x is generated. Assuming that a person is photographed so as to stand in the vertical direction on the image as shown in FIG. 9, if a silhouette image (Sil) in which only the object is reflected in the vertical direction at a certain position x is added, This value V increases at a position where the head of the person exists. The addition amount V (x) at a certain position x is expressed by the following Equation 4, which is calculated for all x on the image.

Figure 2010187130
Figure 2010187130

ただし、Sil(x,y)はシルエット画像のx行y列成分、Yは画像の垂直方向サイズを示す。このV(x)を水平方向の頭部位置確率分布とするために、画像上の全てのxのV(x)の総和が1.0となるように正規化を行い、生成された水平方向の頭部位置確率分布V(x)に従った位置xを抽出する。これは例えば次のようにして実現可能である。すなわち、0.0〜1.0の間の一様乱数を利用して、値valを得る。そして、V(x)をx=0から順に値sumに足し合わせていき、初めてsum≧valとなったときのxを抽出することで実現可能である。   However, Sil (x, y) indicates the x row and y column components of the silhouette image, and Y indicates the vertical size of the image. In order to make this V (x) a head position probability distribution in the horizontal direction, normalization is performed so that the sum of V (x) of all x on the image becomes 1.0, and the generated horizontal direction The position x according to the head position probability distribution V (x) is extracted. This can be realized, for example, as follows. That is, the value val is obtained using a uniform random number between 0.0 and 1.0. It can be realized by adding V (x) to the value sum in order from x = 0 and extracting x when sum ≧ val for the first time.

つぎに垂直方向の頭部位置yを生成する。すでに人物に近似する楕円体の大きさを表すパラメータは生成されているので、これとカメラの内部・外部パラメータ(f,Tz,,φ,θ)を用いて投影行列Pを計算し、人物頭部を表す部分の楕円体(以下、頭部モデルとする。)を画像上に投影することができる。図10に示すように頭部モデル上におけるエッジ検出画像(Ev,Eh)の値を足し合わせて平均を取った値をW(y)とすると、人物頭部付近で大きくなる。W(y)の計算は、以下の式5で計算する。   Next, a vertical head position y is generated. Since the parameter representing the size of the ellipsoid that approximates the person has already been generated, the projection matrix P is calculated using this and the camera internal and external parameters (f, Tz, φ, θ), and the human head An ellipsoid representing a part (hereinafter referred to as a head model) can be projected on the image. As shown in FIG. 10, when the value obtained by adding the values of the edge detection images (Ev, Eh) on the head model and taking the average is W (y), the value increases in the vicinity of the human head. W (y) is calculated by the following formula 5.

Figure 2010187130
Figure 2010187130

ただし、HLは頭部輪郭長、n(i)は頭部モデルの法線ベクトル、g(i)=(Ev(i),Eh(i))で頭部輪郭におけるエッジ検出画像の値を要素とする勾配ベクトルである。   Here, HL is the head contour length, n (i) is the normal vector of the head model, and g (i) = (Ev (i), Eh (i)) is the value of the edge detection image in the head contour. Is a gradient vector.

画像上の全てのyでW(y)を計算し、最後にこれを位置xにおける垂直方向の頭部位置確率分布となるように、W(y)の総和を1.0とする正規化を行い、垂直方向の頭部位置確率分布W(y)に従って位置yを抽出する。これは水平方向と同様の方法で抽出することが可能である。   W (y) is calculated for all y on the image, and finally, normalization is performed with the sum of W (y) being 1.0 so that this becomes the vertical head position probability distribution at position x. The position y is extracted according to the head position probability distribution W (y) in the vertical direction. This can be extracted in the same manner as in the horizontal direction.

以上のようにして新しいモデルパラメータMnを生成することができる。暫定的な状態候補S*はS’n-1に新たな対象状態Mnを追加した状態となる。 A new model parameter M n can be generated as described above. The provisional state candidate S * is a state in which a new target state M n is added to S ′ n−1 .

<2:人物の消去>
人物の消去が選択された場合には、まず前回生成された状態候補S’n-1からランダムに対象を選択する。すなわち、K個の対象があった場合には各々の対象が1/Kの確率で選択されることになる。つぎに選択された対象Mkを消去する。暫定的な状態候補S*はS’n-1から対象状態Mkを消去した状態となる。
<2: Erase person>
When the deletion of the person is selected, first, a target is randomly selected from the previously generated state candidates S ′ n−1 . That is, when there are K objects, each object is selected with a probability of 1 / K. Next, the selected object M k is deleted. The provisional state candidate S * is a state in which the target state M k is deleted from S ′ n−1 .

<3:人物の位置変更>
人物の位置変更が選択された場合には、まず前回生成された状態候補S’n-1からランダムに対象を選択する。すなわち、K個の対象があった場合には各々の対象が1/Kの確率で選択されることになる。つぎに選択されたMkの要素の内、人物の二次元平面上での位置(xk,yk)から、次の式6に従って変化させた暫定的な位置(x’k,y’k)を計算する。
<3: Person position change>
When the position change of the person is selected, first, a target is randomly selected from the previously generated state candidates S ′ n−1 . That is, when there are K objects, each object is selected with a probability of 1 / K. Next, among the selected elements of M k , the provisional position (x ′ k , y ′ k ) changed from the position (x k , y k ) of the person on the two-dimensional plane according to the following equation 6 ).

Figure 2010187130
Figure 2010187130

ただし、δx,δyはそれぞれ一次元のガウスノイズであり、そのパラメータは実験的に任意の値に決めることができる。M’kを以下の式7のように定義する。 However, δ x and δ y are one-dimensional Gaussian noises, and their parameters can be experimentally determined to arbitrary values. M ′ k is defined as in Equation 7 below.

Figure 2010187130
Figure 2010187130

暫定的な状態候補S*はS’n-1の対象状態MkをM’kに更新した状態となる。 The provisional state candidate S * is a state in which the target state M k of S ′ n−1 is updated to M ′ k .

<4:人物の大きさ変更>
人物の大きさ変更が選択された場合には、まず前回生成された状態候補S’n-1からランダムに対象を選択する。すなわち、K個の対象があった場合には各々の対象が1/Kの確率で選択されることになる。つぎに選択されたMkの要素の内、人物に近似する楕円体の半径r1、半径r2および高さhを表す(r1k,r2k,hk)から次の式8に従って変化させた暫定的な形、大きさのパラメータ(r1’k,r2’k,h’k)を計算する。
<4: Changing the size of a person>
If the magnitude of change of the person is selected, first select a target at random from the state candidate S 'n-1 that was last generated. That is, when there are K objects, each object is selected with a probability of 1 / K. Next, among the selected elements of M k , the provisional values changed from (r1 k , r2 k , h k ) representing the radius r1, radius r2 and height h of an ellipsoid approximating a person according to the following equation (8): The parameters of the general shape and size (r1 ′ k , r2 ′ k , h ′ k ) are calculated.

Figure 2010187130
Figure 2010187130

ただし、δr1,δr2,δhはそれぞれ一次元のガウスノイズであり、そのパラメータは実験的に任意の値に決めることができる。この暫定的な形、大きさのパラメータを用いてM’kを以下の式9のように定義する。 However, δ r1 , δ r2 , and δ h are one-dimensional Gaussian noises, and their parameters can be experimentally determined to arbitrary values. Using this provisional shape and size parameter, M ′ k is defined as in Equation 9 below.

Figure 2010187130
Figure 2010187130

暫定的な状態候補S*はS’n-1の対象状態MkをM’kに更新した状態となる。 The provisional state candidate S * is a state in which the target state M k of S ′ n−1 is updated to M ′ k .

<5:焦点距離変更>
焦点距離変更が選択された場合には、カメラの焦点距離パラメータをfから次の式10に従って変化させた暫定的な焦点距離f’に更新する。
<5: Change focal length>
If the focal length change is selected, the focal length parameter of the camera is updated from f to a temporary focal length f ′ changed according to the following expression 10.

Figure 2010187130
Figure 2010187130

ただし、δfは一次元のガウスノイズであり、そのパラメータは実験的に任意の値に決めることができる。 However, δ f is a one-dimensional Gaussian noise, and its parameter can be determined to an arbitrary value experimentally.

<6:カメラ位置変更>
カメラ位置変更が選択された場合には、カメラの位置パラメータをTzから次の式11に従って変化させた暫定的なカメラ位置Tz’に更新する。
<6: Camera position change>
When the camera position change is selected, the camera position parameter is updated from Tz to the provisional camera position Tz ′ changed according to the following Expression 11.

Figure 2010187130
Figure 2010187130

ただし、δTzは一次元のガウスノイズであり、そのパラメータは実験的に任意の値に決めることができる。 However, δ Tz is a one-dimensional Gaussian noise, and its parameter can be determined to an arbitrary value experimentally.

<7:カメラ姿勢変更>
カメラ姿勢変更が選択された場合には、カメラの姿勢パラメータを(φ,θ)から次の式12に従って変化させた暫定的なカメラ姿勢回転角(φ’,θ’)で更新する。
<7: Camera posture change>
When the camera posture change is selected, the camera posture parameter is updated with the temporary camera posture rotation angle (φ ′, θ ′) changed from (φ, θ) according to the following Expression 12.

Figure 2010187130
Figure 2010187130

ただし、δΦ,δΘはそれぞれ一次元のガウスノイズであり、そのパラメータは実験的に任意の値に決めることができる。 However, δ Φ and δ Θ are one-dimensional Gaussian noises, and their parameters can be experimentally determined to arbitrary values.

S603:S602の暫定的な状態候補S*を用いて、S503において作成されたシルエット画像(Sil)をシミュレートした画像、即ちシミュレーション画像(Sim)を作成する。ここで三次元空間に存在する物体のカメラ画像上への投影関係を表す投影行列Pはパラメータ(f,Tz,φ,θ)より計算できる。 S603: An image simulating the silhouette image (Sil) created in S503, that is, a simulation image (Sim) is created using the temporary state candidate S * in S602. Here, the projection matrix P representing the projection relationship of the object existing in the three-dimensional space onto the camera image can be calculated from the parameters (f, Tz, φ, θ).

この関係を利用すると画像上の二次元座標値(x,y)に投影される平面上に直立する高さhの物体の平面上の二次元座標値(X,Y)を計算することが可能である。これにより三次元空間内にS602で計算された暫定的な対象状態S*に基づいた楕円体で構成された三次元モデルを複数配置することができる。 By using this relationship, it is possible to calculate the two-dimensional coordinate value (X, Y) on the plane of the object of height h standing upright on the plane projected to the two-dimensional coordinate value (x, y) on the image. It is. Thereby, a plurality of 3D models composed of ellipsoids based on the provisional target state S * calculated in S602 can be arranged in the 3D space.

以上のように生成された仮想シーンを仮想カメラへ投影することで、シミュレーション画像を作成する。画像上の楕円体領域の値を1、それ以外の領域の値を0とする2値画像とすることで、シルエット画像(Sil)をシミュレートしたシミュレーション画像(Sim)を作成することができる。   A simulation image is created by projecting the virtual scene generated as described above onto a virtual camera. By using a binary image in which the value of the ellipsoidal region on the image is 1 and the value of the other region is 0, a simulation image (Sim) simulating a silhouette image (Sil) can be created.

S604:S602の暫定的な対象状態S*が、尤もらしいか否かを判断するために、尤度Lを計算する。これは事前知識による対象状態自体の確からしさの判定およびS503で作成されたシルエット画像(Sil)とS603で生成されたシミュレーション画像(Sim)の比較により行う。 S604: The likelihood L is calculated in order to determine whether or not the provisional target state S * in S602 is likely. This is performed by determining the probability of the target state itself based on prior knowledge and comparing the silhouette image (Sil) created in S503 with the simulation image (Sim) generated in S603.

ここで事前知識による対象状態自体の確からしさの判定は、人物同士が三次元空間上で重なることがないという条件である。いま、人物を楕円体モデルで近似しているため、個々の楕円体が重ならない条件、即ち異なる二つの楕円体の中心同士の距離が、二つの楕円体の半径の和より大きいことを満たす必要がある。   Here, the determination of the certainty of the target state itself based on prior knowledge is a condition that persons do not overlap in a three-dimensional space. Now, since the person is approximated by an ellipsoid model, it is necessary to satisfy the condition that the individual ellipsoids do not overlap, that is, the distance between the centers of two different ellipsoids is greater than the sum of the radii of the two ellipsoids. There is.

二人の人物同士が三次元空間上で重ならないようにするために、次の式13で表された距離R、即ち二人の人物を表す楕円体の中心同士の距離に応じたペナルティ関数E(S*)を設定する。 In order to prevent two persons from overlapping each other in a three-dimensional space, a penalty function E corresponding to the distance R expressed by the following equation 13, that is, the distance between the centers of ellipsoids representing the two persons. Set (S * ).

Figure 2010187130
Figure 2010187130

ただし、Xk,Ykはシミュレーション画像生成の際に計算した三次元空間上での人物kの平面上の位置X座標、Y座標を示す。楕円体の距離が近くなるとペナルティを与える関数Eは、例えば以下の式14のように設定できる。ただしαは定数で、実験的に任意に設定可能である。 Here, X k and Y k indicate the position X coordinate and Y coordinate on the plane of the person k in the three-dimensional space calculated when the simulation image is generated. The function E that gives a penalty when the distance between the ellipsoids becomes short can be set as in the following Expression 14, for example. However, α is a constant and can be arbitrarily set experimentally.

Figure 2010187130
Figure 2010187130

つぎにシルエット画像(Sil)とS603で生成されたシミュレーション画像(Sim)の比較について説明する。これは例えば以下の式15の評価式によって計算を行うことができる。ただし、(u,v)は画像のu行v列成分を示す。   Next, a comparison between the silhouette image (Sil) and the simulation image (Sim) generated in S603 will be described. This can be calculated by, for example, the following evaluation formula (15). However, (u, v) indicates the u row v column component of the image.

Figure 2010187130
Figure 2010187130

最終的に暫定状態S*の尤度Lは、式16によって表される積演算によって計算される。 Finally, the likelihood L of the provisional state S * is calculated by a product operation represented by Expression 16.

Figure 2010187130
Figure 2010187130

このような尤度を用いることで、三次元空間上での人物位置の確からしさと二次元画像上での追跡を融合することが可能となる。   By using such likelihood, it becomes possible to combine the accuracy of the person position in the three-dimensional space and the tracking on the two-dimensional image.

S605:S604で計算された尤度Lを用いて、暫定状態候補S*を受け入れるか、もしくは拒否するかの演算を行う。これは受け入れ拒否判断確率Aの計算によって決定する。受け入れ拒否判断確率Aは、例えば以下の式12により計算することが可能である。 S605: Using the likelihood L calculated in S604, the provisional state candidate S * is accepted or rejected. This is determined by calculating the acceptance rejection judgment probability A. The acceptance refusal judgment probability A can be calculated by, for example, the following Expression 12.

Figure 2010187130
Figure 2010187130

ここで現在n回目の更新だとすると、L’はn−1回目の候補状態S’n-1の尤度を表す。すなわち、前回の状態よりも今回の状態のほうが、尤度が高ければ必ず受け入れ、もし前回の状態よりも尤度が低ければ、L/L’の確率で暫定状態S*を採用する。 Here, if it is the nth update at present, L ′ represents the likelihood of the n− 1th candidate state S ′ n−1 . That is, the current state is always accepted if the likelihood is higher than the previous state, and if the likelihood is lower than the previous state, the provisional state S * is adopted with a probability of L / L ′.

ここで暫定状態S*が採用されれば、S’n=S*とし、採用が拒否されればS’n=S’t,n-1として、S606の条件判断ステップへと進む。 Here, if the provisional state S * is adopted, S ′ n = S * is set, and if adoption is rejected, S ′ n = S ′ t, n−1 is set and the process proceeds to the condition determination step of S606.

S606:更新処理が規定の回数行われたかの判断が行われる。更新回数nが任意に決定できる定数BとPの和で表されるB+P回を超えていれば反復計算処理を終了し、S607の対象状態の推定ステップへと進む。   S606: It is determined whether the update process has been performed a prescribed number of times. If the number of updates n exceeds B + P times represented by the sum of constants B and P that can be arbitrarily determined, the iterative calculation process ends, and the process proceeds to the target state estimation step of S607.

逆に更新回数nが、B+P回を越えていなければS601に戻って再度処理を繰り返す。なお、更新処理の規定回数はプログラムなどに定義されているものとする。   Conversely, if the number of updates n does not exceed B + P times, the process returns to S601 and the process is repeated again. It is assumed that the prescribed number of update processes is defined in a program or the like.

S607:最大確率を持つ状態の計算を行う。反復計算により生成された状態候補のうち、最後のP個の状態は全て等確率で起こると仮定しているため、最大確率を持つ状態Sは、以下の式18によって計算することができる。   S607: A state having the maximum probability is calculated. Since it is assumed that the last P states of the state candidates generated by the iterative calculation all occur with equal probability, the state S having the maximum probability can be calculated by the following Expression 18.

Figure 2010187130
Figure 2010187130

このようにして計算した状態Sが、三次元空間中に存在する1又は複数の物体や人物を撮影することで各々の物体の数、位置、大きさと、撮影に利用された前記画像取得手段11におけるカメラの内部・外部パラメータとを含む推定結果である。   The state S calculated in this manner is obtained by photographing one or more objects or persons existing in the three-dimensional space, and the number, position, and size of each object, and the image acquisition unit 11 used for photographing. This is an estimation result including the internal and external parameters of the camera at.

この推定結果には、カメラの内部・外部パラメータを含んでいることから、該パラメータの計測が容易となる。また、ここで計算された状態Sは、三次元空間上での人物位置の確からしさが最も高いことから、ここに含まれたカメラの内部・外部パラメータは、適切なパラメータとしてカメラキャリブレーションなどに利用され、作業の簡素化などに役立てることができる。   Since this estimation result includes the internal and external parameters of the camera, it is easy to measure the parameters. In addition, since the state S calculated here has the highest probability of the person position in the three-dimensional space, the internal and external parameters of the camera included here are used as appropriate parameters for camera calibration and the like. It can be used to simplify work.

特に、これまではカメラの内部・外部パラメータの計測には、訓練を受けた熟練者にしか計測ができないといった問題点があったが、前記カメラ構成装置10によれば、画像から自動的に推定されることから、カメラなどの画像取得手段11を設置するだけで、画像に写る対象の三次元位置の推定や追跡といった応用が可能となる。   In particular, until now, the measurement of the internal and external parameters of the camera has been problematic in that only a trained skilled person can measure it. According to the camera construction device 10, it is automatically estimated from the image. Therefore, application such as estimation and tracking of a three-dimensional position of an object appearing in an image can be performed only by installing image acquisition means 11 such as a camera.

なお、S601〜S606の際の中間データは、適宜にメモリ(RAM)やハードディスクドライブ装置に記憶・保存され、また式4〜式18はプログラムなどに定義されているものとする。   It is assumed that the intermediate data in S601 to S606 is appropriately stored and saved in a memory (RAM) or a hard disk drive, and Equations 4 to 18 are defined in a program or the like.

本発明は、前記実施形態に限定されるものではなく、例えばS604のシルエット画像とシミュレーション画像の比較に式15ではなく、画像間の類似度を取る評価関数を用いてもよい。この評価関数には単純な積演算を利用しても同様にS604の処理が実現できる。   The present invention is not limited to the above-described embodiment. For example, an evaluation function that takes similarity between images instead of Equation 15 may be used to compare the silhouette image and the simulation image in S604. Even if a simple product operation is used for this evaluation function, the processing of S604 can be realized in the same manner.

また、本発明は、前記カメラ校正装置10の各手段12〜14の一部もしくは全部として、コンピュータを機能させるプログラムとしても構成することができる。この場合には、S501〜S504.S601〜S607の全てのステップあるいは一部のステップをコンピュータに実行させる。   Further, the present invention can also be configured as a program that causes a computer to function as a part or all of the means 12 to 14 of the camera calibration apparatus 10. In this case, S501 to S504. Cause the computer to execute all or some of steps S601 to S607.

このプログラムは、Webサイトや電子メールなどネットワークを通じて提供することができる。また、前記プログラムは、CD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDD,Blu−ray Disk(登録商標)などの記録媒体10に記録して、保存・配布することも可能である。この記録媒体10は、記録媒体駆動装置を利用して読み出され、そのプログラムコード自体が前記実施形態の処理を実現するので、該記録媒体も本発明を構成する。
(3)実施例
以下、前記カメラ校正装置10を用いて、ビデオカメラから得られた映像を処理して、撮影された人物を利用して、追跡した結果を図5の処理フローを用いて述べる。まず処理が開始されると、カメラ画像の取得を行い(S501)、シルエット画像とエッジ画像とを作成する(S502,S503)。図11(a)はビデオカメラからの入力画像を示し、図11(b)は背景差分法を用いて作成したシルエット画像を示し、図11(c)(d)はSobelオペレータを用いて作成したエッジ画像を示している。
This program can be provided through a network such as a website or e-mail. The program is recorded in a recording medium 10 such as a CD-ROM, DVD-ROM, CD-R, CD-RW, DVD-R, DVD-RW, MO, HDD, Blu-ray Disk (registered trademark). It can also be stored and distributed. The recording medium 10 is read using a recording medium driving device, and the program code itself realizes the processing of the above embodiment, so that the recording medium also constitutes the present invention.
(3) Embodiment Hereinafter, the camera calibration device 10 is used to process the video obtained from the video camera, and the result of tracking using the photographed person will be described with reference to the processing flow of FIG. . First, when processing is started, a camera image is acquired (S501), and a silhouette image and an edge image are created (S502, S503). FIG. 11A shows an input image from a video camera, FIG. 11B shows a silhouette image created using the background subtraction method, and FIGS. 11C and 11D show a silhouette image created using the Sobel operator. An edge image is shown.

つぎにS504にてパラメータの推定を行う。ここでは状態候補を逐次生成させながらその状態をシミュレートしたシミュレーション画像の作成を行って、その評価を行う。図11(e)は計算された最大確率を取る対象状態を表現したシミュレーション画像を示し、図11(f)はその対象状態を俯瞰した図を示している。図11(f)によれば、人物の三次元的な位置関係が正しく推定されていることが分かる。ここではカメラの内部・外部パラメータが正確に推定されていなければ、人物の三次元的な位置関係も正しく推定できないため、カメラの内部・外部パラメータの推定結果の正確性も示している。   Next, parameters are estimated in S504. Here, a simulation image simulating the state is generated while the state candidates are sequentially generated, and the evaluation is performed. FIG. 11E shows a simulation image representing a target state that takes the calculated maximum probability, and FIG. 11F shows a bird's eye view of the target state. As can be seen from FIG. 11F, the three-dimensional positional relationship of the person is correctly estimated. Here, if the internal and external parameters of the camera are not accurately estimated, the three-dimensional positional relationship of the person cannot be estimated correctly, and the accuracy of the estimation results of the internal and external parameters of the camera is also shown.

以上述べた処理により本実施例では人物が撮影された画像から自動的に人物の三次元位置・物体数・物体の大きさおよびビデオカメラの焦点距離、位置、姿勢といったパラメータの推定結果が出力される。   According to the processing described above, in this embodiment, estimation results of parameters such as the three-dimensional position, the number of objects, the size of the object, and the focal length, position, and posture of the video camera are automatically output from the image of the person photographed. The

1.11…画像の取得手段(カメラ)
10…カメラ校正装置
12…シルエット画像作成手段
13…エッジ画像作成手段
14…パラメータ推定手段
1.11 Image acquisition means (camera)
DESCRIPTION OF SYMBOLS 10 ... Camera calibration apparatus 12 ... Silhouette image creation means 13 ... Edge image creation means 14 ... Parameter estimation means

Claims (10)

物体の撮影画像から撮影に利用しているカメラの内部・外部パラメータを求めるカメラ校正装置であって、
前記カメラの撮影画像から物体の写っている領域を抽出したシルエット画像を作成するシルエット画像作成手段と、
前記物体の変化タイプに応じて予測した状態を、前記シルエット画像を利用して評価することで、前記カメラの内部・外部パラメータを推定するパラメータ推定手段と、
を備えることを特徴とするカメラ校正装置。
A camera calibration device for obtaining internal and external parameters of a camera used for photographing from a photographed image of an object,
Silhouette image creation means for creating a silhouette image obtained by extracting a region where an object is captured from a photographed image of the camera;
Parameter estimation means for estimating internal and external parameters of the camera by evaluating the predicted state according to the change type of the object using the silhouette image;
A camera calibration device comprising:
前記パラメータ推定手段は、予め用意された物体の変化タイプを任意の確率に従って選択し、該選択された変化タイプに応じた状態候補を生成する手段と、
前記状態候補に基づいて、該状態候補と同じカメラ内部・外部パラメータを有する仮想カメラに投影し、前記シルエット画像をシミュレートしたシミュレーション画像を生成する手段と、
前記シルエット画像と前記シミュレーション画像の比較結果および事前知識に基づく対象状態自体の確からしさの判定結果から前記状態候補を評価する手段と、
を備えたことを特徴とする請求項1記載のカメラ校正装置。
The parameter estimation means selects a prepared object change type according to an arbitrary probability, and generates a state candidate according to the selected change type;
Means for projecting onto a virtual camera having the same internal and external parameters of the camera as the state candidate based on the state candidate, and generating a simulation image simulating the silhouette image;
Means for evaluating the state candidate from the result of comparing the silhouette image and the simulation image and the determination result of the probability of the target state itself based on prior knowledge;
The camera calibration apparatus according to claim 1, further comprising:
前記状態候補を評価する手段は、前記比較結果と前記判定結果とを演算した評価値を求める手段と、
前記評価値を基準に前記状態候補を最終的な変化状態として受け入れるか否かを判断する手段と、を備え、
前記最終的な変化状態から前記カメラの内部・外部パラメータを推定することを特徴とする請求項2記載のカメラ校正装置。
The means for evaluating the state candidate includes means for obtaining an evaluation value obtained by calculating the comparison result and the determination result;
Determining whether to accept the state candidate as a final change state based on the evaluation value,
3. The camera calibration apparatus according to claim 2, wherein internal and external parameters of the camera are estimated from the final change state.
前記物体の状態を楕円体モデルの集合で表し、モデル頭頂部の画像上での二次元座標値と、頭部に近似する楕円体の短軸と、身体に近似する楕円体の短軸と、身長を示すモデルの高さで人物を表すことを特徴とする請求項1〜3のいずれか1項に記載のカメラ校正装置。   Representing the state of the object as a set of ellipsoidal models, two-dimensional coordinate values on the image of the top of the model, the short axis of the ellipsoid that approximates the head, the short axis of the ellipsoid that approximates the body, The camera calibration apparatus according to claim 1, wherein a person is represented by a height of a model indicating height. 物体の撮影画像から撮影に利用しているカメラの内部・外部パラメータを求めるカメラ校正方法であって、
シルエット画像作成手段が、前記カメラの撮影画像から物体の写っている領域を抽出したシルエット画像を作成する第1ステップと、
パラメータ推定手段が、前記物体の変化タイプに応じて予測した状態を、前記シルエット画像を利用して評価することで、前記カメラの内部・外部パラメータを推定する第2ステップと、
を有することを特徴とするカメラ校正方法。
A camera calibration method for obtaining internal and external parameters of a camera used for photographing from a photographed image of an object,
A first step in which a silhouette image creating means creates a silhouette image obtained by extracting an area in which an object is captured from a photographed image of the camera;
A second step of estimating internal and external parameters of the camera by evaluating a state predicted by the parameter estimation unit according to the change type of the object using the silhouette image;
A camera calibration method characterized by comprising:
前記第2ステップは、予め用意された物体の変化タイプを任意の確率に従って選択し、該選択された変化タイプに応じた状態候補を生成するステップと、
前記状態候補に基づいて、該状態候補と同じカメラ内部・外部パラメータを有する仮想カメラに投影し、前記シルエット画像をシミュレートしたシミュレーション画像を生成するステップと、
前記シルエット画像と前記シミュレーション画像の比較結果および事前知識に基づく対象状態自体の確からしさの判定結果から前記状態候補を評価するステップと、
を有することを特徴とする請求項5記載のカメラ校正方法。
The second step includes selecting a change type of an object prepared in advance according to an arbitrary probability, and generating a state candidate according to the selected change type;
Based on the state candidate, projecting to a virtual camera having the same camera internal / external parameters as the state candidate, and generating a simulation image simulating the silhouette image;
Evaluating the candidate state from the determination result of the probability of the target state itself based on the comparison result of the silhouette image and the simulation image and prior knowledge;
The camera calibration method according to claim 5, further comprising:
前記状態候補を評価するステップは、前記比較結果と前記判定結果とを演算した評価値を求めるステップと、
前記評価値を基準に前記状態候補を最終的な変化状態として受け入れるか否かを判断するステップと、を有し、
前記最終的な変化状態から前記カメラの内部・外部パラメータを推定することを特徴とする請求項6記載のカメラ校正方法。
The step of evaluating the state candidate includes obtaining an evaluation value obtained by calculating the comparison result and the determination result;
Determining whether to accept the state candidate as a final change state based on the evaluation value,
The camera calibration method according to claim 6, wherein internal and external parameters of the camera are estimated from the final change state.
前記物体の状態を楕円体モデルの集合で表し、モデル頭頂部の画像上での二次元座標値と、頭部に近似する楕円体の短軸と、身体に近似する楕円体の短軸と、身長を示すモデルの高さで人物を表すことを特徴とする請求項5〜7のいずれか1項に記載のカメラ校正方法。   Representing the state of the object as a set of ellipsoidal models, two-dimensional coordinate values on the image of the top of the model, the short axis of the ellipsoid that approximates the head, the short axis of the ellipsoid that approximates the body, The camera calibration method according to claim 5, wherein a person is represented by a height of a model indicating height. 請求項1〜4のいずれか1項に記載のカメラ校正装置として、コンピュータを機能させることを特徴とするカメラ校正プログラム。   A camera calibration program for causing a computer to function as the camera calibration device according to claim 1. 請求項9記載のカメラ校正プログラムを記録したことを特徴とする記録媒体。   A recording medium on which the camera calibration program according to claim 9 is recorded.
JP2009029082A 2009-02-10 2009-02-10 Camera calibrating device, camera calibration method, camera calibration program, and recording medium having the program recorded therein Pending JP2010187130A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009029082A JP2010187130A (en) 2009-02-10 2009-02-10 Camera calibrating device, camera calibration method, camera calibration program, and recording medium having the program recorded therein

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009029082A JP2010187130A (en) 2009-02-10 2009-02-10 Camera calibrating device, camera calibration method, camera calibration program, and recording medium having the program recorded therein

Publications (1)

Publication Number Publication Date
JP2010187130A true JP2010187130A (en) 2010-08-26

Family

ID=42767519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009029082A Pending JP2010187130A (en) 2009-02-10 2009-02-10 Camera calibrating device, camera calibration method, camera calibration program, and recording medium having the program recorded therein

Country Status (1)

Country Link
JP (1) JP2010187130A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013134186A (en) * 2011-12-27 2013-07-08 Sumitomo Electric Ind Ltd Camera parameter measuring apparatus, camera parameter measuring method, and program
CN104374338A (en) * 2014-09-28 2015-02-25 北京航空航天大学 Single-axis rotation angle vision measurement method based on fixed camera and single target
CN104376553A (en) * 2014-09-28 2015-02-25 北京航空航天大学 Single-axis rotation angle vision measurement method based on movable camera and double targets
JP2017068650A (en) * 2015-09-30 2017-04-06 Kddi株式会社 Identification device for identifying individual subject from image photographed by multiple cameras, identification method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013134186A (en) * 2011-12-27 2013-07-08 Sumitomo Electric Ind Ltd Camera parameter measuring apparatus, camera parameter measuring method, and program
CN104374338A (en) * 2014-09-28 2015-02-25 北京航空航天大学 Single-axis rotation angle vision measurement method based on fixed camera and single target
CN104376553A (en) * 2014-09-28 2015-02-25 北京航空航天大学 Single-axis rotation angle vision measurement method based on movable camera and double targets
CN104376553B (en) * 2014-09-28 2017-04-05 北京航空航天大学 A kind of vision measuring method at the single-shaft-rotation angle based on mobile camera and dual-target
JP2017068650A (en) * 2015-09-30 2017-04-06 Kddi株式会社 Identification device for identifying individual subject from image photographed by multiple cameras, identification method, and program

Similar Documents

Publication Publication Date Title
CN109685060B (en) Image processing method and device
EP2671384B1 (en) Mobile camera localization using depth maps
JP5487298B2 (en) 3D image generation
US8749630B2 (en) Method and system for automatic objects localization
JP6816058B2 (en) Parameter optimization device, parameter optimization method, program
JPWO2018051944A1 (en) People flow estimation device, people flow estimation method and program
KR20170091730A (en) Imaging a body
JP6024658B2 (en) Object detection apparatus, object detection method, and program
JP4951490B2 (en) Moving object tracking device, moving object tracking method, moving object tracking program, and recording medium recording moving object tracking program
JP6020439B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6817742B2 (en) Information processing device and its control method
US20220180545A1 (en) Image processing apparatus, image processing method, and program
JP2010187130A (en) Camera calibrating device, camera calibration method, camera calibration program, and recording medium having the program recorded therein
JP2017096817A (en) Distance information correction device, distance information correction method, and distance information correction program
JP2008134939A (en) Moving object tracking apparatus, moving object tracking method, moving object tracking program with the method described therein, and recording medium with the program stored therein
CN116051736A (en) Three-dimensional reconstruction method, device, edge equipment and storage medium
JP4759447B2 (en) Moving object tracking device, moving object tracking method, and recording medium storing a program describing the method
JP4675368B2 (en) Object position estimation apparatus, object position estimation method, object position estimation program, and recording medium recording the program
KR20230010164A (en) Method and apparatus for calculating fat mass using images of head and neck
JP4923000B2 (en) MULTI-OBJECT TRACKING METHOD, MULTI-OBJECT TRACKING DEVICE, MULTI-OBJECT TRACKING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP2018165966A (en) Object detection device
JP4942197B2 (en) Template creation apparatus, facial expression recognition apparatus and method, program, and recording medium
JP2007249885A (en) Moving object-tracking device, moving object-tracking method, and recording medium stored with program having realized the method
JP2020076647A (en) Center-of-gravity position estimation device, center-of-gravity position estimation method and program
CN117197193B (en) Swimming speed estimation method, swimming speed estimation device, computer equipment and storage medium

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100615

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100616