JP2007025863A - Photographing system, photographing method, and image processing program - Google Patents

Photographing system, photographing method, and image processing program Download PDF

Info

Publication number
JP2007025863A
JP2007025863A JP2005204133A JP2005204133A JP2007025863A JP 2007025863 A JP2007025863 A JP 2007025863A JP 2005204133 A JP2005204133 A JP 2005204133A JP 2005204133 A JP2005204133 A JP 2005204133A JP 2007025863 A JP2007025863 A JP 2007025863A
Authority
JP
Japan
Prior art keywords
imaging
unit
photographing
epipolar
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005204133A
Other languages
Japanese (ja)
Inventor
Hirotake Yamazoe
大丈 山添
Akira Uchiumi
章 内海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005204133A priority Critical patent/JP2007025863A/en
Publication of JP2007025863A publication Critical patent/JP2007025863A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photographing system which very precisely estimates the posture of a photographing means whose posture is changeable without using feature points of a fixed object in an observation environment. <P>SOLUTION: An initial proofreading part 31 computes an epipole and epipolar homography between cameras when initial proofreading is made. Extraction parts 21-2n extract silhouette images from images which are photographed by a camera, whose posture is to be estimated, and another camera when the posture of the camera changes. A first epipolar line computation part 32 computes the epipolar line of another camera from the silhouette image of another camera and the epipole between the cameras, and a second epipolar line computation part 33 computes the epipolar line of the camera from the epipolar line of another camera and the epipolar homograph between the cameras. A movement quantity computation part 34 finds a conversion P<SB>i</SB>in which the distance between the epipolar line of the camera and the silhouette image posterior to the movement is minimum, and a posture estimation part 35 estimates the posture of the camera from the conversion P<SB>i</SB>. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、複数の撮影手段を用いて対象物の画像を撮影する撮影システム及び撮影方法、並びに複数の撮影手段を用いて撮影された対象物の画像を処理する画像処理プログラムに関するものである。   The present invention relates to a photographing system and a photographing method for photographing an image of an object using a plurality of photographing means, and an image processing program for processing an image of an object photographed using a plurality of photographing means.

複数のカメラを用いて対象物の画像を撮影する多視点撮影システムは、セキュリティシステム、非接触型インタフェースシステム、3次元形状復元システム等の様々なシステムに応用され、これまでにも数多くのシステムが提案されている。例えば、多視点による3次元モデルの生成に関して、視体積交差法を用いたシステムが多く提案され、非特許文献1には、22台のカメラの同期観測により、視体積交差法とステレオマッチング法とを用いた3次元モデル生成手法が開示されている。
冨山他、「視体積交差法とステレオマッチング法を用いた多視点画像からの3次元動オブジェクト生成手法」、映像情報メディア学会誌、2004年、Vol.58、No.6、p.797−p.806
Multi-viewpoint imaging systems that capture images of objects using multiple cameras have been applied to various systems such as security systems, non-contact type interface systems, and three-dimensional shape restoration systems. Proposed. For example, regarding the generation of a three-dimensional model from multiple viewpoints, many systems using the visual volume intersection method have been proposed. In Non-Patent Document 1, the visual volume intersection method and the stereo matching method are obtained by synchronous observation of 22 cameras. A three-dimensional model generation method using the above is disclosed.
Kajiyama et al., “Method of generating a three-dimensional moving object from multi-viewpoint images using visual volume intersection method and stereo matching method”, Journal of the Institute of Image Information and Television Engineers, 2004, Vol. 58, no. 6, p. 797-p. 806

しかしながら、多視点撮影システムにより3次元形状情報を復元するためには、全てのカメラの位置及び姿勢を求めてカメラキャリブレーションを行う必要があるが、視体積交差法による3次元モデル生成では、シルエット抽出を容易にするために単一色の背景を用いているため、背景中に特徴点を得ることができず、観測環境中の固定物体の特徴点を利用する従来のカメラキャリブレーション手法を用いることはできない。   However, in order to restore 3D shape information by a multi-viewpoint imaging system, it is necessary to perform camera calibration by obtaining the positions and orientations of all cameras. Because a single color background is used to facilitate extraction, feature points cannot be obtained in the background, and conventional camera calibration methods that use feature points of fixed objects in the observation environment should be used. I can't.

また、シルエットを用いたカメラキャリブレーション手法もいくつか提案されているが、これらの手法では、固定カメラを対象としているため、姿勢が変化する可動カメラを用いた多視点撮影システムには適用することができない。   Several camera calibration methods using silhouettes have also been proposed, but these methods are intended for fixed cameras, so they should be applied to multi-viewpoint shooting systems using movable cameras whose posture changes. I can't.

本発明の目的は、観測環境中の固定物体の特徴点を利用することなく、姿勢変化可能な撮影手段の姿勢を高精度に推定することができる撮影システム、撮影方法及び画像処理プログラムを提供することである。   An object of the present invention is to provide a photographing system, a photographing method, and an image processing program capable of accurately estimating the posture of a photographing unit whose posture can be changed without using a feature point of a fixed object in an observation environment. That is.

本発明に係る撮影システムは、少なくとも一の撮影手段が姿勢変化可能に構成され且つ対象物を撮影する複数の撮影手段と、所定時刻における一の撮影手段と他の撮影手段との間のエピポール及びエピポーラホモグラフィを取得する取得手段と、一の撮影手段の姿勢が変化したときに一の撮影手段及び他の撮影手段により撮影された画像から対象物のシルエットを表すシルエット画像を抽出する抽出手段と、抽出手段により抽出された他の撮影手段のシルエット画像と、取得手段により取得された一の撮影手段と他の撮影手段との間のエピポールとを基に他の撮影手段のエピポーラ線を算出する第1の算出手段と、第1の算出手段により算出された他の撮影手段のエピポーラ線と、取得手段により取得された一の撮影手段と他の撮影手段との間のエピポーラホモグラフィとを基に、一の撮影手段のエピポーラ線を算出する第2の算出手段と、第2の算出手段により算出された一の撮影手段のエピポーラ線に適合するように抽出手段により抽出された一の撮影手段のシルエット画像を移動させる移動手段とを備えるものである。   An imaging system according to the present invention includes a plurality of imaging units configured to change an attitude of at least one imaging unit and imaging an object, an epipole between one imaging unit and another imaging unit at a predetermined time, and Acquisition means for acquiring epipolar homography, and extraction means for extracting a silhouette image representing a silhouette of an object from images taken by one photographing means and another photographing means when the posture of one photographing means changes The epipolar line of the other photographing means is calculated based on the silhouette image of the other photographing means extracted by the extracting means and the epipole between one photographing means and the other photographing means obtained by the obtaining means. A first calculation unit, an epipolar line of another imaging unit calculated by the first calculation unit, one imaging unit acquired by the acquisition unit, and another imaging unit Based on the epipolar homography, the second calculating means for calculating the epipolar line of the one photographing means, and the extracting means so as to match the epipolar line of the one photographing means calculated by the second calculating means Moving means for moving the extracted silhouette image of the one photographing means.

本発明に係る撮影システムにおいては、所定時刻における一の撮影手段と他の撮影手段との間のエピポール及びエピポーラホモグラフィが取得され、一の撮影手段の姿勢が変化したときに一の撮影手段及び他の撮影手段により撮影された画像から対象物のシルエットを表すシルエット画像が抽出され、抽出された他の撮影手段のシルエット画像と、取得された一の撮影手段と他の撮影手段との間のエピポールとを基に他の撮影手段のエピポーラ線が算出され、算出された他の撮影手段のエピポーラ線と、取得された一の撮影手段と他の撮影手段との間のエピポーラホモグラフィとを基に一の撮影手段のエピポーラ線が算出され、算出された一の撮影手段のエピポーラ線に適合するように一の撮影手段の姿勢が変化したときに抽出された一の撮影手段のシルエット画像が移動される。   In the imaging system according to the present invention, when the epipole and epipolar homography between one imaging unit and another imaging unit at a predetermined time are acquired and the attitude of the one imaging unit changes, the one imaging unit and A silhouette image representing the silhouette of the object is extracted from an image photographed by another photographing means, the extracted silhouette image of the other photographing means, and between the obtained one photographing means and the other photographing means Based on the epipole, the epipolar line of the other photographing means is calculated, and the calculated epipolar line of the other photographing means and the acquired epipolar homography between the one photographing means and the other photographing means. The epipolar line of one imaging means is calculated for each of the imaging means, and one of the imaging means extracted when the attitude of the one imaging means changes to match the calculated epipolar line of the one imaging means. Silhouette image means is moved.

ここで、移動後のシルエット画像は、姿勢が変化した時刻における他の撮影手段のエピポーラ線と、一の撮影手段と他の撮影手段との間のエピポーラホモグラフィとから算出された一の撮影手段のエピポーラ線に適合しているので、姿勢が変化した時刻において姿勢変化前の姿勢で一の撮影手段が対象物を撮影したと仮定した場合のシルエット画像とみなすことができる。したがって、この移動後のシルエット画像すなわち姿勢変化前のシルエット画像に対する、姿勢が変化した時刻において抽出されたシルエット画像すなわち姿勢変化後のシルエット画像の移動量を求めることにより、一の撮影手段の姿勢を推定することができるので、観測環境中の固定物体の特徴点を利用することなく、姿勢変化可能な撮影手段の姿勢を高精度に推定することができる。   Here, the silhouette image after movement is one photographing means calculated from the epipolar line of another photographing means at the time when the posture changes and the epipolar homography between the one photographing means and the other photographing means. Therefore, it can be regarded as a silhouette image when it is assumed that one photographing means has photographed the object in the posture before the posture change at the time when the posture is changed. Therefore, by obtaining the amount of movement of the silhouette image extracted at the time when the posture changes, that is, the silhouette image after the posture change, with respect to the silhouette image after the movement, that is, the silhouette image before the posture change, the posture of one photographing means is determined. Since it can be estimated, the posture of the photographing means capable of changing the posture can be estimated with high accuracy without using the feature point of the fixed object in the observation environment.

移動手段は、第2の算出手段により算出された一の撮影手段のエピポーラ線に適合するように抽出手段により抽出された一の撮影手段のシルエット画像を移動させたときの一の撮影手段のシルエット画像の移動量を算出し、移動手段により算出された移動量を基に一の撮影手段の姿勢を推定する推定手段をさらに備えることが好ましい。   The moving means moves the silhouette image of one photographing means extracted by the extracting means so as to match the epipolar line of the one photographing means calculated by the second calculating means. It is preferable to further include an estimation unit that calculates the movement amount of the image and estimates the posture of one photographing unit based on the movement amount calculated by the movement unit.

この場合、算出された他の撮影手段のエピポーラ線に適合するように抽出された一の撮影手段のシルエット画像を移動させたときの一の撮影手段のシルエット画像の移動量が算出され、算出された移動量を基に一の撮影手段の姿勢を推定することができるので、簡便な処理により姿勢変化可能な撮影手段の姿勢を高精度に推定することができる。   In this case, the amount of movement of the silhouette image of one photographing means when the silhouette image of one photographing means extracted so as to match the calculated epipolar line of the other photographing means is calculated and calculated. Since the posture of one photographing means can be estimated based on the amount of movement, the posture of the photographing means whose posture can be changed can be estimated with high accuracy by simple processing.

移動手段は、一の撮影手段と他の撮影手段との間のエピポーラホモグラフィをHkl、他の撮影手段のエピポーラ線をllk,1,llk,2、抽出手段により抽出された一の撮影手段のシルエット画像をS (i)、シルエット画像S (i)を画像上で移動させるための変換をPとし、さらに、変換Pにより変換されたシルエット画像をP(S (i))で表し、第2の算出手段により算出された一の撮影手段のエピポーラ線lと平行な接線が通るシルエット画像S上の点をpS,lとしたときにエピポーラ線lと点pS,lとの距離をD(S,l)で表した場合、下記式(1)を最小とする変換Pを求めることが好ましい。 The moving means is H kl for epipolar homography between one imaging means and other imaging means, l lk, 1 , l lk, 2 for the epipolar lines of the other imaging means, The silhouette image of the photographing means is S k (i) , the transformation for moving the silhouette image S k (i) on the image is P, and the silhouette image transformed by the transformation P is P (S k (i) ), And when the point on the silhouette image S through which the tangent parallel to the epipolar line l of one photographing means calculated by the second calculating means passes is p S, l , the epipolar line l and the point p S, If the distance between l expressed in D (S, l), it is preferable to obtain the conversion P i to the following formula (1) and the minimum.

この場合、求められた変換Pから一の撮影手段のシルエット画像の移動量を算出することができるので、簡略な計算式を用いてシルエット画像の移動量を高速且つ高精度に算出することができる。 In this case, it is possible to calculate the movement amount of the silhouette images of one imaging unit from the conversion P i obtained, is possible to calculate the movement amount of the silhouette image at high speed and with high accuracy by using a simple formula it can.

取得手段は、初期校正時における一の撮影手段と他の撮影手段との間のエピポール及びエピポーラホモグラフィを取得することが好ましい。   The acquisition means preferably acquires epipole and epipolar homography between one imaging means and other imaging means at the time of initial calibration.

この場合、初期校正時における一の撮影手段と他の撮影手段との間のエピポール及びエピポーラホモグラフィを取得しているので、初期校正時にエピポール及びエピポーラホモグラフィを一度取得するだけで、初期校正時以降においてその姿勢が種々変化する撮影手段の姿勢を連続的に推定することができる。   In this case, since the epipole and epipolar homography between one imaging means and other imaging means at the time of initial calibration are acquired, it is only necessary to acquire the epipole and epipolar homography once at the time of initial calibration. Thereafter, it is possible to continuously estimate the posture of the photographing means whose posture changes variously.

本発明に係る撮影方法は、少なくとも一の撮影手段が姿勢変化可能に構成され且つ対象物を撮影する複数の撮影手段、取得手段、抽出手段、第1の算出手段、第2の算出手段及び移動手段を備える撮影システムを用いた撮影方法であって、取得手段が、所定時刻における一の撮影手段と他の撮影手段との間のエピポール及びエピポーラホモグラフィを取得するステップと、抽出手段が、一の撮影手段の姿勢が変化したときに一の撮影手段及び他の撮影手段により撮影された画像から対象物のシルエットを表すシルエット画像を抽出するステップと、第1の算出手段が、抽出された他の撮影手段のシルエット画像と、取得された一の撮影手段と他の撮影手段との間のエピポールとを基に他の撮影手段のエピポーラ線を決定するステップと、第2の算出手段が、決定された他の撮影手段のエピポーラ線と、取得された一の撮影手段と他の撮影手段との間のエピポーラホモグラフィとを基に、一の撮影手段のエピポーラ線を算出するステップと、移動手段が、算出された一の撮影手段のエピポーラ線に適合するように抽出手段により抽出された一の撮影手段のシルエット画像を移動させるステップとを含むものである。   An imaging method according to the present invention includes a plurality of imaging means, an acquisition means, an extraction means, a first calculation means, a second calculation means, and a movement, in which at least one imaging means is configured to be capable of changing its posture An imaging method using an imaging system comprising means for acquiring an epipole and epipolar homography between one imaging means and another imaging means at a predetermined time, and an extracting means Extracting the silhouette image representing the silhouette of the object from the images photographed by the one photographing means and the other photographing means when the posture of the photographing means is changed, and the first calculating means is the extracted other Determining an epipolar line of another imaging means based on the silhouette image of the imaging means and the acquired epipole between the one imaging means and the other imaging means; The calculation means calculates the epipolar line of one imaging means based on the determined epipolar line of the other imaging means and the acquired epipolar homography between the one imaging means and the other imaging means. And a step of moving the silhouette image of the one photographing unit extracted by the extracting unit so that the moving unit matches the calculated epipolar line of the one photographing unit.

本発明に係る画像処理プログラムは、少なくとも一の撮影手段が姿勢変化可能に構成され且つ対象物を撮影する複数の撮影手段により撮影された画像を処理する画像処理プログラムであって、所定時刻における一の撮影手段と他の撮影手段との間のエピポール及びエピポーラホモグラフィを取得する取得手段と、一の撮影手段の姿勢が変化したときに一の撮影手段及び他の撮影手段により撮影された画像から対象物のシルエットを表すシルエット画像を抽出する抽出手段と、抽出手段により抽出された他の撮影手段のシルエット画像と、取得手段により取得された一の撮影手段と他の撮影手段との間のエピポールとを基に他の撮影手段のエピポーラ線を算出する第1の算出手段と、第1の算出手段により算出された他の撮影手段のエピポーラ線と、取得手段により取得された一の撮影手段と他の撮影手段との間のエピポーラホモグラフィとを基に、一の撮影手段のエピポーラ線を算出する第2の算出手段と、第2の算出手段により算出された一の撮影手段のエピポーラ線に適合するように抽出手段により抽出された一の撮影手段のシルエット画像を移動させる移動手段としてコンピュータを機能させるものである。   An image processing program according to the present invention is an image processing program in which at least one photographing unit is configured to be able to change its posture and processes an image photographed by a plurality of photographing units that photograph an object. Acquisition means for acquiring epipole and epipolar homography between the imaging means and other imaging means, and images taken by one imaging means and other imaging means when the posture of one imaging means changes Extraction means for extracting a silhouette image representing the silhouette of the object, silhouette images of other photographing means extracted by the extracting means, and epipole between one photographing means and other photographing means obtained by the obtaining means Based on the above, the first calculation means for calculating the epipolar line of the other imaging means, and the epipolar of the other imaging means calculated by the first calculation means And a second calculation unit that calculates an epipolar line of the one imaging unit based on the epipolar homography between the one imaging unit and the other imaging unit acquired by the acquisition unit, and a second calculation The computer functions as a moving means for moving the silhouette image of one photographing means extracted by the extracting means so as to match the epipolar line of one photographing means calculated by the means.

本発明によれば、一の撮影手段と他の撮影手段との間のエピポール及びエピポーラホモグラフィ並びに姿勢変化後のシルエット画像から一の撮影手段の姿勢変化前のシルエット画像を求めることができるので、この姿勢変化前のシルエット画像に対する姿勢変化後のシルエット画像の移動量を求めることにより、観測環境中の固定物体の特徴点を利用することなく、姿勢変化可能な撮影手段の姿勢を高精度に推定することができる。   According to the present invention, since the epipole and epipolar homography between one photographing means and another photographing means and the silhouette image after the posture change, the silhouette image before the posture change of the one photographing means can be obtained. By obtaining the amount of movement of the silhouette image after the posture change with respect to the silhouette image before the posture change, the posture of the photographing means capable of changing the posture can be estimated with high accuracy without using the feature point of the fixed object in the observation environment. can do.

以下、本発明の一実施の形態による撮像システムについて図面を参照しながら説明する。図1は、本発明の一実施の形態による撮像システムの構成を示すブロック図である。   Hereinafter, an imaging system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an imaging system according to an embodiment of the present invention.

図1に示す撮像システムは、N台の可動カメラ11〜1n(Nは2以上の整数)及び画像処理装置20を備える。画像処理装置20は、複数の抽出部21〜2n、初期校正部31、第1エピポーラ線算出部32、第2エピポーラ線算出部33、移動量算出部34及び姿勢推定部35を備える。   The imaging system shown in FIG. 1 includes N movable cameras 11 to 1n (N is an integer of 2 or more) and an image processing device 20. The image processing apparatus 20 includes a plurality of extraction units 21 to 2n, an initial calibration unit 31, a first epipolar line calculation unit 32, a second epipolar line calculation unit 33, a movement amount calculation unit 34, and a posture estimation unit 35.

なお、画像処理装置20としては、図示の各機能を専用のハードウエア回路により構成してもよいし、この例に特に限定されず、ROM(リードオンリメモリ)、CPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)、外部記憶装置、入力装置、画像インタフェース装置及び表示装置等を備える通常のコンピュータを用いてもよい。この場合、後述する姿勢推定処理を実行するための画像処理プログラムをCPU等で実行することにより上記の各機能を実現することができる。また、ソフトウエアを用いる場合、上記の各機能の一部又は全部を1台又は複数台のコンピュータを用いて実行するようにしてもよい。   Note that the image processing device 20 may be configured by dedicated hardware circuits for each function shown in the drawing, and is not particularly limited to this example, and is not limited to ROM (Read Only Memory), CPU (Central Processing Unit), A normal computer including a RAM (Random Access Memory), an external storage device, an input device, an image interface device, a display device, and the like may be used. In this case, each of the above functions can be realized by executing an image processing program for executing a posture estimation process, which will be described later, on the CPU or the like. Moreover, when using software, you may make it perform one part or all part of each said function using one or several computers.

可動カメラ11〜1nは、パン方向及びチルト方向に撮影角度を変更可能なカラーカメラから構成され、例えば、ソニー株式会社製のパン チルター一体型カラービデオカメラEVI−G20を用いることができる。可動カメラ11〜1nは、観測空間内の所定位置、例えば、部屋又は廊下等の天井又は壁等に固定され、撮影対象となる対象物を同期撮影して画像データを抽出部21〜2nへ出力する。また、可動カメラ11〜1nは、姿勢制御部(図示省略)により公知の対象物追尾手法を用いて対象物を自動的に追尾するようにパン方向及びチルト方向の姿勢を自動的に制御されている。なお、可動カメラが撮影する画像は、カラー画像に特に限定されず、シルエット画像を抽出することができれば、白黒画像等の他の画像を用いてもよい。   The movable cameras 11 to 1n are composed of color cameras that can change the shooting angle in the pan direction and the tilt direction. For example, a pantilter integrated color video camera EVI-G20 manufactured by Sony Corporation can be used. The movable cameras 11 to 1n are fixed to a predetermined position in the observation space, for example, a ceiling or wall of a room or a corridor, and synchronously shoot a target object to be imaged and output image data to the extraction units 21 to 2n. To do. In addition, the movable cameras 11 to 1n are automatically controlled in posture in the pan direction and the tilt direction so as to automatically track an object by using a known object tracking method by an attitude control unit (not shown). Yes. The image captured by the movable camera is not particularly limited to a color image, and other images such as a black and white image may be used as long as a silhouette image can be extracted.

抽出部21〜2nは、可動カメラ11〜1n毎に設けられ、接続されている可動カメラ11〜1nから出力される画像データから対象物の輪郭を表すシルエット画像を1フレーム毎に抽出して初期校正部31、第1エピポーラ線算出部32及び移動量算出部34へ出力する。なお、抽出部21〜2nの構成は、上記の例に特に限定されず、複数の可動カメラ11〜1nから出力される複数の画像データを1フレーム内で処理できる場合は、一つの抽出部により各画像データを順次処理するようにしてもよい。   The extraction units 21 to 2n are provided for the movable cameras 11 to 1n, respectively, and extract a silhouette image representing the contour of the object from the image data output from the connected movable cameras 11 to 1n for each frame. The data is output to the calibration unit 31, the first epipolar line calculation unit 32, and the movement amount calculation unit 34. In addition, the structure of the extraction parts 21-2n is not specifically limited to said example, When the several image data output from the several movable cameras 11-1n can be processed within one frame, by one extraction part Each image data may be processed sequentially.

初期校正部31は、初期校正時に抽出部21〜2nから可動カメラ11〜1nのシルエット画像を取得し、これらのシルエット画像を用いて全ての可動カメラ11〜1nの初期校正処理(カメラキャリブレーション処理)を実行する。この校正処理としては、種々の校正処理を用いることができ、例えば、S.N.Sinha,M.Pollefeys and L.McMillan:“Camera network calibration from dynamic silhouettes”,Proc.of CVPR2004,Vol.1,pp.195−202 (2004)に記載されるカメラキャリブレーション手法を用いることができる。   The initial calibration unit 31 acquires silhouette images of the movable cameras 11 to 1n from the extraction units 21 to 2n at the time of initial calibration, and uses these silhouette images to perform initial calibration processing (camera calibration processing) of all the movable cameras 11 to 1n. ). As this calibration process, various calibration processes can be used. N. Sinha, M .; Pollefeys and L. McMillan: “Camera network calibration from dynamic silhouettes”, Proc. of CVPR2004, Vol. 1, pp. 195-202 (2004) can be used.

初期校正部31は、上記の初期校正結果を用いて可動カメラ11〜1n間の相対関係を計算して可動カメラ11〜1n間のエピポール及びエピポーラホモグラフィを取得し、可動カメラ11〜1n間のエピポールを第1エピポーラ線算出部32へ出力し、可動カメラ11〜1n間のエピポーラホモグラフィを第2エピポーラ線算出部33へ出力する。   The initial calibration unit 31 calculates the relative relationship between the movable cameras 11 to 1n using the above-described initial calibration result, acquires the epipole and epipolar homography between the movable cameras 11 to 1n, and obtains between the movable cameras 11 to 1n. The epipole is output to the first epipolar line calculation unit 32, and the epipolar homography between the movable cameras 11 to 1n is output to the second epipolar line calculation unit 33.

なお、可動カメラ11〜1n間のエピポール及びエピポーラホモグラフィを取得する方法は、上記の例に特に限定されず、別途計算した可動カメラ11〜1n間のエピポール及びエピポーラホモグラフィを直接取得する等の種々の変更が可能である。また、エピポール及びエピポーラホモグラフィの取得タイミングも、上記の例に特に限定されず、可動カメラ11〜1nによる観測中の任意の時刻においてエピポール及びエピポーラホモグラフィを取得するようにしてもよい。   In addition, the method of acquiring the epipole and epipolar homography between the movable cameras 11 to 1n is not particularly limited to the above example, and the epipole and the epipolar homography between the movable cameras 11 to 1n calculated separately are directly acquired. Various changes are possible. Further, the acquisition timing of the epipole and epipolar homography is not particularly limited to the above example, and the epipole and epipolar homography may be acquired at an arbitrary time during observation by the movable cameras 11 to 1n.

また、上記の初期校正時における各可動カメラ11〜1nの姿勢は、後述する姿勢推定処理における各可動カメラ11〜1nの基準姿勢となり、初期校正部31は、初期校正時における各可動カメラ11〜1nのパン方向及びチルト方向の角度を基準姿勢として姿勢推定部35へ出力する。なお、上記の初期校正処理は、可動カメラ11〜1nを設置したときに一度だけ行えばよい処理である。   Further, the postures of the movable cameras 11 to 1n at the time of the initial calibration become reference postures of the movable cameras 11 to 1n in the posture estimation process described later, and the initial calibration unit 31 includes the movable cameras 11 to 11 at the time of initial calibration. The angle in the pan direction and the tilt direction of 1n is output to the posture estimation unit 35 as a reference posture. The initial calibration process is a process that needs to be performed only once when the movable cameras 11 to 1n are installed.

第1エピポーラ線算出部32は、可動カメラ11〜1nのうち姿勢推定の対象となる一のカメラ以外の他のカメラのシルエット画像と、初期校正部31から出力される可動カメラ11〜1n間のエピポールとを用いて他のカメラのエピポーラ線を算出して第2エピポーラ線算出部33へ出力する。   The first epipolar line calculation unit 32 is between the movable cameras 11 to 1n and the movable cameras 11 to 1n output from the initial calibration unit 31 and the silhouette images of cameras other than the one camera that is the target of posture estimation. Epipolar lines of other cameras are calculated using the epipole and output to the second epipolar line calculating unit 33.

第2エピポーラ線算出部33は、第1エピポーラ線算出部32から出力される他のカメラのエピポーラ線と、初期校正部31から出力される可動カメラ11〜1n間のエピポーラホモグラフィとを用いて姿勢推定の対象となる一のカメラのエピポーラ線を算出して移動量算出部34へ出力する。   The second epipolar line calculation unit 33 uses the epipolar line of another camera output from the first epipolar line calculation unit 32 and the epipolar homography between the movable cameras 11 to 1n output from the initial calibration unit 31. The epipolar line of one camera that is the target of posture estimation is calculated and output to the movement amount calculation unit 34.

移動量算出部34は、一のカメラの姿勢が変化したときに抽出部21〜2nにより抽出された一のカメラのシルエット画像を第2エピポーラ線算出部33から出力される一のカメラのエピポーラ線に適合するように移動させ、姿勢変化前後の一のカメラのシルエット画像の移動量を算出して姿勢推定部35へ出力する。   The movement amount calculation unit 34 outputs the silhouette image of one camera extracted by the extraction units 21 to 2n when the posture of the one camera changes, and the epipolar line of one camera output from the second epipolar line calculation unit 33 The movement amount of the silhouette image of one camera before and after the posture change is calculated and output to the posture estimation unit 35.

具体的には、移動量算出部34は、一のカメラと他のカメラとの間のエピポーラホモグラフィをHkl、他のカメラのエピポーラ線をllk,1,llk,2、姿勢変化時に抽出された一のカメラのシルエット画像をS (i)、シルエット画像S (i)を画像上で移動させるための変換をPとし、変換Pにより変換されたシルエット画像をP(S (i))で表し、第2エピポーラ線算出部33により算出された一のカメラのエピポーラ線lと平行な接線が通るシルエット画像S上の点をpS,lとしたときにエピポーラ線lと点pS,lとの距離をD(S,l)で表した場合、下記式(1)を最小とする変換Pを求める。ここで求まった変換Pは、一のカメラの姿勢変化によるシルエット画像の移動量(移動方向情報を含む)を表す。 Specifically, the movement amount calculation unit 34 performs epipolar homography between one camera and another camera as H kl , epipolar lines of other cameras as l lk, 1 , l lk, 2 , when the posture changes. The extracted silhouette image of one camera is S k (i) , the transformation for moving the silhouette image S k (i) on the image is P, and the silhouette image transformed by the transformation P is P (S k ( i) When the point on the silhouette image S that passes through a tangent parallel to the epipolar line l of one camera calculated by the second epipolar line calculation unit 33 is represented by p S, l , the epipolar line l and the point When the distance from p S, l is represented by D (S, l), a transformation P i that minimizes the following equation (1) is obtained. The transformation P i obtained here represents the amount of movement (including movement direction information) of the silhouette image due to the posture change of one camera.

姿勢推定部35は、初期校正部31から出力される基準姿勢と、移動量算出部34により算出された変換Pすなわちシルエット画像の姿勢変化前後の移動量とから、一のカメラの姿勢すなわちパン方向及びチルト方向の角度を推定する。上記の処理が全ての可動カメラ11〜1nに対して実行され、全ての可動カメラ11〜1nの姿勢が推定される。 Posture estimation unit 35 includes a reference posture that is output from the initial calibration unit 31, and a posture change before and after the movement amount of conversion P i Namely silhouette image calculated by the movement amount calculating section 34, the posture i.e. pan of one camera Estimate the angle of the direction and tilt direction. The above processing is executed for all the movable cameras 11 to 1n, and the postures of all the movable cameras 11 to 1n are estimated.

本実施の形態では、可動カメラ11〜1nが撮影手段の一例に相当し、初期校正部31が取得手段の一例に相当し、抽出部21〜2nが抽出手段の一例に相当し、第1エピポーラ線算出部32が第1の算出手段の一例に相当し、第2エピポーラ線算出部33が第2の算出手段の一例に相当し、移動量算出部34が移動手段の一例に相当し、姿勢推定部35が推定手段の一例に相当する。   In the present embodiment, the movable cameras 11 to 1n correspond to an example of an imaging unit, the initial calibration unit 31 corresponds to an example of an acquisition unit, the extraction units 21 to 2n correspond to an example of an extraction unit, and the first epipolar unit. The line calculation unit 32 corresponds to an example of a first calculation unit, the second epipolar line calculation unit 33 corresponds to an example of a second calculation unit, the movement amount calculation unit 34 corresponds to an example of a movement unit, and the posture The estimation unit 35 corresponds to an example of an estimation unit.

次に、上記のように構成された撮像システムによる姿勢推定処理について説明する。図2は、図1に示す撮像システムによる姿勢推定処理を説明するためのフローチャートである。   Next, posture estimation processing by the imaging system configured as described above will be described. FIG. 2 is a flowchart for explaining posture estimation processing by the imaging system shown in FIG.

まず、ステップS1において、可動カメラ11〜1nは、対象物を撮影して画像データを抽出部21〜2nへ出力し、抽出部21〜2nは、画像データからシルエット画像を抽出し、初期のシルエット画像として初期校正部31へ出力する。   First, in step S1, the movable cameras 11 to 1n capture an object and output image data to the extraction units 21 to 2n. The extraction units 21 to 2n extract silhouette images from the image data, and the initial silhouettes are extracted. The image is output to the initial calibration unit 31 as an image.

ここで、本撮像システムによる姿勢推定処理の背景となるシルエット形状(シルエット画像の輪郭)とフロンティア点との関係ついて説明する。なお、以下の説明では、説明を容易にするために、可動カメラ11〜1nのうち姿勢推定対象となる一のカメラをカメラK、他のカメラをカメラLとして説明する。   Here, the relationship between the silhouette shape (contour of the silhouette image) and the frontier point, which is the background of the posture estimation processing by the imaging system, will be described. In the following description, for ease of explanation, one of the movable cameras 11 to 1n is described as camera K, and the other camera as camera L.

図3は、シルエット形状とフロンティア点との関係を説明するための模式図である。フロンティア点とは、図3に示すように、2台のカメラK,Lで得られる両方のシルエット画像の輪郭上に投影される物体表面上の点Pであり、図3からフロンティア点Pにおけるエピポーラ線は、(それぞれ互いのエピポールを通る)シルエット形状の接線として得られることがわかる。 FIG. 3 is a schematic diagram for explaining the relationship between the silhouette shape and the frontier point. As shown in FIG. 3, the frontier point is a point P f on the object surface projected on the contours of both silhouette images obtained by the two cameras K and L. From FIG. 3, the frontier point P f It can be seen that the epipolar lines at are obtained as silhouette-shaped tangents (each passing through each other's epipole).

また、2枚の画像I,Iで得られた2本のエピポーラ線lkl,llkについて以下の関係が成立する。 Further , the following relationship is established for the two epipolar lines l kl and l lk obtained from the two images I k and I l .

allk=Hklkl …(2)
ここで、HklはカメラKとカメラLとの間のエピポーラホモグラフィ、aは定数であり、エピポーラホモグラフィはカメラKとカメラLとの間の基礎行列Fkl及びエピポールekl,elkから計算できる。本撮像システムでは、上記のシルエット画像の輪郭上に定められる2カメラK,L間の共通観測点であるフロンティア点Pの性質を利用して各カメラの姿勢を推定している。
al lk = H kl l kl (2)
Here, H kl is an epipolar homography between the camera K and the camera L, a is a constant, and the epipolar homography is obtained from the basic matrix F kl and the epipoles e kl and e lk between the camera K and the camera L. Can be calculated. In this imaging system, it estimates the common observation point is by utilizing the property of the frontier point P f postures of the cameras between two cameras K, L defined on the contour of the silhouette image.

次に、ステップS2において、初期校正部31は、初期校正時において抽出部21〜2nから可動カメラ11〜1nのシルエット画像を取得し、取得したシルエット画像を用いて全ての可動カメラ11〜1nの初期校正処理を実行する。この初期校正結果を用いて、初期校正部31は、各可動カメラ11〜1n間の相対関係を計算して可動カメラ11〜1n間のエピポール及びエピポーラホモグラフィを算出し、可動カメラ11〜1n間のエピポールを第1エピポーラ線算出部32へ出力し、可動カメラ11〜1n間のエピポーラホモグラフィを第2エピポーラ線算出部33へ出力する。   Next, in step S2, the initial calibration unit 31 acquires silhouette images of the movable cameras 11 to 1n from the extraction units 21 to 2n at the time of initial calibration, and uses all of the movable cameras 11 to 1n using the acquired silhouette images. Perform initial calibration. Using this initial calibration result, the initial calibration unit 31 calculates the relative relationship between the movable cameras 11 to 1n to calculate the epipole and epipolar homography between the movable cameras 11 to 1n, and between the movable cameras 11 to 1n. Are output to the first epipolar line calculation unit 32, and epipolar homography between the movable cameras 11 to 1 n is output to the second epipolar line calculation unit 33.

ここで、上記の初期校正処理について上記のカメラK,Lを例に詳細に説明する。各カメラK,Lの初期校正段階では、上記のSinhaらの提案したシルエット画像による多視点システムの校正手法を基に、各カメラK,Lの位置を推定するとともに、カメラK,L間の相対関係を求める。   Here, the above-described initial calibration processing will be described in detail using the cameras K and L as an example. In the initial calibration stage of each camera K, L, the position of each camera K, L is estimated based on the calibration method of the multi-viewpoint system using the silhouette image proposed by Sinha et al. Seeking a relationship.

まず、各カメラK,Lで得られた画像から抽出されたシルエット画像に対して、X軸に対してそれぞれ0〜360(deg)の傾きを有する接線群を計算する。それぞれの角度における接点座標を各シルエット画像の特徴量として記録すると、例えば、図4に示すシルエット画像(図中の白色領域)と接線群(図中の白線)とが得られる。   First, a tangent group having an inclination of 0 to 360 (deg) with respect to the X axis is calculated for silhouette images extracted from images obtained by the cameras K and L. When the contact coordinates at each angle are recorded as the feature amount of each silhouette image, for example, a silhouette image (white area in the figure) and a tangent group (white line in the figure) shown in FIG. 4 are obtained.

次に、2台のカメラK,Lで得られた対応する1組のシルエット画像の接線群の中から各カメラK,Lに対して2本ずつランダムに接線を選択し、それぞれの交点をエピポールとして仮定する。続いて、カメラK,Lの別のシルエット画像組から、上記仮定したエピポールを用いて対応する1組の接線を抽出する。ここで得られた3本の接線と2つのエピポールとを用いることにより、2台のカメラK,L間の基礎行列Fklが計算できる。 Next, two tangent lines are randomly selected for each camera K and L from the corresponding set of silhouette image tangents obtained by the two cameras K and L, and the intersection points of each are epipole. Assuming that Subsequently, a corresponding set of tangents is extracted from another silhouette image set of the cameras K and L using the assumed epipole. By using the three tangents and two epipoles obtained here, the basic matrix F kl between the two cameras K and L can be calculated.

次に、上記の処理に用いた2組の観測組以外の観測列を用いて得られた基礎行列Fklを評価し、評価が十分に高い(2組以外の観測列について投影誤差が小さい)ものが得られるまで処理を繰り返し、基礎行列Fklを決定する。最後に、上記の処理により計算された各カメラK,Lのキャリブレーション結果から、カメラK,L間のエピポールekl,elkとエピポーラホモグラフィHklが算出される。 Next, the basic matrix F kl obtained using the observation sequences other than the two observation sets used in the above processing is evaluated, and the evaluation is sufficiently high (the projection error is small for the observation sequences other than the two sets). The process is repeated until a thing is obtained, and the basic matrix F kl is determined. Finally, the epipoles e kl and e lk and the epipolar homography H kl between the cameras K and L are calculated from the calibration results of the cameras K and L calculated by the above processing.

次に、ステップS3において、可動カメラ11〜1nは、対象物を追尾しながら、その姿勢を変化させる。なお、可動カメラ11〜1nの追尾動作は、初期校正処理後の観測期間において連続的に実行されており、少なくとも1台の可動カメラの姿勢が変化するものとする。   Next, in step S3, the movable cameras 11 to 1n change their postures while tracking the object. In addition, the tracking operation | movement of the movable cameras 11-1n is continuously performed in the observation period after an initial calibration process, and the attitude | position of at least 1 movable camera shall change.

次に、ステップS4において、可動カメラ11〜1nは、対象物を撮影して画像データを抽出部21〜2nへ出力し、抽出部21〜2nは、上記の初期校正処理と同様に、姿勢変化後の画像データからシルエット画像を抽出して第1エピポーラ線算出部32及び移動量算出部34へ出力する。   Next, in step S4, the movable cameras 11 to 1n photograph the object and output image data to the extraction units 21 to 2n. The extraction units 21 to 2n change the posture in the same manner as the initial calibration process. A silhouette image is extracted from the subsequent image data and output to the first epipolar line calculation unit 32 and the movement amount calculation unit 34.

次に、ステップS5において、第1エピポーラ線算出部32は、可動カメラ11〜1nのうち姿勢推定の対象となる一のカメラ以外の他のカメラのシルエット画像と、初期校正部31から出力される可動カメラ11〜1n間のエピポールとを用いて他のカメラのエピポーラ線を算出して第2エピポーラ線算出部33へ出力する。   Next, in step S <b> 5, the first epipolar line calculation unit 32 outputs the silhouette images of cameras other than the one camera that is the target of posture estimation among the movable cameras 11 to 1 n and the initial calibration unit 31. Epipolar lines of other cameras are calculated using the epipole between the movable cameras 11 to 1n and output to the second epipolar line calculation unit 33.

次に、ステップS6において、第2エピポーラ線算出部33は、第1エピポーラ線算出部32から出力される他のカメラのエピポーラ線と、初期校正部31から出力される可動カメラ11〜1n間のエピポーラホモグラフィとを用いて姿勢推定の対象となる一のカメラの基準姿勢におけるエピポーラ線を算出して移動量算出部34へ出力する。   Next, in step S <b> 6, the second epipolar line calculation unit 33 is connected between the epipolar lines of other cameras output from the first epipolar line calculation unit 32 and the movable cameras 11 to 1n output from the initial calibration unit 31. Epipolar lines in the reference posture of one camera that is the target of posture estimation are calculated using epipolar homography and output to the movement amount calculation unit 34.

次に、ステップS7において、移動量算出部34は、上記式(1)を最小とする変換Pを求め、この変換Pを一のカメラの姿勢変化によるシルエット画像の移動量として姿勢推定部35へ出力する。 Next, in step S7, the movement amount calculation unit 34 obtains a transformation P i that minimizes the above equation (1), and uses this transformation P i as a movement amount of a silhouette image due to a posture change of one camera. To 35.

次に、ステップS8において、姿勢推定部35は、初期校正部31から出力される基準姿勢と、移動量算出部34により算出されたシルエット画像の移動量とから一のカメラの姿勢すなわちパン方向及びチルト方向の角度を推定し、その後、ステップS3に戻って以降の処理を継続する。   Next, in step S8, the posture estimation unit 35 determines the posture of one camera, that is, the pan direction and the panning direction from the reference posture output from the initial calibration unit 31 and the movement amount of the silhouette image calculated by the movement amount calculation unit 34. The angle in the tilt direction is estimated, and then the process returns to step S3 and the subsequent processing is continued.

次に、上記のステップS4〜S8の処理をカメラK,Lを例に詳細に説明する。まず、上記の初期校正処理と同様に各カメラK,Lで得られた画像からシルエット画像が抽出され、画像面のX軸に対してそれぞれ0〜360(deg)の傾きの接線群が計算され、それぞれの角度における接点座標が各シルエット画像の特徴量として記録される。   Next, the processes in steps S4 to S8 will be described in detail using the cameras K and L as an example. First, silhouette images are extracted from the images obtained by the cameras K and L in the same manner as in the initial calibration process described above, and tangent groups each having an inclination of 0 to 360 (deg) with respect to the X axis of the image plane are calculated. The contact coordinates at each angle are recorded as the feature amount of each silhouette image.

次に、得られたシルエット画像を用いて各カメラの姿勢を以下のようにして推定する。図5は、対象物とシルエット画像との関係を説明するための模式図であり、図6は、シルエット画像とエピポーラ幾何との関係を説明するための模式図である。なお、以下では説明を簡単にするため、カメラKの姿勢だけが変化している場合について考える。   Next, the posture of each camera is estimated as follows using the obtained silhouette image. FIG. 5 is a schematic diagram for explaining the relationship between the object and the silhouette image, and FIG. 6 is a schematic diagram for explaining the relationship between the silhouette image and the epipolar geometry. In the following, in order to simplify the description, a case where only the posture of the camera K is changed will be considered.

図5に示すように、2台のカメラK,Lに注目し、初期校正時の両カメラK,Lの姿勢をR (0),R、フレームiにおけるカメラKの姿勢をR (i)とし、各姿勢に対応するカメラをK(0),L,K(i)とする。カメラK(0),K(i)間の姿勢変化量ΔR (i)が小さいと仮定すると、カメラK(0),K(i)により撮影されるシルエット画像S (0),S (i)について、投影位置及び姿勢は大きく変化するが、形状の変化は微小であると仮定できる。 As shown in FIG. 5, paying attention to the two cameras K and L, the postures of both the cameras K and L at the time of initial calibration are R k (0) and R l , and the posture of the camera K in the frame i is R k ( i), and let K (0) , L, K (i) be the cameras corresponding to each posture. Camera K (0), K the (i) posture variation between [Delta] R k (i) is assumed to be small, the camera K (0), the silhouette image S k (0) to be taken by K (i), S k Regarding (i) , it can be assumed that the projection position and orientation change greatly, but the change in shape is minute.

ここで、図6に示すように、フレームiにおいて、カメラK(i),L上でシルエット画像S (i),S (i)が得られたとすると、上記の初期校正処理によりカメラK(0),L間のエピポールekl,elkは既知であるため、カメラK(0),L間で得られるフロンティア点に関するカメラL上のエピポーラ線は、シルエット画像S (i)の接線群のうちエピポールelkを通過する2本の接線llk,1,llk,2として得られる。 Here, as shown in FIG. 6, assuming that silhouette images S k (i) and S l (i) are obtained on the cameras K (i) and L in the frame i, the camera K is subjected to the initial calibration process. Since the epipoles e kl and e lk between (0) and L are known, the epipolar line on the camera L regarding the frontier point obtained between the cameras K (0) and L is the tangent of the silhouette image S l (i) It is obtained as two tangents l lk, 1 , l lk, 2 passing through the epipole e lk of the group.

一方、カメラK(0)については、シルエット画像S (0)が既知であれば、カメラK(0)上でのエピポーラ線は、シルエット画像S (0)の接線群のうちエピポールeklを通過する2本の接線として求められるが、実際には、フレームiでは、カメラKの姿勢が変化しており、カメラK(0)によってシルエット画像S (0)を直接観測することはできない。 On the other hand, for the camera K (0) , if the silhouette image S k (0) is known, the epipolar line on the camera K (0) is the epipole e kl in the tangent line group of the silhouette image S k (0). However, in practice, the posture of the camera K changes in the frame i, and the silhouette image S k (0) cannot be directly observed by the camera K (0) . .

このため、カメラK(0),L間のエピポーラホモグラフィHklに注目すると、カメラLでのエピポーラ線llk,1,llk,2とエピポーラホモグラフィHklとからカメラK(0)におけるエピポーラ線lkl,1,lkl,2を計算することができる。また、カメラK(i)で得られたシルエット画像S (i)に注目すると、カメラK(0),K(i)間におけるシルエット形状の差は微小との仮定より、カメラK(0)で得られるシルエット画像S (0)は、シルエット画像S (i)を画像上で並進及び回転させたものとして与えられる。 Therefore, when attention is paid to the epipolar homography H kl between the cameras K (0) and L, the epipolar lines l lk, 1 , l lk, 2 and the epipolar homography H kl at the camera L are used in the camera K (0) . Epipolar lines l kl, 1 , l kl, 2 can be calculated. Further, when attention is paid to the silhouette image S k (i) obtained by the camera K (i) , the difference in silhouette shape between the cameras K (0) and K (i) is assumed to be very small, and the camera K (0) The silhouette image S k (0) obtained in the above is given as a translation and rotation of the silhouette image S k (i) on the image.

ここで、変換Pを定義し、変換Pにより変換されたシルエット画像SをP(S)で表すと、シルエット画像P(S)とエピポールeklとからカメラK(0)上のエピポーラ線l’kl,1,l’kl,2が求められる。同様に、エピポーラホモグラフィHklとエピポーラ線llk,1,llk,2からカメラK(0)上のエピポーラ線lkl,1,lkl,2が計算できるため、エピポーラ線lkl,1,lkl,2とl’kl,1,l’kl,2とが一致するような変換Pを計算することにより、カメラK(0)上のシルエット投影位置を決定できる。 Here, when the transformation P is defined and the silhouette image S k transformed by the transformation P is represented by P (S k ), the epipolar on the camera K (0) is obtained from the silhouette image P (S k ) and the epipole e kl. Lines l ′ kl, 1 , l ′ kl, 2 are determined. Similarly, since the epipolar lines l kl, 1 , 1 kl, 2 on the camera K (0) can be calculated from the epipolar homography H kl and the epipolar lines l lk, 1 , 1 lk, 2 , the epipolar lines l kl, 1 , L kl, 2 and l ′ kl, 1 , l ′ kl, 2 are calculated to calculate the transformation P i so that the silhouette projection position on the camera K (0) can be determined.

実際には、カメラKは、カメラLを含む複数の他のカメラと観測を共有しているため、各カメラで得られたシルエット画像の形状のみに注目し、基準姿勢のカメラ群に対して初期校正時のカメラ間の相対関係を最も良く満たすような各シルエットの投影位置及び姿勢を探索することにより、カメラK(0)で得られるシルエット画像S (0)を推定できる。この探索は、上記式(1)を最小にする変換Pを求めることにより計算される。 Actually, since the camera K shares observations with a plurality of other cameras including the camera L, it pays attention only to the shape of the silhouette image obtained by each camera, and it is initial for the camera group of the reference posture. The silhouette image S k (0) obtained by the camera K (0) can be estimated by searching for the projection position and posture of each silhouette that best satisfies the relative relationship between the cameras at the time of calibration. This search is calculated by finding the transformation P i that minimizes equation (1) above.

図7は、シルエット画像とエピポーラ線との距離を説明するための模式図である。上記式(1)におけるD(S,l)は、図7に示す直線lと点pS,lとの距離であり、点pS,lはシルエット画像S上で直線lと平行な接線が通る点である。したがって、シルエット画像Sが変換Pにより変換されたシルエット画像すなわち移動後のシルエット画像P(S (i))であり、直線lがカメラK(0)上のエピポーラ線lkl,1,lkl,2すなわちHkllk,1、Hkllk,2である場合、D(S,l)は、カメラK(0)上のエピポーラ線lkl,1,lkl,2と移動後のシルエット画像P(S (i))との距離を表す。 FIG. 7 is a schematic diagram for explaining the distance between the silhouette image and the epipolar line. In the above equation (1), D (S, l) is the distance between the straight line 1 and the point p S, l shown in FIG. 7, and the point p S, l has a tangent line parallel to the straight line l on the silhouette image S. It is a passing point. Therefore, the silhouette image S is a silhouette image converted by the conversion P i, that is, the silhouette image P (S k (i) ) after movement, and the straight line l is an epipolar line l kl, 1 , 1 on the camera K (0). kl, 2, ie, H kl l lk, 1 and H kl l lk, 2 , D (S, l) is moved with the epipolar line l kl, 1 , l kl, 2 on camera K (0) Represents the distance from the silhouette image P (S k (i) ).

このようにして求められた変換Pは、カメラK(0),K(i)間の姿勢変化によるシルエット画像の移動量を表すので、変換PからカメラK(0),K(i)間の姿勢変化量ΔR (i)を計算することができ、フレームごとのカメラKの姿勢すなわちパン方向及びチルト方向の角度が計算できる。 Since the transformation P i obtained in this manner represents the amount of movement of the silhouette image due to the posture change between the cameras K (0) and K (i) , the transformation K i to the cameras K (0) and K (i) A posture change amount ΔR k (i) can be calculated, and the posture of the camera K for each frame, that is, the angle in the pan direction and the tilt direction can be calculated.

なお、上記の説明では、姿勢推定の対象となるカメラが1台の場合について説明したが、複数台のカメラの姿勢を推定する場合も基本的に同様であり、姿勢推定の対象となるカメラ毎に、各ステップの処理を並列的に実行したり、ステップS4〜S8の処理を繰り返してシーケンス的に実行したりすることにより、姿勢推定の対象となる全てのカメラの姿勢を推定することができる。   In the above description, the case where there is one camera for which the posture is to be estimated has been described. However, the same applies to the case where the postures of a plurality of cameras are estimated. Furthermore, the postures of all the cameras that are subject to posture estimation can be estimated by executing the processing of each step in parallel or by repeating the processing of steps S4 to S8 in sequence. .

上記の処理により、本実施の形態では、初期校正時における可動カメラ11〜1n間のエピポール及びエピポーラホモグラフィが算出され、可動カメラ11〜1nのうち姿勢推定対象となるカメラの姿勢が変化したときに姿勢推定対象のカメラ及び他のカメラにより撮影された画像からシルエット画像が抽出され、抽出された他のカメラのシルエット画像と、姿勢推定対象のカメラと他のカメラとの間のエピポールとから他のカメラのエピポーラ線が算出され、算出された他のカメラのエピポーラ線と、姿勢推定対象のカメラと他のカメラとの間のエピポーラホモグラフィとから姿勢推定対象のカメラのエピポーラ線が算出され、算出された姿勢推定対象のカメラのエピポーラ線と移動後のシルエット画像との距離が最小となるように、姿勢変化後のシルエット画像を移動するための変換Pが求められ、この変換Pから姿勢推定対象のカメラの姿勢すなわちパン方向及びチルト方向の角度が計算される。 With the above processing, in the present embodiment, the epipole and epipolar homography between the movable cameras 11 to 1n at the time of initial calibration are calculated, and the posture of the camera that is the posture estimation target among the movable cameras 11 to 1n is changed. A silhouette image is extracted from the camera captured by the posture estimation target and other cameras, and the other silhouette image of the other camera extracted and the epipole between the camera of the posture estimation target and the other camera are extracted. The epipolar line of the other camera is calculated, and the epipolar line of the target camera is calculated from the calculated epipolar line of the other camera and the epipolar homography between the target camera and the other camera, Posture so that the distance between the calculated epipolar line of the target camera and the silhouette image after movement is minimized Converting P i for moving silhouette image is obtained after reduction, the posture i.e. the angle in the pan direction and the tilt direction of the transformation P i from the pose estimation target camera is calculated.

したがって、観測環境中の固定物体の特徴点を利用することなく、姿勢変化可能な可動カメラ11〜1nの姿勢を高速且つ高精度に推定することができる。この結果、可動カメラ11〜1nの姿勢が変化する場合にも、各可動カメラ11〜1nで得られるシルエット画像を用いて、姿勢変化に追従したカメラ校正処理を実行することができる。   Therefore, the postures of the movable cameras 11 to 1n whose posture can be changed can be estimated with high speed and high accuracy without using the feature points of the fixed object in the observation environment. As a result, even when the postures of the movable cameras 11 to 1n change, it is possible to execute camera calibration processing that follows the posture changes using the silhouette images obtained by the movable cameras 11 to 1n.

次に、上記の撮影システムの姿勢推定精度について説明する。図1に示す撮影システムとして、4台の可動カメラを用い、4台の可動カメラのうち1台の可動カメラのみ姿勢を変化させ、他の3台の可動カメラは固定カメラとして使用した。図8は、撮影を行った環境を示す図であり、観測環境中の固定物体等は何ら配置することなく、青色の背景中に対象物として自走玩具を配置した。   Next, attitude estimation accuracy of the above-described imaging system will be described. As the imaging system shown in FIG. 1, four movable cameras were used, and only one of the four movable cameras was changed in posture, and the other three movable cameras were used as fixed cameras. FIG. 8 is a diagram illustrating an environment in which photographing is performed, and a self-propelled toy is arranged as an object in a blue background without arranging any fixed objects or the like in the observation environment.

上記の観測環境において、まず、4台の可動カメラの姿勢を固定し、上記の初期校正処理を行い、各可動カメラ間のエピポール及びエピポーラホモグラフィを算出した。次に、1台の可動カメラのみ姿勢を変化させながら、4台の可動カメラによりシーン中を移動する自走玩具の観測を行った。このとき、4台の可動カメラでは同期観測が行われており、約20秒の観測期間において130フレームの画像列を得た。   In the above observation environment, first, the postures of the four movable cameras were fixed, the initial calibration process was performed, and the epipole and epipolar homography between the movable cameras were calculated. Next, the self-propelled toy moving in the scene was observed with four movable cameras while changing the posture of only one movable camera. At this time, synchronous observation was performed with four movable cameras, and an image sequence of 130 frames was obtained in an observation period of about 20 seconds.

図9は、観測画像列の一例を示す図であり、図中の姿勢変化カメラが姿勢を変化させた1台の可動カメラにより撮影された画像列を示し、固定カメラ1〜3が姿勢を変化させていない3台の可動カメラにより撮影された画像列を示している。姿勢変化カメラの姿勢は、コンピュータにより制御され、各フレームで得られた4枚の画像を用い、姿勢変化カメラの姿勢を推定した。   FIG. 9 is a diagram illustrating an example of an observed image sequence. FIG. 9 illustrates an image sequence photographed by one movable camera whose posture is changed by the posture change camera in the drawing, and the fixed cameras 1 to 3 are changed in posture. The image sequence image | photographed with three movable cameras which are not made to show is shown. The posture of the posture change camera was controlled by a computer, and the posture of the posture change camera was estimated using four images obtained in each frame.

図10は、姿勢変化カメラの基準姿勢におけるシルエット投影位置及び姿勢の推定結果の一例を示す図であり、図11は、姿勢推定結果の一例を示す図であり、図11の横軸はフレーム数、縦軸は姿勢値、実線は本観測システムによる姿勢推定値、破線はコンピュータにより与えた姿勢変化カメラの姿勢制御値を示している。図10の左上の画像が姿勢変化カメラのシルエット投影位置及び姿勢の推定結果を示し、他の3枚の画像が固定カメラ1〜3のシルエット投影位置及び姿勢の推定結果を示している。また、図11に示すように、推定誤差は平均0.2度であり、姿勢変化カメラの姿勢を正確に推定できていることがわかった。   10 is a diagram illustrating an example of a silhouette projection position and posture estimation result in the reference posture of the posture change camera, FIG. 11 is a diagram illustrating an example of the posture estimation result, and the horizontal axis in FIG. 11 represents the number of frames. The vertical axis represents the attitude value, the solid line represents the estimated attitude value by the present observation system, and the broken line represents the attitude control value of the attitude change camera given by the computer. The upper left image of FIG. 10 shows the silhouette projection position and posture estimation results of the posture change camera, and the other three images show the silhouette projection positions and posture estimation results of the fixed cameras 1 to 3. Further, as shown in FIG. 11, the estimation error is an average of 0.2 degrees, and it has been found that the posture of the posture change camera can be accurately estimated.

なお、上記の説明では、可動カメラの姿勢推定までの処理について説明したが、推定した姿勢を用いて対象物の3次元形状情報を復元するようにしてもよい。この場合、3次元形状情報復元処理として、公知の視体積交差法等を用いることができ、例えば、上記の非特許文献1に記載される視体積交差法とステレオマッチング法を用いた多視点画像からの3次元動オブジェクト生成手法や、「平面間透視投影を用いた並列視体積交差法」(ウ他3名、情報処理学会論文誌:コンピュータとイメージメディア、2001年、Vol.42、SIG(CVIM2)、p.33−p.43)等の手法を用いることができる。   In the above description, the process up to the estimation of the posture of the movable camera has been described. However, the three-dimensional shape information of the object may be restored using the estimated posture. In this case, a known visual volume intersection method or the like can be used as the three-dimensional shape information restoration processing. For example, a multi-viewpoint image using the visual volume intersection method and the stereo matching method described in Non-Patent Document 1 above. 3D moving object generation method from "Parallel view volume intersection method using inter-plane perspective projection" (U et al., 3 people, Journal of Information Processing Society of Japan: Computer and Image Media, 2001, Vol. 42, SIG ( CVIM2), p.33-p.43), etc. can be used.

また、本実施の形態では、可動カメラの姿勢を明示的に推定したが、この例に特に限定されず、可動カメラの姿勢を明示的に推定することなく、可動カメラの姿勢に対応するパラメータを推定し、このパラメータを用いて対象物の3次元形状情報を復元するようにしてもよい。また、本実施の形態では、カメラのパン方向及びチルト方向の角度を推定したが、この例に特に限定されず、本発明はカメラの姿勢すなわちすべての方向の角度を推定することができる。   In this embodiment, the attitude of the movable camera is explicitly estimated. However, the present invention is not particularly limited to this example, and the parameters corresponding to the attitude of the movable camera can be set without explicitly estimating the attitude of the movable camera. It may be estimated and the three-dimensional shape information of the object may be restored using this parameter. In this embodiment, the angles of the pan direction and the tilt direction of the camera are estimated. However, the present invention is not particularly limited to this example, and the present invention can estimate the posture of the camera, that is, the angles of all directions.

本発明の一実施の形態による撮像システムの構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging system according to an embodiment of the present invention. 図1に示す撮像システムによる姿勢推定処理を説明するためのフローチャートである。3 is a flowchart for explaining posture estimation processing by the imaging system shown in FIG. 1. シルエット形状とフロンティア点との関係を説明するための模式図である。It is a schematic diagram for demonstrating the relationship between a silhouette shape and a frontier point. シルエット画像と接線群との関係の一例を示す図である。It is a figure which shows an example of the relationship between a silhouette image and a tangent group. 対象物とシルエット画像との関係を説明するための模式図である。It is a schematic diagram for demonstrating the relationship between a target object and a silhouette image. シルエット画像とエピポーラ幾何との関係を説明するための模式図である。It is a schematic diagram for demonstrating the relationship between a silhouette image and epipolar geometry. シルエット画像とエピポーラ線との距離を説明するための模式図である。It is a schematic diagram for demonstrating the distance of a silhouette image and an epipolar line. 撮影を行った環境を示す図である。It is a figure which shows the environment which image | photographed. 観測画像列の一例を示す図である。It is a figure which shows an example of an observation image sequence. 姿勢変化カメラの基準姿勢におけるシルエット投影位置及び姿勢の推定結果の一例を示す図である。It is a figure which shows an example of the estimation result of the silhouette projection position and attitude | position in the reference | standard attitude | position of an attitude | position change camera. 姿勢推定結果の一例を示す図である。It is a figure which shows an example of an attitude | position estimation result.

符号の説明Explanation of symbols

11〜1n 可動カメラ
20 画像処理装置
21〜2n 抽出部
31 初期校正部
32 第1エピポーラ線算出部
33 第2エピポーラ線算出部
34 移動量算出部
35 姿勢推定部
DESCRIPTION OF SYMBOLS 11-1n Movable camera 20 Image processing apparatus 21-2n Extraction part 31 Initial calibration part 32 1st epipolar line calculation part 33 2nd epipolar line calculation part 34 Movement amount calculation part 35 Posture estimation part

Claims (6)

少なくとも一の撮影手段が姿勢変化可能に構成され且つ対象物を撮影する複数の撮影手段と、
所定時刻における前記一の撮影手段と他の撮影手段との間のエピポール及びエピポーラホモグラフィを取得する取得手段と、
前記一の撮影手段の姿勢が変化したときに前記一の撮影手段及び前記他の撮影手段により撮影された画像から対象物のシルエットを表すシルエット画像を抽出する抽出手段と、
前記抽出手段により抽出された前記他の撮影手段のシルエット画像と、前記取得手段により取得された前記一の撮影手段と前記他の撮影手段との間のエピポールとを基に前記他の撮影手段のエピポーラ線を算出する第1の算出手段と、
前記第1の算出手段により算出された前記他の撮影手段のエピポーラ線と、前記取得手段により取得された前記一の撮影手段と前記他の撮影手段との間のエピポーラホモグラフィとを基に、前記一の撮影手段のエピポーラ線を算出する第2の算出手段と、
前記第2の算出手段により算出された前記一の撮影手段のエピポーラ線に適合するように前記抽出手段により抽出された前記一の撮影手段のシルエット画像を移動させる移動手段とを備えることを特徴とする撮影システム。
A plurality of photographing means configured to photograph at least one photographing means and an object;
An acquisition means for acquiring epipole and epipolar homography between the one imaging means and the other imaging means at a predetermined time;
Extracting means for extracting a silhouette image representing a silhouette of an object from images photographed by the one photographing means and the other photographing means when the posture of the one photographing means is changed;
Based on the silhouette image of the other photographing means extracted by the extracting means and the epipole between the one photographing means and the other photographing means obtained by the obtaining means. First calculating means for calculating an epipolar line;
Based on the epipolar line of the other imaging means calculated by the first calculating means, and the epipolar homography between the one imaging means and the other imaging means acquired by the acquisition means, Second calculating means for calculating an epipolar line of the one photographing means;
And a moving means for moving the silhouette image of the one photographing means extracted by the extracting means so as to match the epipolar line of the one photographing means calculated by the second calculating means. Shooting system to do.
前記移動手段は、前記第2の算出手段により算出された前記一の撮影手段のエピポーラ線に適合するように前記抽出手段により抽出された前記一の撮影手段のシルエット画像を移動させたときの前記一の撮影手段のシルエット画像の移動量を算出し、
前記移動手段により算出された移動量を基に前記一の撮影手段の姿勢を推定する推定手段をさらに備えることを特徴とする請求項1記載の撮影システム。
The moving means moves the silhouette image of the one photographing means extracted by the extracting means so as to match the epipolar line of the one photographing means calculated by the second calculating means. Calculate the amount of movement of the silhouette image of one shooting means,
The imaging system according to claim 1, further comprising an estimation unit that estimates an attitude of the one imaging unit based on a movement amount calculated by the movement unit.
前記移動手段は、前記一の撮影手段と前記他の撮影手段との間のエピポーラホモグラフィをHkl、前記他の撮影手段のエピポーラ線をllk,1,llk,2、前記抽出手段により抽出された前記一の撮影手段のシルエット画像をS (i)、シルエット画像S (i)を画像上で移動させるための変換をPとし、さらに、変換Pにより変換されたシルエット画像をP(S (i))で表し、前記第2の算出手段により算出された前記一の撮影手段のエピポーラ線lと平行な接線が通るシルエット画像S上の点をpS,lとしたときにエピポーラ線lと点pS,lとの距離をD(S,l)で表した場合、下記式(1)を最小とする変換Pを求めることを特徴とする請求項1又は2記載の撮影システム。
The moving means includes H kl for epipolar homography between the one photographing means and the other photographing means, and l, k, 1 , l lk, 2 for the epipolar lines of the other photographing means and the extracting means. The extracted silhouette image of the one photographing means is S k (i) , the transformation for moving the silhouette image S k (i) on the image is P, and the silhouette image transformed by the transformation P is P When the point on the silhouette image S, which is represented by (S k (i) ) and passes through a tangent parallel to the epipolar line l of the one photographing unit calculated by the second calculating unit, is represented by p S, l. The transformation P i that minimizes the following formula (1) is obtained when the distance between the epipolar line l and the point p S, l is represented by D (S, l). Shooting system.
前記取得手段は、初期校正時における一の撮影手段と他の撮影手段との間のエピポール及びエピポーラホモグラフィを取得することを特徴とする請求項1〜3のいずれかに記載の撮影システム。   The imaging system according to claim 1, wherein the acquisition unit acquires epipole and epipolar homography between one imaging unit and another imaging unit at the time of initial calibration. 少なくとも一の撮影手段が姿勢変化可能に構成され且つ対象物を撮影する複数の撮影手段、取得手段、抽出手段、第1の算出手段、第2の算出手段及び移動手段を備える撮影システムを用いた撮影方法であって、
前記取得手段が、所定時刻における前記一の撮影手段と他の撮影手段との間のエピポール及びエピポーラホモグラフィを取得するステップと、
前記抽出手段が、前記一の撮影手段の姿勢が変化したときに前記一の撮影手段及び前記他の撮影手段により撮影された画像から対象物のシルエットを表すシルエット画像を抽出するステップと、
前記第1の算出手段が、抽出された前記他の撮影手段のシルエット画像と、取得された前記一の撮影手段と前記他の撮影手段との間のエピポールとを基に前記他の撮影手段のエピポーラ線を決定するステップと、
前記第2の算出手段が、決定された前記他の撮影手段のエピポーラ線と、取得された前記一の撮影手段と前記他の撮影手段との間のエピポーラホモグラフィとを基に、前記一の撮影手段のエピポーラ線を算出するステップと、
前記移動手段が、算出された前記一の撮影手段のエピポーラ線に適合するように前記抽出手段により抽出された前記一の撮影手段のシルエット画像を移動させるステップとを含むことを特徴とする撮影方法。
An imaging system is used in which at least one imaging unit is configured to be capable of changing the posture and includes a plurality of imaging units for imaging an object, an acquisition unit, an extraction unit, a first calculation unit, a second calculation unit, and a movement unit. A shooting method,
The acquisition means acquires epipole and epipolar homography between the one imaging means and another imaging means at a predetermined time; and
The extraction means extracting a silhouette image representing a silhouette of an object from images photographed by the one photographing means and the other photographing means when the posture of the one photographing means is changed;
The first calculating unit is configured to detect the other image capturing unit based on the extracted silhouette image of the other image capturing unit and the acquired epipole between the one image capturing unit and the other image capturing unit. Determining an epipolar line;
The second calculation unit is configured to determine the one of the one imaging unit based on the determined epipolar line of the other imaging unit and the acquired epipolar homography between the one imaging unit and the other imaging unit. Calculating an epipolar line of the imaging means;
The moving means includes a step of moving the silhouette image of the one photographing means extracted by the extracting means so as to match the calculated epipolar line of the one photographing means. .
少なくとも一の撮影手段が姿勢変化可能に構成され且つ対象物を撮影する複数の撮影手段により撮影された画像を処理する画像処理プログラムであって、
所定時刻における前記一の撮影手段と他の撮影手段との間のエピポール及びエピポーラホモグラフィを取得する取得手段と、
前記一の撮影手段の姿勢が変化したときに前記一の撮影手段及び前記他の撮影手段により撮影された画像から対象物のシルエットを表すシルエット画像を抽出する抽出手段と、
前記抽出手段により抽出された前記他の撮影手段のシルエット画像と、前記取得手段により取得された前記一の撮影手段と前記他の撮影手段との間のエピポールとを基に前記他の撮影手段のエピポーラ線を算出する第1の算出手段と、
前記第1の算出手段により算出された前記他の撮影手段のエピポーラ線と、前記取得手段により取得された前記一の撮影手段と前記他の撮影手段との間のエピポーラホモグラフィとを基に、前記一の撮影手段のエピポーラ線を算出する第2の算出手段と、
前記第2の算出手段により算出された前記一の撮影手段のエピポーラ線に適合するように前記抽出手段により抽出された前記一の撮影手段のシルエット画像を移動させる移動手段としてコンピュータを機能させることを特徴とする画像処理プログラム。
An image processing program for processing an image captured by a plurality of imaging means configured to change an attitude of at least one imaging means and image an object,
An acquisition means for acquiring epipole and epipolar homography between the one imaging means and the other imaging means at a predetermined time;
Extracting means for extracting a silhouette image representing a silhouette of an object from images photographed by the one photographing means and the other photographing means when the posture of the one photographing means is changed;
Based on the silhouette image of the other photographing means extracted by the extracting means and the epipole between the one photographing means and the other photographing means obtained by the obtaining means. First calculating means for calculating an epipolar line;
Based on the epipolar line of the other imaging means calculated by the first calculating means, and the epipolar homography between the one imaging means and the other imaging means acquired by the acquisition means, Second calculating means for calculating an epipolar line of the one photographing means;
Causing the computer to function as a moving unit that moves the silhouette image of the one photographing unit extracted by the extracting unit so as to match the epipolar line of the one photographing unit calculated by the second calculating unit. A characteristic image processing program.
JP2005204133A 2005-07-13 2005-07-13 Photographing system, photographing method, and image processing program Pending JP2007025863A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005204133A JP2007025863A (en) 2005-07-13 2005-07-13 Photographing system, photographing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005204133A JP2007025863A (en) 2005-07-13 2005-07-13 Photographing system, photographing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2007025863A true JP2007025863A (en) 2007-02-01

Family

ID=37786565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005204133A Pending JP2007025863A (en) 2005-07-13 2005-07-13 Photographing system, photographing method, and image processing program

Country Status (1)

Country Link
JP (1) JP2007025863A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011204111A (en) * 2010-03-26 2011-10-13 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2013069026A (en) * 2011-09-21 2013-04-18 Kddi Corp Device, method, and program for restoring three-dimensional shape of subject
KR20140031345A (en) * 2012-01-13 2014-03-12 소프트키네틱 소프트웨어 Automatic scene calibration
CN108447092A (en) * 2018-02-06 2018-08-24 中国科学院自动化研究所 The method and device of vision positioning marker
JP6447706B1 (en) * 2017-12-20 2019-01-09 オムロン株式会社 Calibration data generation apparatus, calibration data generation method, calibration system, and control program
CN116863086A (en) * 2023-09-04 2023-10-10 武汉国遥新天地信息技术有限公司 Rigid body stable reconstruction method for optical motion capture system
JP7429667B2 (en) 2021-03-23 2024-02-08 Kddi株式会社 Camera calibration device, method and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011204111A (en) * 2010-03-26 2011-10-13 Honda Motor Co Ltd Vehicle periphery monitoring device
JP2013069026A (en) * 2011-09-21 2013-04-18 Kddi Corp Device, method, and program for restoring three-dimensional shape of subject
KR20140031345A (en) * 2012-01-13 2014-03-12 소프트키네틱 소프트웨어 Automatic scene calibration
JP2014529727A (en) * 2012-01-13 2014-11-13 ソフトキネティック ソフトウェア Automatic scene calibration
KR101590530B1 (en) * 2012-01-13 2016-02-01 소프트키네틱 소프트웨어 Automatic scene calibration
US9578310B2 (en) 2012-01-13 2017-02-21 Softkinetic Software Automatic scene calibration
JP6447706B1 (en) * 2017-12-20 2019-01-09 オムロン株式会社 Calibration data generation apparatus, calibration data generation method, calibration system, and control program
JP2019109200A (en) * 2017-12-20 2019-07-04 オムロン株式会社 Data generation device for calibration, data generation method for calibration, calibration system, and control program
CN108447092A (en) * 2018-02-06 2018-08-24 中国科学院自动化研究所 The method and device of vision positioning marker
JP7429667B2 (en) 2021-03-23 2024-02-08 Kddi株式会社 Camera calibration device, method and program
CN116863086A (en) * 2023-09-04 2023-10-10 武汉国遥新天地信息技术有限公司 Rigid body stable reconstruction method for optical motion capture system
CN116863086B (en) * 2023-09-04 2023-11-24 武汉国遥新天地信息技术有限公司 Rigid body stable reconstruction method for optical motion capture system

Similar Documents

Publication Publication Date Title
US10334168B2 (en) Threshold determination in a RANSAC algorithm
JP6793151B2 (en) Object tracking device, object tracking method and object tracking program
US10789765B2 (en) Three-dimensional reconstruction method
JP5812599B2 (en) Information processing method and apparatus
KR101791590B1 (en) Object pose recognition apparatus and method using the same
Vo et al. Spatiotemporal bundle adjustment for dynamic 3d reconstruction
JP2008506953A5 (en)
CN110728715A (en) Camera angle self-adaptive adjusting method of intelligent inspection robot
WO2010142929A1 (en) 3d image generation
CN111899282A (en) Pedestrian trajectory tracking method and device based on binocular camera calibration
JP2007025863A (en) Photographing system, photographing method, and image processing program
JP2012185772A (en) Method and program for enhancing accuracy of composited picture quality of free viewpoint picture using non-fixed zoom camera
JP2953154B2 (en) Shape synthesis method
JP2019032218A (en) Location information recording method and device
JP6749498B2 (en) Imaging target tracking device and imaging target tracking method
TW202014993A (en) Information processing device, program, and information processing method
JP2007271408A (en) Device and method for acquiring three-dimensional environmental information, and recoding medium storing program achieving the method
JP4670010B2 (en) Mobile object distribution estimation device, mobile object distribution estimation method, and mobile object distribution estimation program
KR101725166B1 (en) 3D image reconstitution method using 2D images and device for the same
Pollok et al. A visual SLAM-based approach for calibration of distributed camera networks
JP2005031044A (en) Three-dimensional error measuring device
JP2005252482A (en) Image generating apparatus and three-dimensional distance information acquisition apparatus
JPWO2017057426A1 (en) Projection device, content determination device, projection method, and program
JP2001245323A (en) Three-dimensional input method and device
JP6641313B2 (en) Region extraction device and program