JP2016042639A - Camera posture controller, method and program - Google Patents

Camera posture controller, method and program Download PDF

Info

Publication number
JP2016042639A
JP2016042639A JP2014165464A JP2014165464A JP2016042639A JP 2016042639 A JP2016042639 A JP 2016042639A JP 2014165464 A JP2014165464 A JP 2014165464A JP 2014165464 A JP2014165464 A JP 2014165464A JP 2016042639 A JP2016042639 A JP 2016042639A
Authority
JP
Japan
Prior art keywords
camera
image
posture
control
attitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014165464A
Other languages
Japanese (ja)
Inventor
山田 健太郎
Kentaro Yamada
健太郎 山田
圭 河村
Kei Kawamura
圭 河村
内藤 整
Hitoshi Naito
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2014165464A priority Critical patent/JP2016042639A/en
Publication of JP2016042639A publication Critical patent/JP2016042639A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a controller for controlling the relative posture between cameras.SOLUTION: A controller operable to control, on the basis of the posture of a reference camera, the posture of at least one camera to be controlled comprises: posture-estimation means for estimating a posture parameter of the camera to be controlled with respect to the posture of the reference camera on the basis of a first image shot by the reference camera and a second image shot by the camera to be controlled; error-estimation means for estimating, on the basis of the posture parameter, an error from a target posture of the camera to be controlled with respect to the reference camera; and control means for controlling the posture of the camera to be controlled so as to reduce the error.SELECTED DRAWING: Figure 1

Description

本開示は、カメラ姿勢の制御技術に関する。   The present disclosure relates to a camera attitude control technique.

複数のカメラを用いて、立体視可能な画像を撮影する場合や、立体画像を生成するための素材としての画像を撮影する場合には、これら複数のカメラの光軸の関係を適切な関係とする必要がある。具体的には、各カメラの光軸を平行とし、その垂直方向の位置を同じとし、撮影する画像の各画素の各方向の並びも平行とする必要がある。これらの条件を満たす様に、各カメラの姿勢を手作業で調整することは大変難しい。   When shooting a stereoscopically viewable image using a plurality of cameras or when shooting an image as a material for generating a stereoscopic image, the relationship between the optical axes of the plurality of cameras is an appropriate relationship. There is a need to. Specifically, it is necessary that the optical axes of the cameras are parallel, the vertical positions thereof are the same, and the alignments of the pixels of the image to be captured are also parallel. It is very difficult to manually adjust the posture of each camera so as to satisfy these conditions.

このため、非特許文献1は、手作業にて大まかに各カメラの姿勢を調整し、各カメラが撮影した画像を処理することで、各カメラの姿勢のずれを補正した画像を生成する構成を開示している。また、特許文献1及び非特許文献2は、各カメラが同じ注視点を向く様に姿勢を制御する構成を開示している。   For this reason, Non-Patent Document 1 has a configuration in which the posture of each camera is roughly adjusted manually, and the image captured by each camera is processed to generate an image in which the deviation of the posture of each camera is corrected. Disclosure. Patent Document 1 and Non-Patent Document 2 disclose a configuration in which the posture is controlled so that each camera faces the same gazing point.

特開2011−146762号公報JP 2011-146762 A

福嶋 慶繁、他、"特徴点軌跡並行化による2次元カメラアレイレクティフィケーション"、映像情報メディア学会誌、vol.61、no.4、pp.564-571、2008年4月Fukushima Yoshihisa, et al., “2D camera array rectification by parallelizing feature point trajectory”, Journal of the Institute of Image Information and Television Engineers, vol.61, no. 4, pp. 564-571, April 2008 川内 直人、他、"新映像システムEYE VISION向けカメラ制御パンチルトの開発"、ロボティクス・メカトロニクス講演会、p.59、2002年Naoto Kawauchi, et al., "Development of camera-controlled pan-tilt for new video system EYE VISION", Robotics and Mechatronics Lecture, p. 59, 2002

画像処理によりカメラ姿勢を補正する構成においては、撮影した画像に対して幾何学的な操作を行うため、画像の平行移動や、長方形の画像から歪んだ四角形への変換が行われる。このため、画像処理後の画像には、その後の立体画像生成等の処理に使用できない画素が生じる。つまり、撮影した範囲の一部のみしかその後の処理に利用できなくなる。特に、非特許文献1に記載の構成では、手作業にて大まかに調整して画像の撮影を行うため、利用できない範囲が大きくなってしまう。また、特許文献1や非特許文献2に記載の構成は、ある注視点を向くようにカメラの光軸を調整するものであり、光軸が平行となる様にカメラを調整するものではない。   In a configuration in which the camera posture is corrected by image processing, a geometric operation is performed on a captured image, and thus the image is translated or converted from a rectangular image to a distorted square. For this reason, in the image after image processing, pixels that cannot be used for subsequent processing such as stereoscopic image generation occur. That is, only a part of the photographed range can be used for subsequent processing. In particular, in the configuration described in Non-Patent Document 1, since an image is captured by roughly adjusting manually, an unusable range becomes large. Further, the configurations described in Patent Document 1 and Non-Patent Document 2 adjust the optical axis of the camera so as to face a certain gazing point, and do not adjust the camera so that the optical axes are parallel.

本発明は、複数のカメラ間の相対的な姿勢を制御する制御装置、制御方法及びプログラムを提供するものである。   The present invention provides a control device, a control method, and a program for controlling a relative posture between a plurality of cameras.

本発明の一側面によると、基準カメラの姿勢に基づき、1つ以上の制御対象カメラの姿勢を制御する制御装置は、前記基準カメラが撮影した第1画像と、前記制御対象カメラが撮影した第2画像に基づき、前記基準カメラの姿勢を基準とした、前記制御対象カメラの姿勢パラメータを推定する姿勢推定手段と、前記姿勢パラメータに基づいて、前記基準カメラを基準とした前記制御対象カメラの目標姿勢からの誤差を推定する誤差推定手段と、
前記誤差を減少させる様に前記制御対象カメラの姿勢を制御する制御手段と、を備えていることを特徴とする。
According to an aspect of the present invention, the control device that controls the attitude of one or more control target cameras based on the attitude of the reference camera includes a first image captured by the reference camera and a first image captured by the control target camera. Attitude estimation means for estimating an attitude parameter of the control target camera based on the attitude of the reference camera based on two images; and a target of the control target camera based on the reference camera based on the attitude parameter An error estimation means for estimating an error from the posture;
Control means for controlling the attitude of the camera to be controlled so as to reduce the error.

複数のカメラ間の相対的な姿勢を制御することができる。   The relative posture between a plurality of cameras can be controlled.

一実施形態による制御装置の構成図。The block diagram of the control apparatus by one Embodiment. 一実施形態による姿勢推定部の構成図。The block diagram of the attitude | position estimation part by one Embodiment.

以下、本発明の例示的な実施形態について図面を参照して説明する。なお、以下の実施形態は例示であり、本発明を実施形態の内容に限定するものではない。また、以下の各図においては、実施形態の説明に必要ではない構成要素については図から省略する。   Hereinafter, exemplary embodiments of the present invention will be described with reference to the drawings. In addition, the following embodiment is an illustration and does not limit this invention to the content of embodiment. In the following drawings, components that are not necessary for the description of the embodiments are omitted from the drawings.

図1は、一実施形態によるカメラ1−1〜1−3の姿勢を制御する制御装置2の構成図である。なお、以下の説明では、カメラの台数を3台とするが例示であり、2台以上の任意の数のカメラの姿勢制御に対して本発明を適用することができる。なお、各カメラ1−1〜1−3は、雲台に取り付けられており、所謂、パン、チルト、ロール方向においてその向きを調整可能な様に構成されている。そして、制御装置2の姿勢制御部25は、制御信号を出力して、カメラ1−1〜1−3それぞれについて、パン、チルト、ロール方向の調整を行う。また、本実施形態においては、1台のカメラを基準カメラとし、この基準カメラの姿勢を基準として、制御対象となる他の2台のカメラの姿勢を制御する。以下の説明では、カメラ1−2を基準カメラとし、各カメラの光軸が平行、かつ、その垂直方向の位置が同じになり、各カメラが撮影する画像の画素の並びが平行となる様に、制御対象カメラ1−1及び1−3の姿勢を制御するものとする。   FIG. 1 is a configuration diagram of a control device 2 that controls the postures of the cameras 1-1 to 1-3 according to an embodiment. In the following description, the number of cameras is three, but this is an example, and the present invention can be applied to attitude control of an arbitrary number of two or more cameras. Each of the cameras 1-1 to 1-3 is attached to a camera platform, and is configured so that its direction can be adjusted in so-called pan, tilt, and roll directions. Then, the attitude control unit 25 of the control device 2 outputs a control signal and adjusts the pan, tilt, and roll directions for each of the cameras 1-1 to 1-3. In this embodiment, one camera is used as a reference camera, and the postures of the other two cameras to be controlled are controlled based on the posture of the reference camera. In the following description, it is assumed that the camera 1-2 is a reference camera, the optical axes of the cameras are parallel, the vertical positions thereof are the same, and the pixels of the images captured by the cameras are parallel. Assume that the postures of the control target cameras 1-1 and 1-3 are controlled.

各カメラ1−1〜1−3は、撮影した画像を出力する。入力部21は各カメラからの画像を入力とし、各カメラ1−1〜1−3が撮影した画像を同期させ、姿勢推定部22に出力する。制御装置2での処理は、各カメラ1−1〜1−3が外部同期信号により略同時に撮影した画像を単位として行われる。図2は、姿勢推定部22の構成図である。特徴点とは、例えば、画像に含まれるオブジェクトのコーナー部分等、画素値の変化の大きい画素である。特徴点検出部221は、各画像それぞれについて、複数の特徴点を検出し、画像中の特徴点の位置と、特徴点を含む画素の領域を示す尺度などを特徴量算出部222に出力する。特徴量算出部222は、特徴点及び尺度で特定される領域内の画素について、画素値に関する特徴量を算出し、方向による正規化を行い特徴点としての特徴量を算出する。特徴量は、特徴点となる位置と、その周囲の画素との画素値の差に基づく値、例えば、周囲の複数の画素と特徴点の画素の画素値の差をベクトルで表したものとすることができる。特徴点の検出及び特徴量の算出には、例えば、SIFT、ORB、Ferns等の公知の方法を使用できる。   Each camera 1-1 to 1-3 outputs a captured image. The input unit 21 receives images from the cameras, synchronizes the images taken by the cameras 1-1 to 1-3, and outputs the images to the posture estimation unit 22. The processing in the control device 2 is performed in units of images captured by the cameras 1-1 to 1-3 substantially simultaneously with the external synchronization signal. FIG. 2 is a configuration diagram of the posture estimation unit 22. A feature point is a pixel having a large change in pixel value, such as a corner portion of an object included in an image. The feature point detection unit 221 detects a plurality of feature points for each image, and outputs to the feature amount calculation unit 222 the position of the feature point in the image, a scale indicating the pixel region including the feature point, and the like. The feature amount calculation unit 222 calculates a feature amount related to the pixel value for the pixels in the region specified by the feature point and the scale, normalizes the direction, and calculates the feature amount as the feature point. The feature amount is a value based on a difference in pixel value between a position to be a feature point and its surrounding pixels, for example, a vector representing a difference between pixel values of a plurality of surrounding pixels and a feature point pixel. be able to. For detection of feature points and calculation of feature amounts, for example, known methods such as SIFT, ORB, and Ferns can be used.

対応点判定部223は、各画像の特徴点及び当該特徴点に関する特徴量の一致度又は類似度に基づき、基準カメラ1−2が撮影した画像と、制御対象カメラ1−1及び1−3が撮影した画像の特徴点の対応関係をそれぞれ判定する。例えば、特徴量がベクトルである場合、基準カメラ1−2が撮影した画像の各特徴点の特徴量を示すベクトルと、制御対象カメラ1−1及び1−3が撮影した画像の各特徴点の特徴量を示すベクトルの対応要素の差の2乗を積算し、積算値の最も低い特徴点のペアを、対応する特徴点と判定することができる。対応点判定部223は、基準カメラ1−2と制御対象カメラ1−1の特徴点のペアと、基準カメラ1−2と制御対象カメラ1−3の特徴点のペアをそれぞれ姿勢パラメータ算出部224に出力する。   The corresponding point determination unit 223 determines whether the image captured by the reference camera 1-2 and the control target cameras 1-1 and 1-3 are based on the feature points of each image and the degree of coincidence or similarity of the feature amounts regarding the feature points. The correspondence between the feature points of the captured image is determined. For example, when the feature amount is a vector, a vector indicating the feature amount of each feature point of the image captured by the reference camera 1-2 and each feature point of the image captured by the control target cameras 1-1 and 1-3. The square of the difference between the corresponding elements of the vector indicating the feature amount is integrated, and the feature point pair having the lowest integrated value can be determined as the corresponding feature point. Corresponding point determination unit 223 is a posture parameter calculation unit 224 for a pair of feature points of reference camera 1-2 and control target camera 1-1 and a pair of feature points of reference camera 1-2 and control target camera 1-3. Output to.

姿勢パラメータ算出部224は、特徴点のペアに基づき基準カメラ1−2を基準としたときの、制御対象カメラ1−1及び1−3の姿勢パラメータを算出する。なお、姿勢パラメータの算出には、例えば、「島田静雄、CAD・CGのための基礎数学(インターネット時代の数学シリーズ(7))、共立出版、2000年7月」に記載されている様な公知の方法を利用できる。一般的に、姿勢パラメータは、平行移動ベクトルtと、回転行列Rにより表現される。姿勢推定部23の姿勢パラメータ算出部224は、姿勢パラメータを誤差推定部23に出力する。   The posture parameter calculation unit 224 calculates the posture parameters of the control target cameras 1-1 and 1-3 when the reference camera 1-2 is used as a reference based on the feature point pair. In calculating the posture parameters, for example, publicly known as described in “Shizuo Shimada, Basic Mathematics for CAD / CG (Mathematics Series in the Internet Age (7)), Kyoritsu Publishing, July 2000”. Can be used. In general, the posture parameter is expressed by a translation vector t and a rotation matrix R. The posture parameter calculation unit 224 of the posture estimation unit 23 outputs the posture parameter to the error estimation unit 23.

誤差推定部23は、姿勢パラメータに基づき、制御対象カメラ1−1及びカメラ1−3の、基準カメラ1−2に対する姿勢の誤差を求める。本実施形態において、この誤差は、回転行列Rの逆行列R−1に基づき求めることができる。具体的には、逆行列R−1が、 The error estimation unit 23 obtains an attitude error of the control target camera 1-1 and the camera 1-3 with respect to the reference camera 1-2 based on the attitude parameter. In the present embodiment, this error can be obtained based on the inverse matrix R −1 of the rotation matrix R. Specifically, the inverse matrix R −1 is

であるものとすると、チルト角誤差θx、パン角誤差θy、ロール角誤差θzは、それぞれ、以下の式で求めることができる。
θx=arcsin(b
θy=arctan(−b/b
θz=arctan(−a/c
誤差推定部23は、チルト角誤差θx、パン角誤差θy、ロール角誤差θzを判定部24に出力する。
, The tilt angle error θx, the pan angle error θy, and the roll angle error θz can be obtained by the following equations, respectively.
θx = arcsin (b 3 )
θy = arctan (−b 1 / b 2 )
θz = arctan (−a 3 / c 3 )
The error estimation unit 23 outputs the tilt angle error θx, the pan angle error θy, and the roll angle error θz to the determination unit 24.

判定部24は、チルト角誤差θx、パン角誤差θy、ロール角誤差θzのそれぞれを対応する閾値と比較する。なお、各方向の閾値は、カメラの対応する方向の制御分解能の半分の値とすることができる。これは、制御分解能の半分以下の誤差があっても、その誤差をより小さくすることはできないからである。判定部24は、いずれかの誤差が閾値を超えていると、そのカメラについては姿勢制御が完了していないとして、当該カメラの姿勢の誤差量を姿勢制御部25に出力する。姿勢制御部25は、受け取ったカメラの誤差量に基づき、誤差量が小さくなる様に当該カメラを制御する。カメラの制御が完了すると、姿勢制御部25は、姿勢推定部22に姿勢制御の完了を通知する。姿勢制御部22は、姿勢制御が完了していないカメラについて、既に説明した様に姿勢を推定する。この様に、総てのカメラの姿勢制御が完了するまで、姿勢制御部25によるカメラの姿勢制御と、姿勢推定部22による姿勢の推定と、誤差推定部23による誤差の推定と、判定部24による判定が繰り返される。判定部24は、総てのカメラの姿勢制御が完了すると、補正部26に、制御対象カメラ1−1及び1−3の姿勢パラメータを出力する。   The determination unit 24 compares each of the tilt angle error θx, the pan angle error θy, and the roll angle error θz with a corresponding threshold value. The threshold value in each direction can be set to a value that is half the control resolution in the corresponding direction of the camera. This is because even if there is an error that is less than half of the control resolution, the error cannot be made smaller. If any error exceeds the threshold value, the determination unit 24 outputs the amount of posture error of the camera to the posture control unit 25, assuming that the posture control has not been completed for the camera. The attitude control unit 25 controls the camera so that the error amount becomes small based on the received error amount of the camera. When the control of the camera is completed, the posture control unit 25 notifies the posture estimation unit 22 of the completion of the posture control. The posture control unit 22 estimates the posture of a camera for which posture control has not been completed as described above. In this manner, until the posture control of all the cameras is completed, the posture control of the camera by the posture control unit 25, the posture estimation by the posture estimation unit 22, the error estimation by the error estimation unit 23, and the determination unit 24 The determination by is repeated. When the posture control of all the cameras is completed, the determination unit 24 outputs the posture parameters of the control target cameras 1-1 and 1-3 to the correction unit 26.

補正部6は、制御対象カメラ1−1及び1−3の姿勢パラメータを受け取ると、入力部21から入力されるカメラ1−1及び1−3が撮影した画像については、誤差を補正する様に画像処理を行い、補正後の画像を出力する。なお、例えば、カメラが2台である場合等には、基準カメラ1−2の画像を補正する構成とすることもできる。   When the correction unit 6 receives the attitude parameters of the control target cameras 1-1 and 1-3, the correction unit 6 corrects the error for the images captured by the cameras 1-1 and 1-3 input from the input unit 21. Image processing is performed, and a corrected image is output. For example, when there are two cameras, an image of the reference camera 1-2 can be corrected.

以上、本実施形態においては、制御装置2が、制御対象カメラ1−1及び1−3の姿勢を基準カメラ1−2の姿勢に基づき制御する。したがって、補正部26における画像処理後の画像において利用できなくなる画像の領域が小さくなる。   As described above, in the present embodiment, the control device 2 controls the postures of the control target cameras 1-1 and 1-3 based on the posture of the reference camera 1-2. Therefore, the area of the image that cannot be used in the image after the image processing in the correction unit 26 is reduced.

なお、本実施形態では、回転行列Rに基づき誤差を求めたが、特徴点のペアに基づき誤差量を評価することができる。例えば、基準カメラ1−2及び制御対象カメラ1−1の特徴点のペアの垂直方向の差の平均値や最大値を、誤差を評価するための評価値とすることができる。この場合、判定部24は、制御対象カメラ1−1の姿勢制御が完了したか否かを、評価値と閾値を比較することで判定する。さらに、パン方向とチルト方向のみを姿勢制御が完了したか否かの判定に使用することもできる。さらに、各カメラを調整方向については、カメラ自体の平行移動等、パン方向、チルト方向、ロール方向以外の姿勢の調整を行うものであっても良い。   In the present embodiment, the error is obtained based on the rotation matrix R, but the error amount can be evaluated based on the feature point pair. For example, the average value or the maximum value of the difference in the vertical direction between the feature point pairs of the reference camera 1-2 and the control target camera 1-1 can be used as an evaluation value for evaluating the error. In this case, the determination unit 24 determines whether or not the attitude control of the control target camera 1-1 is completed by comparing the evaluation value with a threshold value. Furthermore, only the pan direction and the tilt direction can be used to determine whether or not the attitude control has been completed. Further, as for the adjustment direction of each camera, it is possible to adjust the posture other than the pan direction, the tilt direction, and the roll direction, such as translation of the camera itself.

なお、本発明による制御装置は、コンピュータを上記制御装置として動作させるプログラムにより実現することができる。これらコンピュータプログラムは、コンピュータが読み取り可能な記憶媒体に記憶されて、又は、ネットワーク経由で配布が可能なものである。   The control device according to the present invention can be realized by a program that causes a computer to operate as the control device. These computer programs can be stored in a computer-readable storage medium or distributed via a network.

Claims (11)

基準カメラの姿勢に基づき、1つ以上の制御対象カメラの姿勢を制御する制御装置であって、
前記基準カメラが撮影した第1画像と、前記制御対象カメラが撮影した第2画像に基づき、前記基準カメラの姿勢を基準とした、前記制御対象カメラの姿勢パラメータを推定する姿勢推定手段と、
前記姿勢パラメータに基づいて、前記基準カメラを基準とした前記制御対象カメラの目標姿勢からの誤差を推定する誤差推定手段と、
前記誤差を減少させる様に前記制御対象カメラの姿勢を制御する制御手段と、
を備えていることを特徴とする制御装置。
A control device that controls the attitude of one or more controlled cameras based on the attitude of a reference camera,
Attitude estimation means for estimating an attitude parameter of the control target camera based on the attitude of the reference camera based on a first image taken by the reference camera and a second image taken by the control target camera;
Error estimation means for estimating an error from a target posture of the control target camera based on the reference camera based on the posture parameter;
Control means for controlling the attitude of the control target camera so as to reduce the error;
A control device comprising:
前記姿勢推定手段は、
前記第1画像及び前記第2画像それぞれについて、複数の特徴点を検出する検出手段と、
前記第1画像及び前記第2画像それぞれについて、各特徴点の特徴量を算出する算出手段と、
前記第1画像の複数の特徴点と前記第2画像の複数の特徴点との対応関係を、各特徴点の特徴量に基づき判定する判定手段と、
前記第1画像及び前記第2画像の対応する特徴点に基づき、前記姿勢パラメータを算出する算出手段と、
を備えていることを特徴とする請求項1に記載の制御装置。
The posture estimation means includes
Detecting means for detecting a plurality of feature points for each of the first image and the second image;
Calculating means for calculating the feature amount of each feature point for each of the first image and the second image;
Determination means for determining a correspondence relationship between a plurality of feature points of the first image and a plurality of feature points of the second image based on a feature amount of each feature point;
Calculation means for calculating the posture parameter based on corresponding feature points of the first image and the second image;
The control device according to claim 1, further comprising:
前記姿勢パラメータは、パン方向、チルト方向及びロール方向それぞれについて、前記基準カメラの姿勢を基準とした、前記制御対象カメラの角度を示す情報を含むことを特徴とする請求項1又は2に記載の制御装置。   The said attitude | position parameter contains the information which shows the angle of the said control object camera on the basis of the attitude | position of the said reference camera about each of a pan direction, a tilt direction, and a roll direction. Control device. 前記誤差推定手段が推定する誤差は、前記基準カメラの姿勢を基準とした、パン方向、チルト方向及びロール方向の前記制御対象カメラの角度の誤差であることを特徴とする請求項3に記載の制御装置。   The error estimated by the error estimation unit is an error of an angle of the control target camera in a pan direction, a tilt direction, and a roll direction with reference to an attitude of the reference camera. Control device. 前記姿勢推定手段は、前記基準カメラの姿勢を基準とした、前記制御対象カメラの姿勢のずれを示す評価値を出力し、
前記制御手段は、前記評価値が閾値を超えていると前記誤差を減少させる様に前記制御対象カメラの姿勢を制御することを特徴とする請求項2から4のいずれか1項に記載の制御装置。
The posture estimation means outputs an evaluation value indicating a deviation of the posture of the control target camera based on the posture of the reference camera;
5. The control according to claim 2, wherein the control unit controls an attitude of the control target camera so as to reduce the error when the evaluation value exceeds a threshold value. 6. apparatus.
前記評価値は、前記基準カメラの姿勢を基準とした、パン方向、チルト方向及びロール方向の前記制御対象カメラの角度の誤差であることを特徴とする請求項5に記載の制御装置。   The control apparatus according to claim 5, wherein the evaluation value is an error in an angle of the control target camera in a pan direction, a tilt direction, and a roll direction with reference to an attitude of the reference camera. パン方向、チルト方向及びロール方向の閾値は、それぞれ、前記制御対象カメラのパン方向、チルト方向及びロール方向の最小回転角度に基づき決定されることを特徴とする請求項6に記載の制御装置。   7. The control device according to claim 6, wherein the threshold values in the pan direction, the tilt direction, and the roll direction are determined based on a minimum rotation angle in the pan direction, the tilt direction, and the roll direction of the control target camera, respectively. 前記評価値は、前記第1画像と前記第2画像の対応する特徴点の垂直方向における位置の差に基づく値であることを特徴とする請求項5に記載の制御装置。   The control device according to claim 5, wherein the evaluation value is a value based on a difference in position in a vertical direction between corresponding feature points of the first image and the second image. 前記評価値が前記閾値を超えていないと、前記姿勢パラメータに基づき前記第1画像と前記第2画像のすくなくとも1つの補正を行う補正手段をさらに備えていることを特徴とする請求項5から8のいずれか1項に記載の制御装置。   The correction means for correcting at least one of the first image and the second image based on the posture parameter if the evaluation value does not exceed the threshold value. The control device according to any one of the above. 請求項1から9のいずれか1項に記載の制御装置としてコンピュータを機能させることを特徴とするプログラム。   A program that causes a computer to function as the control device according to any one of claims 1 to 9. 基準カメラの姿勢に基づき、1つ以上の制御対象カメラの姿勢を制御する制御装置における制御方法であって、
前記基準カメラが撮影した第1画像と、前記制御対象カメラが撮影した第2画像を取得する取得ステップと、
前記第1画像及び前記第2画像に基づき、前記基準カメラの姿勢を基準とした、前記制御対象カメラの姿勢パラメータを推定する姿勢推定ステップと、
前記姿勢パラメータに基づいて、前記基準カメラを基準とした前記制御対象カメラの目標姿勢からの誤差を推定する誤差推定ステップと、
前記誤差を減少させる様に前記制御対象カメラの姿勢を制御する制御ステップと、
を含むことを特徴とする制御方法。
A control method in a control device for controlling the attitude of one or more control target cameras based on the attitude of a reference camera,
An acquisition step of acquiring a first image captured by the reference camera and a second image captured by the control target camera;
A posture estimation step of estimating a posture parameter of the control target camera based on the posture of the reference camera based on the first image and the second image;
An error estimation step for estimating an error from a target posture of the control target camera based on the reference camera based on the posture parameter;
A control step for controlling the posture of the controlled camera so as to reduce the error;
The control method characterized by including.
JP2014165464A 2014-08-15 2014-08-15 Camera posture controller, method and program Pending JP2016042639A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014165464A JP2016042639A (en) 2014-08-15 2014-08-15 Camera posture controller, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014165464A JP2016042639A (en) 2014-08-15 2014-08-15 Camera posture controller, method and program

Publications (1)

Publication Number Publication Date
JP2016042639A true JP2016042639A (en) 2016-03-31

Family

ID=55592210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014165464A Pending JP2016042639A (en) 2014-08-15 2014-08-15 Camera posture controller, method and program

Country Status (1)

Country Link
JP (1) JP2016042639A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018078986A1 (en) * 2016-10-24 2018-05-03 ソニー株式会社 Information processing device, information processing method, and program
KR20190085237A (en) * 2018-01-10 2019-07-18 한국과학기술연구원 Apparatus and method for calibrating camera coordinate system using positioning information based on image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018078986A1 (en) * 2016-10-24 2018-05-03 ソニー株式会社 Information processing device, information processing method, and program
US11302021B2 (en) 2016-10-24 2022-04-12 Sony Corporation Information processing apparatus and information processing method
KR20190085237A (en) * 2018-01-10 2019-07-18 한국과학기술연구원 Apparatus and method for calibrating camera coordinate system using positioning information based on image
KR102002785B1 (en) 2018-01-10 2019-07-23 한국과학기술연구원 Apparatus and method for calibrating camera coordinate system using positioning information based on image

Similar Documents

Publication Publication Date Title
US9774837B2 (en) System for performing distortion correction and calibration using pattern projection, and method using the same
JP5768684B2 (en) Stereo image generation apparatus, stereo image generation method, and computer program for stereo image generation
JP6663040B2 (en) Depth information acquisition method and apparatus, and image acquisition device
JP5961945B2 (en) Image processing apparatus, projector and projector system having the image processing apparatus, image processing method, program thereof, and recording medium recording the program
JP5075757B2 (en) Image processing apparatus, image processing program, image processing method, and electronic apparatus
US20150123990A1 (en) Image processing device, image processing method, image processing program, and storage medium
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
KR20160047846A (en) Method of image registration
JP6694281B2 (en) Stereo camera and imaging system
CN110751685B (en) Depth information determination method, determination device, electronic device and vehicle
JP6594170B2 (en) Image processing apparatus, image processing method, image projection system, and program
JP2012147281A (en) Image processing apparatus
JP2014127773A5 (en)
JP2016042639A (en) Camera posture controller, method and program
US10218920B2 (en) Image processing apparatus and control method for generating an image by viewpoint information
JP6579816B2 (en) Image processing apparatus, image processing method, and program
JP6601893B2 (en) Image processing apparatus, image processing method, and program
CN106454066B (en) Image processing apparatus and control method thereof
WO2018235256A1 (en) Stereo measurement device and system
JP2012068842A (en) Motion vector detection apparatus, motion vector detection method, and, motion vector detection program
JP2019149717A (en) Image processing apparatus, image processing method, imaging apparatus, program, and storage medium
US20240233234A1 (en) Image processing apparatus, image processing method, non-transitory computer-readable storage medium
JP2010041418A (en) Image processor, image processing program, image processing method, and electronic apparatus
WO2017090705A1 (en) Image processing device, image processing method and computer-readable recording medium
JP2012070168A (en) Image processing device, image processing method, and image processing program