JP2014103490A - Robot camera control device, program for the same, and multi-viewpoint robot camera system - Google Patents
Robot camera control device, program for the same, and multi-viewpoint robot camera system Download PDFInfo
- Publication number
- JP2014103490A JP2014103490A JP2012253086A JP2012253086A JP2014103490A JP 2014103490 A JP2014103490 A JP 2014103490A JP 2012253086 A JP2012253086 A JP 2012253086A JP 2012253086 A JP2012253086 A JP 2012253086A JP 2014103490 A JP2014103490 A JP 2014103490A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- gazing point
- master
- robot
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Accessories Of Cameras (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本願発明は、ロボットカメラの姿勢を制御するロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステムに関する。 The present invention relates to a robot camera control device that controls the posture of a robot camera, a program thereof, and a multi-view robot camera system.
従来から、動く被写体をパンフォローした多視点映像を撮影することが可能な多視点ロボットカメラシステムが提案されている(非特許文献1)。この多視点ロボットカメラシステムは、複数台のロボットカメラのうち1台をマスターカメラとして設定し、カメラマンがマスターカメラを被写体に向けるように操作する。ここで、マスターカメラの光軸上には注視点が設定されており、マスターカメラ以外のスレーブカメラは、注視点に向くように制御角度が変化して、自動的に方向制御される。このとき、カメラマンが、マスターカメラと注視点との距離であるデプス値を連続的に変化させることで、注視点をマスターカメラの光軸上で移動させる。そして、注視点が被写体に重なるように(すなわち、全スレーブカメラの画面の中心に被写体が位置するように)、カメラマンが、デプス操作装置を用いてデプス値を変化(増減)させることで、多視点映像を撮影することができる。 Conventionally, a multi-view robot camera system capable of shooting a multi-view video obtained by pan-following a moving subject has been proposed (Non-Patent Document 1). In this multi-viewpoint robot camera system, one of a plurality of robot cameras is set as a master camera, and a cameraman operates to direct the master camera toward a subject. Here, a gazing point is set on the optical axis of the master camera, and slave cameras other than the master camera are automatically controlled in direction by changing the control angle so as to face the gazing point. At this time, the cameraman moves the gazing point on the optical axis of the master camera by continuously changing the depth value that is the distance between the master camera and the gazing point. Then, the photographer changes (increases or decreases) the depth value using the depth operation device so that the gazing point overlaps the subject (that is, the subject is positioned at the center of the screen of all slave cameras). You can shoot a viewpoint video.
しかし、従来の多視点ロボットカメラシステムは、デプス操作装置が、デプス値を線形に変化させている。従って、従来の多視点ロボットカメラシステムでは、注視点がマスターカメラに近い時、スレーブカメラの制御角度が大幅に変化する。一方、従来の多視点ロボットカメラシステムでは、注視点がマスターカメラに遠い時、スレーブカメラの制御角度がほとんど変化しない。従って、デプス操作装置の操作量に対し、スレーブカメラの制御角度の変化量が一定とならない。このため、従来の多視点ロボットカメラシステムでは、注視点が被写体に重なるようにデプス調整を行うことが困難であるという問題がある。 However, in the conventional multi-viewpoint robot camera system, the depth operation device linearly changes the depth value. Therefore, in the conventional multi-view robot camera system, when the gazing point is close to the master camera, the control angle of the slave camera changes greatly. On the other hand, in the conventional multi-viewpoint robot camera system, when the gazing point is far from the master camera, the control angle of the slave camera hardly changes. Therefore, the change amount of the control angle of the slave camera is not constant with respect to the operation amount of the depth operation device. For this reason, the conventional multi-viewpoint robot camera system has a problem that it is difficult to perform depth adjustment so that the gazing point overlaps the subject.
図9を参照して、従来の多視点ロボットカメラシステムの問題について、詳細に説明する。
図9(a)の注視点Q1〜Q4は、マスターカメラMCの光軸βの上を移動する注視点について、時間t=1〜4での位置を示している。
前記したように、デプス値が線形に変化するため、注視点Q1,Q2の距離、注視点Q2,Q3の距離、及び、注視点Q3,Q4の距離は、全て等しくなる。つまり、時間t=1〜2では、スレーブカメラSCが注視点Q1〜Q2に追随するので、制御角度Aが大きくなる。一方、時間t=3〜4では、スレーブカメラSCが注視点Q3〜Q4に追随するので、制御角度Bが小さくなる。
The problem of the conventional multi-viewpoint robot camera system will be described in detail with reference to FIG.
Gaze points Q 1 to Q 4 in FIG. 9A indicate positions at time t = 1 to 4 with respect to the gaze point moving on the optical axis β of the master camera MC.
As described above, since the depth value changes linearly, the distance between the gazing points Q 1 and Q 2 , the distance between the gazing points Q 2 and Q 3 , and the distance between the gazing points Q 3 and Q 4 are all equal. . That is, at time t = 1 to 2, the slave camera SC follows the gazing points Q 1 to Q 2 , so that the control angle A increases. On the other hand, at time t = 3 to 4, the slave camera SC follows the gazing points Q 3 to Q 4 , so the control angle B becomes small.
図9(b)では、デプス操作装置90の回転ダイヤル91において、注視点Q1〜Q4に対応する指標位置を図示した。注視点Q1〜Q4の順で指標位置の間隔が短くなっている。
図9(b)に示すように、回転ダイヤル91に刻まれた指標91aが指標位置「Q1」に重なるとき、図9(a)の注視点Q1を指す。これと同様、指標91aが指標位置「Q2」に重なるときに図9(a)の注視点Q2を指し、指標91aが指標位置「Q3」に重なるときに図9(a)の注視点Q3を指し、指標91aが指標位置「Q4」に重なるときに図9(a)の注視点Q4を指す。
FIG. 9B illustrates the index positions corresponding to the gazing points Q 1 to Q 4 on the
As shown in FIG. 9B, when the
ここで、図9(a)に示すように、注視点Q1から注視点Q2に移動させる場合、制御角度Aが大きいため、図9(b)に示すように、回転ダイヤル91の操作量が多くなる。一方、図9(a)に示すように、注視点Q3から注視点Q4に移動させる場合、制御角度Bが小さいため、図9(b)に示すように、回転ダイヤル91の操作量が少なくなる。このように、従来の多視点ロボットカメラシステムでは、回転ダイヤル91の操作量に対し、スレーブカメラSCの制御角度の変化量が一定とならず、デプス調整を行うことが困難となる。
Here, as shown in FIG. 9 (a), when moving from the gazing point Q 1 to the gazing point Q 2, for controlling the angle A is large, as shown in FIG. 9 (b), the operation amount of the
そこで、本願発明は、デプス調整が容易なロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステムを提供することを課題とする。 Accordingly, an object of the present invention is to provide a robot camera control device, a program thereof, and a multi-view robot camera system that can easily adjust the depth.
前記した課題に鑑みて、本願第1発明に係るロボットカメラ制御装置は、複数台のロボットカメラのうち、予め設定された1台のロボットカメラであるマスターカメラの光軸上を移動可能な注視点に向くように、マスターカメラ以外のロボットカメラであるスレーブカメラの姿勢を制御するロボットカメラ制御装置であって、カメラ姿勢操作部と、デプス値算出部と、カメラキャリブレーション部と、注視点算出部と、スレーブカメラ制御部と、を備えることを特徴とする。 In view of the above-described problems, the robot camera control device according to the first invention of the present application is a gaze point that can move on the optical axis of a master camera that is a preset robot camera among a plurality of robot cameras. Is a robot camera control device that controls the posture of a slave camera that is a robot camera other than the master camera, and includes a camera posture operation unit, a depth value calculation unit, a camera calibration unit, and a gaze point calculation unit And a slave camera control unit.
かかる構成によれば、ロボットカメラ制御装置は、カメラ姿勢操作部によって、マスターカメラのカメラ姿勢を操作する。また、ロボットカメラ制御装置は、デプス値算出部によって、注視点を移動させる移動操作が行われ、注視点の移動操作の検出値から、マスターカメラから離れる程、単位時間あたりの注視点の移動距離が長くなるように、マスターカメラから注視点までの距離であるデプス値を、非線形に変化させて算出する。 According to this configuration, the robot camera control apparatus operates the camera posture of the master camera by the camera posture operation unit. Also, in the robot camera control device, the depth value calculation unit performs a moving operation to move the gazing point, and from the detected value of the gazing point moving operation, the distance the gazing point moves per unit time as the distance from the master camera increases. Is calculated by changing the depth value, which is the distance from the master camera to the gazing point, in a non-linear manner.
また、ロボットカメラ制御装置は、カメラキャリブレーション部によって、カメラキャリブレーションを行ったときのマスターカメラのカメラ姿勢と、マスターカメラの外部パラメータである並進ベクトルとを、カメラキャリブレーションにより算出する。 Also, the robot camera control device calculates, by camera calibration, the camera orientation of the master camera when the camera calibration is performed and the translation vector that is an external parameter of the master camera by the camera calibration unit.
また、ロボットカメラ制御装置は、注視点算出部によって、カメラ姿勢操作部とカメラキャリブレーション部とのカメラ姿勢の差分に基づいて、マスターカメラにおける回転行列を算出し、算出した回転行列に含まれる奥行成分のベクトルとデプス値との積に並進ベクトルを加算することで、注視点の位置を算出する。そして、ロボットカメラ制御装置は、スレーブカメラ制御部によって、注視点算出部が算出した注視点に向くように、スレーブカメラの姿勢を制御する。 In addition, the robot camera control device calculates a rotation matrix in the master camera based on the difference in camera posture between the camera posture operation unit and the camera calibration unit by the gazing point calculation unit, and the depth included in the calculated rotation matrix The position of the gazing point is calculated by adding the translation vector to the product of the component vector and the depth value. In the robot camera control device, the slave camera control unit controls the posture of the slave camera so as to face the gazing point calculated by the gazing point calculation unit.
ここで、デプス値算出部は、注視点の移動操作が行われる操作部と、操作部に対する移動操作を検出するエンコーダと、を備え、マスターカメラ及びスレーブカメラのベースラインの最大距離B、デプス値の最大値dmax、デプス値の最小値dmin、及び、エンコーダにおける移動操作の最大検出値tmaxが予め設定された以下の式(1)から式(4)を用いて、エンコーダにおける移動操作の検出値t(但し、0≦t≦tmax)から、デプス値を示すkを算出することが好ましい(本願第2発明)。 Here, the depth value calculation unit includes an operation unit in which a gazing point movement operation is performed, and an encoder that detects a movement operation with respect to the operation unit, and the maximum distance B between the baselines of the master camera and the slave camera, the depth value The maximum value d max , the minimum value d min of the depth value, and the maximum detected value t max of the moving operation in the encoder are set in advance using the following equations (1) to (4). Preferably, k indicating the depth value is calculated from the detected value t (where 0 ≦ t ≦ t max ) (second invention of the present application).
また、本願第3発明に係るロボットカメラ制御装置は、カメラ姿勢操作部で操作されたカメラ姿勢をとるように、マスターカメラの姿勢を制御するマスターカメラ制御部、をさらに備え、スレーブカメラ制御部が、注視点算出部が算出した注視点に合焦するように、スレーブカメラのフォーカスをさらに制御することを特徴とする。
かかる構成によれば、ロボットカメラ制御装置は、マスターカメラの姿勢を制御すると共に、スレーブカメラを注視点に正確にフォーカスさせることができる。
The robot camera control device according to the third invention of the present application further includes a master camera control unit that controls the posture of the master camera so as to take the camera posture operated by the camera posture operation unit, and the slave camera control unit includes: The focus of the slave camera is further controlled so as to focus on the gazing point calculated by the gazing point calculation unit.
According to such a configuration, the robot camera control apparatus can control the posture of the master camera and accurately focus the slave camera on the point of sight.
また、前記した課題に鑑みて、本願第4発明に係る多視点ロボットカメラシステムは、複数台のロボットカメラのうち、予め設定された1台のロボットカメラであるマスターカメラと、マスターカメラ以外のロボットカメラであるスレーブカメラと、マスターカメラの光軸上を移動可能な注視点に向くようにスレーブカメラの姿勢を制御するロボットカメラ制御装置とを備える多視点ロボットカメラシステムであって、ロボットカメラ制御装置が、カメラ姿勢入力部と、デプス値算出部と、カメラキャリブレーション部と、注視点算出部と、スレーブカメラ制御部と、を備えることを特徴とする。 Further, in view of the above-described problems, a multi-viewpoint robot camera system according to the fourth invention of the present application includes a master camera that is a preset robot camera among a plurality of robot cameras, and a robot other than the master camera. A multi-viewpoint robot camera system comprising a slave camera that is a camera and a robot camera control device that controls the posture of the slave camera so as to face a gazing point that can move on the optical axis of the master camera. Comprises a camera posture input unit, a depth value calculation unit, a camera calibration unit, a gaze point calculation unit, and a slave camera control unit.
かかる構成によれば、ロボットカメラ制御装置は、カメラ姿勢操作部によって、マスターカメラのカメラ姿勢を操作する。また、ロボットカメラ制御装置は、デプス値算出部によって、注視点を移動させる移動操作が行われ、注視点の移動操作量から、マスターカメラから離れる程、単位時間あたりの注視点の移動距離が長くなるように、マスターカメラから注視点までの距離であるデプス値を、非線形に変化させて算出する。 According to this configuration, the robot camera control apparatus operates the camera posture of the master camera by the camera posture operation unit. Also, in the robot camera control device, the depth value calculation unit performs a moving operation for moving the gazing point, and the moving distance of the gazing point increases as the distance from the master camera increases from the gazing point moving operation amount. In this way, the depth value, which is the distance from the master camera to the gazing point, is calculated in a non-linear manner.
また、ロボットカメラ制御装置は、カメラキャリブレーション部によって、カメラキャリブレーションを行ったときのマスターカメラのカメラ姿勢と、マスターカメラの外部パラメータである並進ベクトルとを、カメラキャリブレーションにより算出する。 Also, the robot camera control device calculates, by camera calibration, the camera orientation of the master camera when the camera calibration is performed and the translation vector that is an external parameter of the master camera by the camera calibration unit.
また、ロボットカメラ制御装置は、注視点算出部によって、カメラ姿勢操作部とカメラキャリブレーション部とのカメラ姿勢の差分に基づいて、マスターカメラにおける回転行列を算出し、算出した回転行列に含まれる奥行成分のベクトルとデプス値との積に並進ベクトルを加算することで、注視点の位置を算出する。そして、ロボットカメラ制御装置は、スレーブカメラ制御部によって、注視点算出部が算出した注視点に向くように、スレーブカメラの姿勢を制御する。 In addition, the robot camera control device calculates a rotation matrix in the master camera based on the difference in camera posture between the camera posture operation unit and the camera calibration unit by the gazing point calculation unit, and the depth included in the calculated rotation matrix The position of the gazing point is calculated by adding the translation vector to the product of the component vector and the depth value. In the robot camera control device, the slave camera control unit controls the posture of the slave camera so as to face the gazing point calculated by the gazing point calculation unit.
ここで、本願第1発明に係るロボットカメラ制御装置は、カメラ姿勢操作部及びデプス値算出部を備えるコンピュータのCPU(Central Processing Unit)、メモリ、ハードディスクなどのハードウェア資源を、カメラキャリブレーション部、注視点算出部及びスレーブカメラ制御部として協調動作させるためのロボットカメラ制御プログラムによって実現することもできる(本願第5発明)。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 Here, the robot camera control device according to the first invention of the present application is provided with hardware resources such as a CPU (Central Processing Unit), a memory, and a hard disk of a computer including a camera posture operation unit and a depth value calculation unit, a camera calibration unit, It can also be realized by a robot camera control program for cooperative operation as a gazing point calculation unit and a slave camera control unit (the fifth invention of the present application). This program may be distributed through a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.
本願発明によれば、以下のような優れた効果を奏する。
本願第1,2,4,5発明によれば、ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステムは、マスターカメラから離れる程、単位時間あたりの注視点の移動距離が長くなるようにデプス値を非線形に変化させるため、注視点とマスターカメラとの遠近に関係なく、スレーブカメラの制御角度の変化が一定になり、デプス調整を容易に行うことができる。
本願第3発明によれば、ロボットカメラ制御装置は、マスターカメラの姿勢を制御すると共に、スレーブカメラを注視点に正確にフォーカスさせるため、多視点映像を容易に撮影することができる。
According to the present invention, the following excellent effects can be obtained.
According to the first, second, fourth, and fifth inventions of the present application, the robot camera control device, the program thereof, and the multi-viewpoint robot camera system have a depth so that the moving distance of the gazing point per unit time increases as the distance from the master camera increases. Since the value is changed non-linearly, the change of the control angle of the slave camera becomes constant regardless of the distance between the gazing point and the master camera, and the depth adjustment can be easily performed.
According to the third aspect of the present invention, the robot camera control device controls the posture of the master camera and accurately focuses the slave camera on the point of sight, so that it is possible to easily shoot a multi-viewpoint video.
以下、本願発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function are denoted by the same reference numerals and description thereof is omitted.
(実施形態)
[多視点ロボットカメラシステムの構成]
図1を参照し、本願発明の実施形態に係る多視点ロボットカメラシステム100の構成について、説明する。
図1に示すように、多視点ロボットカメラシステム100は、被写体の多視点映像を撮影するものであり、ロボットカメラ制御装置1と、マスターカメラMCと、スレーブカメラSC1,…,SCn(SC)とを備える。
(Embodiment)
[Configuration of multi-viewpoint robot camera system]
A configuration of a multi-viewpoint robot camera system 100 according to an embodiment of the present invention will be described with reference to FIG.
As shown in FIG. 1, the multi-viewpoint robotic camera system 100 is for capturing multi-view image of an object, a
本実施形態では、マスターカメラMC及びスレーブカメラSCは、所定の間隔で直線状に配置されることとする。
また、スレーブカメラSCは、n台であることとする(但し、n≧1を満たす整数)。
In the present embodiment, the master camera MC and the slave camera SC are arranged in a straight line at a predetermined interval.
The number of slave cameras SC is n (where n is an integer satisfying n ≧ 1).
ロボットカメラ制御装置1は、マスターカメラMC及びスレーブカメラSCを制御するものであり、操作インターフェース部10と、カメラキャリブレーション部20と、マスターカメラ制御部30と、注視点算出部40と、スレーブカメラ制御部501,…,50n(50)とを備える。
The robot
操作インターフェース部10は、カメラマンが、マスターカメラMC及びスレーブカメラSCを遠隔操作するものであり、パン・チルト操作部(カメラ姿勢操作部)11と、ズーム・アイリス操作部13と、デプス操作部(デプス値算出部)15とを備える。
The
パン・チルト操作部11は、カメラマンが、マスターカメラMCのパン及びチルト(カメラ姿勢)を操作するものである。そして、パン・チルト操作部11は、カメラマンの操作に応じたパン値及びチルト値を検出して、パン・チルト・ズーム・アイリス制御部31と、注視点算出部40とに出力する。
The pan /
ズーム・アイリス操作部13は、カメラマンが、マスターカメラMCのズーム及びアイリスを操作するものである。そして、ズーム・アイリス操作部13は、カメラマンの操作に応じたズーム値及びアイリス値を検出して、パン・チルト・ズーム・アイリス制御部31と、ズーム・アイリス制御部55とに出力する。
The zoom /
デプス操作部15は、注視点を移動させる移動操作が行われると共に、注視点の移動操作の検出値から、マスターカメラから離れる程、単位時間あたりの注視点の移動距離が長くなるようなデプス値を算出するものである。
なお、デプス値とは、マスターカメラMCから注視点までの距離を示す。
The
The depth value indicates the distance from the master camera MC to the gazing point.
本実施形態では、デプス操作部15は、図2(a)に示すように、注視点の移動操作が行われる回転ダイヤル(操作部)16と、回転ダイヤル16に対する移動操作を検出するエンコーダ17とを備える。
ここで、図2(b)に示すように、回転ダイヤル16を時計回りに回転させる程、エンコーダ17のエンコーダ値(移動操作の検出値)が増大する。そして、回転ダイヤル16に刻まれた指標16aが指標位置「△最大」に達したときに、エンコーダ17のエンコーダ値が最大となる。
一方、回転ダイヤル16を反時計回りに回転させる程、エンコーダ17のエンコーダ値が減少する。そして、回転ダイヤル16に刻まれた指標16aが指標位置「△最小」に達したときに、エンコーダ17のエンコーダ値が最小となる。
そして、デプス操作部15は、エンコーダ値とデプス値とを対応付けたデプス値変換情報が予め設定され、このデプス値変換情報を参照して、エンコーダ17で検出されたエンコーダ値をデプス値に変換する。さらに、デプス操作部15は、変換されたデプス値を以下で説明するように変化(増減)させて、フォーカス制御部33と、注視点算出部40とに出力する。
In the present embodiment, as shown in FIG. 2A, the
Here, as shown in FIG. 2B, the encoder value of the encoder 17 (detected value of the movement operation) increases as the
On the other hand, the encoder value of the
The
<デプス値の変化>
図3,図4を参照して、デプス操作部15によるデプス値の変化について、説明する(適宜図1,2参照)。
図3に示すように、カメラマンは、マスターカメラMCの撮影映像90を見ながら、マスターカメラMCが被写体αを捉えるようにパン・チルト操作部11及びズーム・アイリス操作部13を操作する。従って、マスターカメラMCの撮影映像90は、画面中央に被写体αが捉えられている。一方、スレーブカメラSCの撮影映像91は、被写体αが捉えてられていない。
なお、ズーム・アイリス操作部13は、カメラマン以外が遠隔操作することもある。
<Change in depth value>
With reference to FIG. 3 and FIG. 4, the change of the depth value by the
As shown in FIG. 3, the cameraman operates the pan /
The zoom /
次に、カメラマンは、回転ダイヤル16の操作によりデプス値を連続的に変化させることで、注視点Qを光軸βの上で移動させる。そして、図4に示すように、カメラマンは、スレーブカメラSCの撮影映像91を見ながら、撮影映像91の中央に被写体αが位置するように、回転ダイヤル16を操作してデプス値を調整する。
Next, the cameraman moves the gazing point Q on the optical axis β by continuously changing the depth value by operating the
このとき、デプス操作部15は、マスターカメラMCから離れる程、単位時間あたりの注視点Qの移動距離が長くなるように、デプス値を非線形に変化させる。具体的には、デプス操作部15は、以下の式(1)〜式(4)を用いて、デプス値kを算出する。
At this time, the
なお、マスターカメラMCと、マスターカメラMCから最も遠いスレーブカメラSCのベースラインの距離(カメラ間隔)がB、デプス値の最大値がdmax、デプス値の最小値がdmin、エンコーダ17で検出可能なエンコーダ値の最大値がtmax、エンコーダ17で検出されたエンコーダ値がtである(但し、0≦t≦tmaxを満たす)。
この最大距離B、最大値dmax、最小値dmin及び最大検出値tmaxは、予め設定されている。
The base line distance (camera interval) between the master camera MC and the slave camera SC farthest from the master camera MC is B, the maximum depth value is d max , the minimum depth value is d min , and is detected by the
The maximum distance B, maximum value d max , minimum value d min, and maximum detection value t max are set in advance.
図1に戻り、多視点ロボットカメラシステム100の説明を続ける。
カメラキャリブレーション部20は、マスターカメラMC及びスレーブカメラSCのカメラパラメータ(Am,Rm,Tm,p0m,t0m,z0m,f0m,i0m,An,Rn,Tn,p0n,t0n,z0n,f0n,i0n)をカメラキャリブレーションにより算出して、メモリやハードディスク等の記憶装置(不図示)に格納するものである。
Returning to FIG. 1, the description of the multi-viewpoint robot camera system 100 will be continued.
The
ここで、カメラキャリブレーション部20は、カメラキャリブレーションを行ったときのマスターカメラMCのカメラ姿勢として、マスターカメラMCのパン値p0mと、チルト値t0mとを算出し、記憶装置に格納する。また、カメラキャリブレーション部20は、カメラキャリブレーションを行ったときのマスターカメラMCの内部パラメータAmと、外部パラメータ(回転行列Rm及び並進ベクトルTm)と、マスターカメラMCのズーム値z0mと、フォーカス値f0mと、アイリス値i0mとを算出し、記憶装置に格納する。
なお、添え字mがマスターカメラMCを示す。
Here, the
Note that the subscript m indicates the master camera MC.
また、カメラキャリブレーション部20は、カメラキャリブレーションを行ったときのスレーブカメラSCnの内部パラメータAnと、外部パラメータ(回転行列Rn及び並進ベクトルTn)と、スレーブカメラSCnのパン値p0nと、チルト値t0nと、ズーム値z0nと、フォーカス値f0nと、アイリス値i0nとを算出し、記憶装置に格納する。
The
なお、カメラキャリブレーションの手法は、例えば、以下の参考文献に記載されているため、詳細な説明を省略する。
参考文献「デジタル画像処理:財団法人 画像情報教育振興協会」
The camera calibration method is described in, for example, the following references, and thus detailed description thereof is omitted.
Reference "Digital Image Processing: Association for Promotion of Image Information Education"
マスターカメラ制御部30は、マスターカメラMCを制御するものであり、パン・チルト・ズーム・アイリス制御部31と、フォーカス制御部33とを備える。
The master
パン・チルト・ズーム・アイリス制御部31は、パン・チルト操作部11から入力されたパン値及びチルト値と、ズーム・アイリス操作部13から入力されたズーム値及びアイリス値とに基づいて、マスターカメラMCのパン、チルト、ズーム及びアイリスを制御するものである。
The pan / tilt / zoom /
具体的には、パン・チルト・ズーム・アイリス制御部31は、パン値、チルト値、ズーム値及びアイリス値を、それら値の大きさに応じたパン・チルト・ズーム・アイリス制御信号に変換する。そして、パン・チルト・ズーム・アイリス制御部31は、変換したパン・チルト・ズーム・アイリス制御信号をマスターカメラMCに出力する。
Specifically, the pan / tilt / zoom /
フォーカス制御部33は、デプス操作部15から入力されたデプス値に基づいて、マスターカメラMCのフォーカスを制御するものである。具体的には、フォーカス制御部33は、デプス値とフォーカス値とを対応付けた情報が予め設定され、この情報を参照して、デプス値に対応したフォーカス値を算出する。そして、フォーカス制御部33は、算出したフォーカス値を、その値の大きさに応じたフォーカス制御信号に変換して、マスターカメラMCに出力する。
The
マスターカメラMCは、多視点ロボットカメラシステム100が備える複数台のロボットカメラのうち、予め設定された1台のロボットカメラである。このマスターカメラMCは、例えば、電動雲台に搭載された固定ロボットカメラである。そして、マスターカメラMCは、パン・チルト・ズーム・アイリス制御部31から入力されたパン・チルト・ズーム・アイリス制御信号に従って、パン、チルト、ズーム及びアイリスを駆動する。さらに、マスターカメラMCは、フォーカス制御部33から入力されたフォーカス制御信号に従って、フォーカスを駆動する。
The master camera MC is a preset robot camera among a plurality of robot cameras provided in the multi-viewpoint robot camera system 100. This master camera MC is, for example, a fixed robot camera mounted on an electric head. The master camera MC drives pan, tilt, zoom, and iris in accordance with the pan / tilt / zoom / iris control signal input from the pan / tilt / zoom /
注視点算出部40は、パン・チルト操作部11から入力されたパン値及びチルト値と、デプス操作部15から入力されたデプス値と、カメラキャリブレーション部20に格納されたカメラパラメータに基づいて、注視点の世界座標を算出するものである。
The gazing
具体的には、注視点算出部40は、以下の式(5)を用いて、マスターカメラMCについて、パン・チルト操作部11からのパン値pmと、カメラキャリブレーション時のパン値p0mとの角度差θpmを算出する。
Specifically, the gazing
また、注視点算出部40は、以下の式(6)を用いて、マスターカメラMCについて、パン・チルト操作部11からのチルト値tmと、カメラキャリブレーション時のチルト値t0mとの角度差θtmを算出する。
The gaze
次に、注視点算出部40は、以下の式(7)に示すように、角度差θpm及び角度差θtmを用いて、カメラ座標系における回転行列R´rect_Cmを生成する。
Next, the gaze
そして、注視点算出部40は、以下の式(8)に示すように、回転行列R´rect_Cm、及び、マスターカメラMCの外部パラメータである回転行列Rmを用いて、世界座標系におけるカメラ姿勢の回転行列R´rectmを生成する。この回転行列R´rectmは、マスターカメラMCについて、カメラキャリブレーション時のカメラ姿勢から、操作インターフェース部10で操作後のカメラ姿勢に変えるための回転行列である。
なお、回転行列R´rectmが請求項に記載の「マスターカメラにおける回転行列」に相当する。
Then, the gaze
The rotation matrix R′rectm corresponds to the “rotation matrix in the master camera” recited in the claims.
ここで、式(8)の回転行列R´rectmは、以下の式(9)に示すように、世界座標系におけるカメラ姿勢のX軸を示すベクトルe´xmと、世界座標系におけるカメラ姿勢のY軸を示すベクトルe´ymと、世界座標系におけるカメラ姿勢のZ軸を示すベクトル(奥行成分のベクトル)ezmとを用いて、定義することができる。
なお、式(9)のベクトルe´xm,e´ymは、以後の計算に利用されない。
Here, as shown in the following equation (9), the rotation matrix R′rectm of equation (8) is a vector e ′ xm indicating the X axis of the camera posture in the world coordinate system and the camera posture in the world coordinate system. It can be defined using a vector e ′ ym indicating the Y axis and a vector (depth component vector) e zm indicating the Z axis of the camera posture in the world coordinate system.
Note that the vectors e ′ xm and e ′ ym in the equation (9) are not used for the subsequent calculations.
そして、注視点算出部40は、以下の式(10)に示すように、回転行列R´rectmと、マスターカメラMCの並進ベクトルTmと、デプス操作部15から入力されたデプス値kとを用いて、注視点Qの世界座標(位置)Pを算出する。この式(10)は、ベクトルezmとデプス値kとの積に並進ベクトルTmを加算することを示す。その後、注視点算出部40は、算出した注視点Qの世界座標Pを、パン・チルト制御部51と、フォーカス制御部53とに出力する。
Then, as shown in the following formula (10), the gazing
図5を参照し、スレーブカメラSCの制御角度の変化について、説明する(適宜図1,2参照)。
図5(a)の注視点Q1〜Q4は、マスターカメラMCの光軸βの上を移動する注視点について、時間t=1〜4での位置を示している。
前記したように、デプス操作部15がデプス値を非線形に変化させるため、注視点Q1〜Q4の単位時間あたりの移動距離は、マスターカメラMCから離れる程、広くなる。つまり、注視点Q1,Q2の距離よりも注視点Q2,Q3の距離が広くなり、注視点Q2,Q3の距離よりも注視点Q3,Q4の距離が広くなる。このため、時間t=1〜2におけるスレーブカメラSCの制御角度Aと、時間t=3〜4におけるスレーブカメラSCの制御角度Bとが、等しくなる。
A change in the control angle of the slave camera SC will be described with reference to FIG. 5 (see FIGS. 1 and 2 as appropriate).
The gazing points Q 1 to Q 4 in FIG. 5A indicate the positions at the time t = 1 to 4 with respect to the gazing point moving on the optical axis β of the master camera MC.
As described above, since the
図5(b)では、回転ダイヤル16において、注視点Q1〜Q4に対応する指標位置を図示した。これら注視点Q1〜Q4に対応する指標位置は、全て等間隔となっている。
図5(b)に示すように、指標16aが指標位置「Q1」に重なるとき、図5(a)の注視点Q1を指す。これと同様、指標16aが指標位置「Q2」に重なるときに図5(a)の注視点Q2を指し、指標16aが指標位置「Q3」に重なるときに図5(a)の注視点Q3を指し、指標16aが指標位置「Q4」に重なるときに図5(a)の注視点Q4を指す。
FIG. 5B illustrates the index positions corresponding to the gazing points Q 1 to Q 4 on the
As shown in FIG. 5B, when the
ここで、図5(a)に示すように、注視点Q1から注視点Q2に移動させる場合、及び、注視点Q3から注視点Q4に移動させる場合でも、制御角度A,Bが等しいため、図5(b)に示すように、回転ダイヤル16の移動操作量が一定となる。このように、多視点ロボットカメラシステム100では、回転ダイヤル16の移動操作量に対し、スレーブカメラSCの制御角度の変化量が一定となる。
Here, as shown in FIG. 5 (a), when moving from the gazing point Q 1 to the gazing point Q 2, and, even when moving from the gazing point Q 3 on the fixation point Q 4, the control angle A, and B Therefore, as shown in FIG. 5B, the moving operation amount of the
図1に戻り、多視点ロボットカメラシステム100の説明を続ける。
スレーブカメラ制御部501,…,50nは、スレーブカメラSC1,…,SCnを制御するものであり、パン・チルト制御部511,…,51n(51)と、フォーカス制御部531,…,53n(53)と、ズーム・アイリス制御部551,…,55n(55)とを備える。
なお、スレーブカメラ制御部501,…,50nは、スレーブカメラSC1,…,SCnに対応するように備えられており、全て同一構成である。
Returning to FIG. 1, the description of the multi-viewpoint robot camera system 100 will be continued.
The slave
Incidentally, the slave
パン・チルト制御部51は、注視点算出部40から入力された注視点Qの世界座標Pと、カメラキャリブレーション部20に格納されたカメラパラメータ(回転行列Rn及び並進ベクトルTn)とに基づいて、スレーブカメラSCの姿勢(パン及びチルト)を制御するものである。
The pan /
具体的には、パン・チルト制御部51は、以下の式(11)に示すように、パン及びチルトを制御するために、スレーブカメラSCnから注視点Qの世界座標Pへ向かう単位ベクトルeznを算出する。
なお、“‖‖”はノルムを示す。
Specifically, the
“‖‖” represents a norm.
また、パン・チルト制御部51は、以下の式(12)に示すように、算出した単位ベクトルezn、及び、回転行列Rnの逆行列R−1 nを用いて、カメラ座標系におけるスレーブカメラSCnから注視点Qの世界座標Pへ向かう単位ベクトルeCznを算出する。
In addition, the pan /
そして、パン・チルト制御部51は、以下の式(13)〜式(15)に示すように、スレーブカメラSCnのパン値θPn及びチルト値θTnを算出する。
なお、e1,e2,e3は、それぞれ、単位ベクトルeCznのX軸、Y軸、Z軸成分を示す。
Then, the pan /
Note that e 1 , e 2 , and e 3 represent the X-axis, Y-axis, and Z-axis components of the unit vector e Czn , respectively.
さらに、パン・チルト制御部51は、算出したパン値θPn及びチルト値θTnを、それら値の大きさに応じたパン・チルト制御信号に変換する。その後、パン・チルト制御部51は、変換したパン・チルト制御信号をスレーブカメラSCに出力する。
Further, the pan /
フォーカス制御部53は、注視点算出部40から入力された注視点Qの世界座標Pと、カメラキャリブレーション部20に格納されたカメラパラメータ(並進ベクトルTn)とに基づいて、注視点Qに合焦するように、スレーブカメラSCのフォーカスを制御するものである。
The
具体的には、フォーカス制御部53は、以下の式(16)に示すように、フォーカスを制御するために、スレーブカメラSCnから注視点Qの世界座標Pへ向かうベクトルEznを算出する。
Specifically, the
そして、フォーカス制御部53は、以下の式(17)及び式(18)に示すように、ベクトルEznから、スレーブカメラSCnと注視点Qの世界座標Pとの距離knを算出する。
なお、E1,E2,E3は、それぞれ、ベクトルEznのX軸、Y軸、Z軸成分を示す。
Then, the
E 1 , E 2 , and E 3 indicate the X-axis, Y-axis, and Z-axis components of the vector E zn , respectively.
さらに、フォーカス制御部53は、距離knとフォーカス値とを対応付けた情報が予め設定され、この情報を参照して、距離knに対応するフォーカス値を算出する。その後、フォーカス制御部53は、算出したフォーカス値を、その値の大きさに応じたフォーカス制御信号に変換して、スレーブカメラSCに出力する。
Further, the
ズーム・アイリス制御部55は、ズーム・アイリス操作部13から入力されたズーム値及びアイリス値に基づいて、スレーブカメラSCのズーム及びアイリスを制御するものである。
The zoom /
具体的には、ズーム・アイリス制御部55は、ズーム値及びアイリス値を、それら値の大きさに応じたズーム・アイリス制御信号に変換する。そして、ズーム・アイリス制御部55は、変換したズーム・アイリス制御信号をスレーブカメラSCに出力する。
Specifically, the zoom /
スレーブカメラSCは、多視点ロボットカメラシステム100が備える複数台のロボットカメラのうち、マスターカメラMC以外のロボットカメラである。このスレーブカメラSCは、例えば、電動雲台に搭載された固定ロボットカメラである。また、スレーブカメラSCは、パン・チルト制御部51から入力されたパン・チルト制御信号に応じて、パン及びチルトを駆動する。そして、スレーブカメラSCは、フォーカス制御部53から入力されたフォーカス制御信号に応じて、フォーカスを駆動する。さらに、スレーブカメラSCは、ズーム・アイリス制御部55から入力されたズーム・アイリス制御信号に応じて、ズーム及びアイリスを駆動する。
The slave camera SC is a robot camera other than the master camera MC among a plurality of robot cameras provided in the multi-viewpoint robot camera system 100. The slave camera SC is, for example, a fixed robot camera mounted on an electric head. In addition, the slave camera SC drives pan and tilt according to the pan / tilt control signal input from the pan /
[多視点ロボットカメラシステムの動作]
図6を参照し、図1の多視点ロボットカメラシステム100の動作について、説明する(適宜図1参照)。
多視点ロボットカメラシステム100は、カメラキャリブレーション部20によって、マスターカメラMC及びスレーブカメラSCのカメラパラメータを算出し(ステップS1)、記憶装置に格納する(ステップ2)。
[Operation of multi-viewpoint robot camera system]
The operation of the multi-viewpoint robot camera system 100 of FIG. 1 will be described with reference to FIG. 6 (see FIG. 1 as appropriate).
In the multi-viewpoint robot camera system 100, the
多視点ロボットカメラシステム100は、パン・チルト操作部11によって、カメラマンの操作に応じたパン値及びチルト値を検出して、パン・チルト・ズーム・アイリス制御部31と、注視点算出部40とに出力する。
多視点ロボットカメラシステム100は、ズーム・アイリス操作部13によって、カメラマンの操作に応じたズーム値及びアイリス値を検出して、パン・チルト・ズーム・アイリス制御部31と、ズーム・アイリス制御部55とに出力する。
多視点ロボットカメラシステム100は、デプス操作部15によって、式(1)から式4)を用いて、エンコーダ17のエンコーダ値から、マスターカメラから離れる程、単位時間あたりの注視点の移動距離が長くなるようなデプス値を算出する(ステップS3)。
The multi-viewpoint robot camera system 100 detects a pan value and a tilt value according to the operation of the cameraman by the pan /
In the multi-viewpoint robot camera system 100, the zoom /
The multi-viewpoint robot camera system 100 uses the expressions (1) to (4) by the
多視点ロボットカメラシステム100は、パン・チルト・ズーム・アイリス制御部31によって、パン値、チルト値、ズーム値及びアイリス値を、パン・チルト・ズーム・アイリス制御信号に変換して、マスターカメラMCに出力する。
多視点ロボットカメラシステム100は、フォーカス制御部33によって、デプス値に対応したフォーカス値を算出し、算出したフォーカス値をフォーカス制御信号に変換して、マスターカメラMCに出力する(ステップS4)。
The multi-viewpoint robot camera system 100 converts a pan value, a tilt value, a zoom value, and an iris value into a pan / tilt / zoom / iris control signal by the pan / tilt / zoom /
In the multi-viewpoint robot camera system 100, the
多視点ロボットカメラシステム100は、注視点算出部40によって、パン・チルト操作部11とカメラキャリブレーション部20とのカメラ姿勢の差分に基づいて、式(8)の回転行列R´rectmを算出する。
多視点ロボットカメラシステム100は、注視点算出部40によって、式(10)のように、回転行列R´rectmに含まれるベクトルezmとデプス値kとの積に並進ベクトルTmを加算することで、注視点Qの世界座標Pを算出する(ステップS5)。
In the multi-viewpoint robot camera system 100, the gaze
In the multi-viewpoint robot camera system 100, the gaze
多視点ロボットカメラシステム100は、パン・チルト制御部51によって、注視点Qに向くようにスレーブカメラSCのパン及びチルトを制御する。
多視点ロボットカメラシステム100は、フォーカス制御部53によって、注視点Qに合焦するようにスレーブカメラSCのフォーカスを制御する。
多視点ロボットカメラシステム100は、ズーム・アイリス制御部55によって、ズーム値及びアイリス値に基づいて、スレーブカメラSCのズーム及びアイリスを制御する(ステップS6)。
In the multi-viewpoint robot camera system 100, the pan /
In the multi-viewpoint robot camera system 100, the
In the multi-viewpoint robot camera system 100, the zoom /
以上のように、本願発明の実施形態に係る多視点ロボットカメラシステム100は、デプス操作部15によりデプス値を非線形に変化させるため、注視点とマスターカメラとの遠近に関係なく、スレーブカメラSCの制御角度A,Bの変化が線形(一定)となり、デプス調整を容易に行うことができる(図5参照)。
As described above, since the multi-viewpoint robot camera system 100 according to the embodiment of the present invention changes the depth value nonlinearly by the
本願発明は、実施形態に限定されず、その趣旨を逸脱しない範囲で様々な変形を加えることができる。以下、本願発明の変形例について、具体的に説明する。
前記した実施形態では、デプス操作部15が回転ダイヤル16を備えることとして説明したが、本願発明は、これに限定されない。
例えば、デプス操作部15は、回転ダイヤル16の代わりにスライダを備えてもよい。
The present invention is not limited to the embodiments, and various modifications can be made without departing from the spirit of the present invention. Hereinafter, the modification of this invention is demonstrated concretely.
In the above-described embodiment, the
For example, the
図7,図8を参照し、本願発明の実施例として、スレーブカメラSCの制御角度の変化の実験結果について、説明する(適宜図1参照)。
図1の多視点ロボットカメラシステム100を用いて、スレーブカメラSCの制御角度の変化を測定する実験を行った。ここで、図7に示すように、9台のロボットカメラを横一直線状に配置し、中央のロボットカメラ1台をマスターカメラMCとして設定し、残り8台のロボットカメラをスレーブカメラSCとして設定した。このとき、デプス値の最大値dmax=100メートル、デプス値の範囲の最小値dmin=1メートル、ベースラインの距離B=20メートル、エンコーダの最大値tmax=10000であった。
With reference to FIG. 7 and FIG. 8, the experiment result of the change in the control angle of the slave camera SC will be described as an embodiment of the present invention (see FIG. 1 as appropriate).
Using the multi-viewpoint robot camera system 100 of FIG. 1, an experiment for measuring a change in the control angle of the slave camera SC was performed. Here, as shown in FIG. 7, nine robot cameras are arranged in a horizontal line, one central robot camera is set as a master camera MC, and the remaining eight robot cameras are set as slave cameras SC. . At this time, the maximum depth value d max = 100 meters, the minimum value range d min = 1 meter, the baseline distance B = 20 meters, and the maximum encoder value t max = 10000.
そして、カメラマンによる操作部16の操作に応じて、スレーブカメラSC1の制御角度の変化を測定した。さらに、比較例として、図7と同一のカメラ配置で、従来の多視点ロボットカメラシステムを用いて、スレーブカメラSC1の制御角度の変化を測定した。
Then, in response to operation of the
図8では、実施例の測定結果を実線で図示し、比較例の測定結果を破線で図示した。
図8から、比較例では、破線の傾きが一定でなく、スレーブカメラSC1の制御角度が大きく変化していることがわかる。つまり、比較例では、注視点QがマスターカメラMCに近いとき(エンコーダ値が小さいとき)、スレーブカメラSC1の制御角度の変化が大きくなる。また、比較例では、注視点QがマスターカメラMCから遠いとき(エンコーダ値が大きいとき)、スレーブカメラSCの制御角度の変化が小さくなる。このことから、比較例では、スレーブカメラSCの制御角度の変化が一定とならず、注視点Qが被写体に重なるようなデプス調整が困難であると考えられる。
In FIG. 8, the measurement results of the example are illustrated by solid lines, and the measurement results of the comparative example are illustrated by broken lines.
8, in the comparative example, a rather dashed gradient is constant, it can be seen that the control angle of the slave camera SC 1 greatly changes. That is, in the comparative example, (when the small encoder value) fixation point Q is when close to the master camera MC, the change in the control angle of the slave camera SC 1 increases. In the comparative example, when the gazing point Q is far from the master camera MC (when the encoder value is large), the change in the control angle of the slave camera SC is small. Therefore, in the comparative example, it is considered that it is difficult to adjust the depth so that the change in the control angle of the slave camera SC is not constant and the gazing point Q overlaps the subject.
一方、実施例では、実線の傾きが一定であり、スレーブカメラSC1の制御角度が一定に変化していることがわかる。つまり、実施例では、注視点QとマスターカメラMCとの遠近に関わらず、スレーブカメラSC1の制御角度の変化が一定となるため、比較例に比べて、デプス調整が容易であると考えられる。 Meanwhile, in the embodiment, a solid line slope is constant, it can be seen that the control angle of the slave camera SC 1 is changed to the constant. That is, in the embodiment, regardless of the distance between the gazing point Q and the master camera MC, the change in the control angle of the slave camera SC 1 is constant, is considered in comparison with the comparative example, it is easy depth adjustment .
1 ロボットカメラ制御装置
10 操作インターフェース部
11 パン・チルト操作部(カメラ姿勢操作部)
13 ズーム・アイリス操作部
15 デプス操作部(デプス値算出部)
16 回転ダイヤル(操作部)
17 エンコーダ
20 カメラキャリブレーション部
30 マスターカメラ制御部
31 パン・チルト・ズーム・アイリス制御部
33 フォーカス制御部
40 注視点算出部
50 スレーブカメラ制御部
51 パン・チルト制御部
53 フォーカス制御部
55 ズーム・アイリス制御部
100 多視点ロボットカメラシステム
MC マスターカメラ
SC スレーブカメラ
DESCRIPTION OF
13 Zoom /
16 Rotating dial (operation unit)
17
Claims (5)
前記マスターカメラのカメラ姿勢を操作するカメラ姿勢操作部と、
前記注視点を移動させる移動操作が行われ、前記注視点の移動操作の検出値から、前記マスターカメラから離れる程、単位時間あたりの前記注視点の移動距離が長くなるように、前記マスターカメラから前記注視点までの距離であるデプス値を算出するデプス値算出部と、
カメラキャリブレーションを行ったときの前記マスターカメラのカメラ姿勢と、前記マスターカメラの外部パラメータである並進ベクトルとを、前記カメラキャリブレーションにより算出するカメラキャリブレーション部と、
前記カメラ姿勢操作部と前記カメラキャリブレーション部とのカメラ姿勢の差分に基づいて、前記マスターカメラにおける回転行列を算出し、算出した前記回転行列に含まれる奥行成分のベクトルと前記デプス値との積に前記並進ベクトルを加算することで、前記注視点の位置を算出する注視点算出部と、
前記注視点算出部が算出した注視点に向くように、前記スレーブカメラの姿勢を制御するスレーブカメラ制御部と、
を備えることを特徴とするロボットカメラ制御装置。 Of the plurality of robot cameras, the posture of the slave camera, which is a robot camera other than the master camera, is set so as to face a gazing point that can be moved on the optical axis of the master camera that is a preset one robot camera. A robot camera control device for controlling,
A camera attitude operation unit for operating the camera attitude of the master camera;
From the master camera, a moving operation for moving the gazing point is performed, and from the detected value of the gazing point moving operation, the moving distance of the gazing point per unit time increases as the distance from the master camera increases. A depth value calculation unit that calculates a depth value that is a distance to the gazing point;
A camera calibration unit that calculates a camera orientation of the master camera when performing camera calibration and a translation vector that is an external parameter of the master camera by the camera calibration;
A rotation matrix in the master camera is calculated based on a difference in camera attitude between the camera attitude operation unit and the camera calibration unit, and a product of a depth component vector and the depth value included in the calculated rotation matrix A gazing point calculation unit for calculating the position of the gazing point by adding the translation vector to
A slave camera control unit that controls the posture of the slave camera so as to face the gazing point calculated by the gazing point calculation unit;
A robot camera control device comprising:
前記注視点の移動操作が行われる操作部と、
前記操作部に対する移動操作を検出するエンコーダと、を備え、
前記マスターカメラ及び前記スレーブカメラのベースラインの最大距離B、前記デプス値の最大値dmax、前記デプス値の最小値dmin、及び、前記エンコーダにおける移動操作の最大検出値tmaxが予め設定された以下の式(1)から式(4)を用いて、前記エンコーダにおける移動操作の検出値t(但し、0≦t≦tmax)から、前記デプス値を示すkを算出することを特徴とする請求項1に記載のロボットカメラ制御装置。
An operation unit for performing an operation of moving the gazing point;
An encoder for detecting a movement operation on the operation unit;
The maximum baseline B of the master camera and the slave camera, the maximum value d max of the depth value, the minimum value d min of the depth value, and the maximum detection value t max of the moving operation in the encoder are preset. In addition, the following equation (1) to equation (4) are used to calculate k indicating the depth value from the detected value t (where 0 ≦ t ≦ t max ) of the movement operation in the encoder. The robot camera control device according to claim 1.
前記スレーブカメラ制御部は、前記注視点算出部が算出した注視点に合焦するように、前記スレーブカメラのフォーカスをさらに制御することを特徴とする請求項1又は請求項2に記載のロボットカメラ制御装置。 A master camera control unit that controls the posture of the master camera so as to take the camera posture operated by the camera posture operation unit;
The robot camera according to claim 1, wherein the slave camera control unit further controls the focus of the slave camera so as to focus on the gazing point calculated by the gazing point calculation unit. Control device.
前記ロボットカメラ制御装置が、
前記マスターカメラのカメラ姿勢を操作するカメラ姿勢操作部と、
前記注視点を移動させる移動操作が行われ、前記注視点の移動操作の検出値から、前記マスターカメラから離れる程、単位時間あたりの前記注視点の移動距離が長くなるように、前記マスターカメラから前記注視点までの距離であるデプス値を算出するデプス値算出部と、
カメラキャリブレーションを行ったときの前記マスターカメラのカメラ姿勢と、前記マスターカメラの外部パラメータである並進ベクトルとを、前記カメラキャリブレーションにより算出するカメラキャリブレーション部と、
前記カメラ姿勢操作部と前記カメラキャリブレーション部とのカメラ姿勢の差分に基づいて、前記マスターカメラにおける回転行列を算出し、算出した前記回転行列に含まれる奥行成分のベクトルと前記デプス値との積に前記並進ベクトルを加算することで、前記注視点の位置を算出する注視点算出部と、
前記注視点算出部が算出した注視点に向くように、前記スレーブカメラの姿勢を制御するスレーブカメラ制御部と、
を備えることを特徴とする多視点ロボットカメラシステム。 Among a plurality of robot cameras, a master camera that is a preset robot camera, a slave camera that is a robot camera other than the master camera, and a gaze point that can move on the optical axis of the master camera A multi-viewpoint robot camera system comprising a robot camera control device for controlling the posture of the slave camera so as to face,
The robot camera control device is
A camera attitude operation unit for operating the camera attitude of the master camera;
From the master camera, a moving operation for moving the gazing point is performed, and from the detected value of the gazing point moving operation, the moving distance of the gazing point per unit time increases as the distance from the master camera increases. A depth value calculation unit that calculates a depth value that is a distance to the gazing point;
A camera calibration unit that calculates a camera orientation of the master camera when performing camera calibration and a translation vector that is an external parameter of the master camera by the camera calibration;
A rotation matrix in the master camera is calculated based on a difference in camera attitude between the camera attitude operation unit and the camera calibration unit, and a product of a depth component vector and the depth value included in the calculated rotation matrix A gazing point calculation unit for calculating the position of the gazing point by adding the translation vector to
A slave camera control unit that controls the posture of the slave camera so as to face the gazing point calculated by the gazing point calculation unit;
A multi-viewpoint robot camera system comprising:
カメラキャリブレーションを行ったときの前記マスターカメラのカメラ姿勢と、前記マスターカメラの外部パラメータである並進ベクトルとを、前記カメラキャリブレーションにより算出するカメラキャリブレーション部、
前記カメラ姿勢操作部と前記カメラキャリブレーション部とのカメラ姿勢の差分に基づいて、前記マスターカメラにおける回転行列を算出し、算出した前記回転行列に含まれる奥行成分のベクトルと前記デプス値との積に前記並進ベクトルを加算することで、前記注視点の位置を算出する注視点算出部、
前記注視点算出部が算出した注視点に向くように、前記スレーブカメラの姿勢を制御するスレーブカメラ制御部、
として機能させるためのロボットカメラ制御プログラム。 Of the plurality of robot cameras, the posture of the slave camera, which is a robot camera other than the master camera, is set so as to face a gazing point that can be moved on the optical axis of the master camera that is a preset one robot camera. In order to control, a camera posture operation unit for operating the camera posture of the master camera and a moving operation for moving the gazing point are performed, and from the detection value of the gazing point moving operation, the farther from the master camera, A computer comprising a depth value calculation unit that calculates a depth value that is a distance from the master camera to the gazing point so that a moving distance of the gazing point per unit time is increased.
A camera calibration unit that calculates a camera orientation of the master camera when camera calibration is performed and a translation vector that is an external parameter of the master camera by the camera calibration;
A rotation matrix in the master camera is calculated based on a difference in camera attitude between the camera attitude operation unit and the camera calibration unit, and a product of a depth component vector and the depth value included in the calculated rotation matrix A gazing point calculation unit for calculating the position of the gazing point by adding the translation vector to
A slave camera control unit that controls the posture of the slave camera so as to face the gazing point calculated by the gazing point calculation unit;
Robot camera control program to function as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012253086A JP2014103490A (en) | 2012-11-19 | 2012-11-19 | Robot camera control device, program for the same, and multi-viewpoint robot camera system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012253086A JP2014103490A (en) | 2012-11-19 | 2012-11-19 | Robot camera control device, program for the same, and multi-viewpoint robot camera system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014103490A true JP2014103490A (en) | 2014-06-05 |
Family
ID=51025646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012253086A Pending JP2014103490A (en) | 2012-11-19 | 2012-11-19 | Robot camera control device, program for the same, and multi-viewpoint robot camera system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014103490A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9961330B2 (en) | 2015-03-02 | 2018-05-01 | Electronics And Telecommunications Research Institute | Device and method of generating multi-view immersive content |
CN113875219A (en) * | 2019-08-27 | 2021-12-31 | Oppo广东移动通信有限公司 | Image processing method and device, electronic equipment and computer readable storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH052205A (en) * | 1991-06-26 | 1993-01-08 | Canon Inc | Focus command device |
JP2007133660A (en) * | 2005-11-10 | 2007-05-31 | Nippon Hoso Kyokai <Nhk> | Apparatus and method for composing multi-viewpoint video image |
JP2012098327A (en) * | 2010-10-29 | 2012-05-24 | Canon Inc | Imaging system |
JP2012114593A (en) * | 2010-11-22 | 2012-06-14 | Nippon Hoso Kyokai <Nhk> | Multi-viewpoint robot camera system, multi-viewpoint robot camera controller and program |
-
2012
- 2012-11-19 JP JP2012253086A patent/JP2014103490A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH052205A (en) * | 1991-06-26 | 1993-01-08 | Canon Inc | Focus command device |
JP2007133660A (en) * | 2005-11-10 | 2007-05-31 | Nippon Hoso Kyokai <Nhk> | Apparatus and method for composing multi-viewpoint video image |
JP2012098327A (en) * | 2010-10-29 | 2012-05-24 | Canon Inc | Imaging system |
JP2012114593A (en) * | 2010-11-22 | 2012-06-14 | Nippon Hoso Kyokai <Nhk> | Multi-viewpoint robot camera system, multi-viewpoint robot camera controller and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9961330B2 (en) | 2015-03-02 | 2018-05-01 | Electronics And Telecommunications Research Institute | Device and method of generating multi-view immersive content |
CN113875219A (en) * | 2019-08-27 | 2021-12-31 | Oppo广东移动通信有限公司 | Image processing method and device, electronic equipment and computer readable storage medium |
CN113875219B (en) * | 2019-08-27 | 2023-08-15 | Oppo广东移动通信有限公司 | Image processing method and device, electronic equipment and computer readable storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10048461B2 (en) | Method and apparatus for performing temperature compensation for camera | |
KR102143456B1 (en) | Depth information acquisition method and apparatus, and image collection device | |
JP6551392B2 (en) | System and method for controlling an apparatus for image capture | |
CN107113376B (en) | A kind of image processing method, device and video camera | |
US9832362B2 (en) | Image-capturing apparatus | |
CN107077154B (en) | Cloud platform control method, device, storage medium and unmanned plane | |
WO2002065761A2 (en) | System and method for stabilizing rotational images | |
JP5509044B2 (en) | Multi-viewpoint robot camera system, multi-viewpoint robot camera control device and program | |
CN104950726B (en) | The time delay correction method and its device of remote controlled travelling device | |
KR20190055582A (en) | Method for capturing an image of electronic device and electronic device thereof | |
WO2017038680A1 (en) | System, method and program for generating three-dimensional image data of a target object | |
JP2016219968A (en) | Multi-viewpoint video expression apparatus and program therefor | |
US8810641B2 (en) | Television, control method and control device for the television | |
US9300860B2 (en) | Image-capturing apparatus | |
JP2014103490A (en) | Robot camera control device, program for the same, and multi-viewpoint robot camera system | |
JP7470518B2 (en) | Pan/tilt angle calculation device and program thereof | |
JP6073114B2 (en) | Robot camera control device, program thereof, and multi-viewpoint robot camera system | |
JP5223096B2 (en) | 3D video shooting control system, 3D video shooting control method, and program | |
US10529084B2 (en) | Image processing method, electronic device, and non-transitory computer readable storage medium | |
JP6180925B2 (en) | Robot camera control device, program thereof, and multi-viewpoint robot camera system | |
JP2015126402A (en) | Robot camera control device, program for the same, and multi-viewpoint robot camera system | |
JP5988842B2 (en) | Robot camera control device, program thereof, and multi-viewpoint robot camera system | |
JP6381092B2 (en) | Method and apparatus for estimating the value of an input in the presence of a perturbation factor | |
JP2014096761A (en) | Image processing apparatus, and control method and control program of the same | |
JP2021197572A (en) | Camera control apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160704 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160712 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170411 |