JP2014103490A - Robot camera control device, program for the same, and multi-viewpoint robot camera system - Google Patents

Robot camera control device, program for the same, and multi-viewpoint robot camera system Download PDF

Info

Publication number
JP2014103490A
JP2014103490A JP2012253086A JP2012253086A JP2014103490A JP 2014103490 A JP2014103490 A JP 2014103490A JP 2012253086 A JP2012253086 A JP 2012253086A JP 2012253086 A JP2012253086 A JP 2012253086A JP 2014103490 A JP2014103490 A JP 2014103490A
Authority
JP
Japan
Prior art keywords
camera
gazing point
master
robot
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012253086A
Other languages
Japanese (ja)
Inventor
Takesuke Iketani
健佑 池谷
Yuichi Iwadate
祐一 岩舘
Kensuke Hisatomi
健介 久富
Miwa Katayama
美和 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2012253086A priority Critical patent/JP2014103490A/en
Publication of JP2014103490A publication Critical patent/JP2014103490A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Accessories Of Cameras (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a multi-viewpoint robot camera system which can perform depth adjustment easily.SOLUTION: A multi-viewpoint robot camera system 100 comprises: an operation interface section 10 which calculates a depth value which is changed nonlinearly, from an encoder value; a camera calibration section 20 which calculates a camera parameter by a camera calibration; a master camera control section 30 which controls a master camera MC; a gazing point calculation section 40 which calculates a rotation matrix on the basis of the difference between a camera posture at the time of camera calibration and a camera posture at the time of imaging, and calculates a position of the gazing point by adding a translation matrix to the product of a depth value and a vector of a depth component included in the rotation matrix; and a slave camera control section 50 which controls the slave camera SC so as to face the gazing point.

Description

本願発明は、ロボットカメラの姿勢を制御するロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステムに関する。   The present invention relates to a robot camera control device that controls the posture of a robot camera, a program thereof, and a multi-view robot camera system.

従来から、動く被写体をパンフォローした多視点映像を撮影することが可能な多視点ロボットカメラシステムが提案されている(非特許文献1)。この多視点ロボットカメラシステムは、複数台のロボットカメラのうち1台をマスターカメラとして設定し、カメラマンがマスターカメラを被写体に向けるように操作する。ここで、マスターカメラの光軸上には注視点が設定されており、マスターカメラ以外のスレーブカメラは、注視点に向くように制御角度が変化して、自動的に方向制御される。このとき、カメラマンが、マスターカメラと注視点との距離であるデプス値を連続的に変化させることで、注視点をマスターカメラの光軸上で移動させる。そして、注視点が被写体に重なるように(すなわち、全スレーブカメラの画面の中心に被写体が位置するように)、カメラマンが、デプス操作装置を用いてデプス値を変化(増減)させることで、多視点映像を撮影することができる。   Conventionally, a multi-view robot camera system capable of shooting a multi-view video obtained by pan-following a moving subject has been proposed (Non-Patent Document 1). In this multi-viewpoint robot camera system, one of a plurality of robot cameras is set as a master camera, and a cameraman operates to direct the master camera toward a subject. Here, a gazing point is set on the optical axis of the master camera, and slave cameras other than the master camera are automatically controlled in direction by changing the control angle so as to face the gazing point. At this time, the cameraman moves the gazing point on the optical axis of the master camera by continuously changing the depth value that is the distance between the master camera and the gazing point. Then, the photographer changes (increases or decreases) the depth value using the depth operation device so that the gazing point overlaps the subject (that is, the subject is positioned at the center of the screen of all slave cameras). You can shoot a viewpoint video.

伊佐憲一、他4名、「最新スポーツ中継技術 世界初! プロ野球中継におけるEyeVisionTM(アイビジョン)の活用」、放送技術、兼六館出版、2001年11月、p.96−p.105Kenichi Isa and four others, "The latest sports broadcast technology, the world's first! Utilizing EyeVisionTM for professional baseball broadcasts", Broadcast Technology, Kenrokukan Publishing, November 2001, p. 96-p. 105

しかし、従来の多視点ロボットカメラシステムは、デプス操作装置が、デプス値を線形に変化させている。従って、従来の多視点ロボットカメラシステムでは、注視点がマスターカメラに近い時、スレーブカメラの制御角度が大幅に変化する。一方、従来の多視点ロボットカメラシステムでは、注視点がマスターカメラに遠い時、スレーブカメラの制御角度がほとんど変化しない。従って、デプス操作装置の操作量に対し、スレーブカメラの制御角度の変化量が一定とならない。このため、従来の多視点ロボットカメラシステムでは、注視点が被写体に重なるようにデプス調整を行うことが困難であるという問題がある。   However, in the conventional multi-viewpoint robot camera system, the depth operation device linearly changes the depth value. Therefore, in the conventional multi-view robot camera system, when the gazing point is close to the master camera, the control angle of the slave camera changes greatly. On the other hand, in the conventional multi-viewpoint robot camera system, when the gazing point is far from the master camera, the control angle of the slave camera hardly changes. Therefore, the change amount of the control angle of the slave camera is not constant with respect to the operation amount of the depth operation device. For this reason, the conventional multi-viewpoint robot camera system has a problem that it is difficult to perform depth adjustment so that the gazing point overlaps the subject.

図9を参照して、従来の多視点ロボットカメラシステムの問題について、詳細に説明する。
図9(a)の注視点Q〜Qは、マスターカメラMCの光軸βの上を移動する注視点について、時間t=1〜4での位置を示している。
前記したように、デプス値が線形に変化するため、注視点Q,Qの距離、注視点Q,Qの距離、及び、注視点Q,Qの距離は、全て等しくなる。つまり、時間t=1〜2では、スレーブカメラSCが注視点Q〜Qに追随するので、制御角度Aが大きくなる。一方、時間t=3〜4では、スレーブカメラSCが注視点Q〜Qに追随するので、制御角度Bが小さくなる。
The problem of the conventional multi-viewpoint robot camera system will be described in detail with reference to FIG.
Gaze points Q 1 to Q 4 in FIG. 9A indicate positions at time t = 1 to 4 with respect to the gaze point moving on the optical axis β of the master camera MC.
As described above, since the depth value changes linearly, the distance between the gazing points Q 1 and Q 2 , the distance between the gazing points Q 2 and Q 3 , and the distance between the gazing points Q 3 and Q 4 are all equal. . That is, at time t = 1 to 2, the slave camera SC follows the gazing points Q 1 to Q 2 , so that the control angle A increases. On the other hand, at time t = 3 to 4, the slave camera SC follows the gazing points Q 3 to Q 4 , so the control angle B becomes small.

図9(b)では、デプス操作装置90の回転ダイヤル91において、注視点Q〜Qに対応する指標位置を図示した。注視点Q〜Qの順で指標位置の間隔が短くなっている。
図9(b)に示すように、回転ダイヤル91に刻まれた指標91aが指標位置「Q」に重なるとき、図9(a)の注視点Qを指す。これと同様、指標91aが指標位置「Q」に重なるときに図9(a)の注視点Qを指し、指標91aが指標位置「Q」に重なるときに図9(a)の注視点Qを指し、指標91aが指標位置「Q」に重なるときに図9(a)の注視点Qを指す。
FIG. 9B illustrates the index positions corresponding to the gazing points Q 1 to Q 4 on the rotary dial 91 of the depth operation device 90. The interval between the index positions is shorter in the order of the gazing points Q 1 to Q 4 .
As shown in FIG. 9B, when the index 91a engraved on the rotary dial 91 overlaps the index position “Q 1 ”, the point of sight Q 1 in FIG. 9A is indicated. Similarly, it refers to the gazing point Q 2 in FIG. 9 when the indicator 91a overlaps the index position "Q 2" (a), note shown in FIG. 9 (a) when the index 91a overlaps the index position "Q 3" refers viewpoint Q 3, refer to FIG. 9 fixation point Q 4 in (a) when the index 91a overlaps the index position "Q 4".

ここで、図9(a)に示すように、注視点Qから注視点Qに移動させる場合、制御角度Aが大きいため、図9(b)に示すように、回転ダイヤル91の操作量が多くなる。一方、図9(a)に示すように、注視点Qから注視点Qに移動させる場合、制御角度Bが小さいため、図9(b)に示すように、回転ダイヤル91の操作量が少なくなる。このように、従来の多視点ロボットカメラシステムでは、回転ダイヤル91の操作量に対し、スレーブカメラSCの制御角度の変化量が一定とならず、デプス調整を行うことが困難となる。 Here, as shown in FIG. 9 (a), when moving from the gazing point Q 1 to the gazing point Q 2, for controlling the angle A is large, as shown in FIG. 9 (b), the operation amount of the rotary dial 91 Will increase. On the other hand, as shown in FIG. 9 (a), when moving from the gazing point Q 3 on the fixation point Q 4, for controlling the angle B is smaller, as shown in FIG. 9 (b), the operation amount of the rotary dial 91 Less. As described above, in the conventional multi-viewpoint robot camera system, the change amount of the control angle of the slave camera SC is not constant with respect to the operation amount of the rotary dial 91, and it becomes difficult to adjust the depth.

そこで、本願発明は、デプス調整が容易なロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステムを提供することを課題とする。   Accordingly, an object of the present invention is to provide a robot camera control device, a program thereof, and a multi-view robot camera system that can easily adjust the depth.

前記した課題に鑑みて、本願第1発明に係るロボットカメラ制御装置は、複数台のロボットカメラのうち、予め設定された1台のロボットカメラであるマスターカメラの光軸上を移動可能な注視点に向くように、マスターカメラ以外のロボットカメラであるスレーブカメラの姿勢を制御するロボットカメラ制御装置であって、カメラ姿勢操作部と、デプス値算出部と、カメラキャリブレーション部と、注視点算出部と、スレーブカメラ制御部と、を備えることを特徴とする。   In view of the above-described problems, the robot camera control device according to the first invention of the present application is a gaze point that can move on the optical axis of a master camera that is a preset robot camera among a plurality of robot cameras. Is a robot camera control device that controls the posture of a slave camera that is a robot camera other than the master camera, and includes a camera posture operation unit, a depth value calculation unit, a camera calibration unit, and a gaze point calculation unit And a slave camera control unit.

かかる構成によれば、ロボットカメラ制御装置は、カメラ姿勢操作部によって、マスターカメラのカメラ姿勢を操作する。また、ロボットカメラ制御装置は、デプス値算出部によって、注視点を移動させる移動操作が行われ、注視点の移動操作の検出値から、マスターカメラから離れる程、単位時間あたりの注視点の移動距離が長くなるように、マスターカメラから注視点までの距離であるデプス値を、非線形に変化させて算出する。   According to this configuration, the robot camera control apparatus operates the camera posture of the master camera by the camera posture operation unit. Also, in the robot camera control device, the depth value calculation unit performs a moving operation to move the gazing point, and from the detected value of the gazing point moving operation, the distance the gazing point moves per unit time as the distance from the master camera increases. Is calculated by changing the depth value, which is the distance from the master camera to the gazing point, in a non-linear manner.

また、ロボットカメラ制御装置は、カメラキャリブレーション部によって、カメラキャリブレーションを行ったときのマスターカメラのカメラ姿勢と、マスターカメラの外部パラメータである並進ベクトルとを、カメラキャリブレーションにより算出する。   Also, the robot camera control device calculates, by camera calibration, the camera orientation of the master camera when the camera calibration is performed and the translation vector that is an external parameter of the master camera by the camera calibration unit.

また、ロボットカメラ制御装置は、注視点算出部によって、カメラ姿勢操作部とカメラキャリブレーション部とのカメラ姿勢の差分に基づいて、マスターカメラにおける回転行列を算出し、算出した回転行列に含まれる奥行成分のベクトルとデプス値との積に並進ベクトルを加算することで、注視点の位置を算出する。そして、ロボットカメラ制御装置は、スレーブカメラ制御部によって、注視点算出部が算出した注視点に向くように、スレーブカメラの姿勢を制御する。   In addition, the robot camera control device calculates a rotation matrix in the master camera based on the difference in camera posture between the camera posture operation unit and the camera calibration unit by the gazing point calculation unit, and the depth included in the calculated rotation matrix The position of the gazing point is calculated by adding the translation vector to the product of the component vector and the depth value. In the robot camera control device, the slave camera control unit controls the posture of the slave camera so as to face the gazing point calculated by the gazing point calculation unit.

ここで、デプス値算出部は、注視点の移動操作が行われる操作部と、操作部に対する移動操作を検出するエンコーダと、を備え、マスターカメラ及びスレーブカメラのベースラインの最大距離B、デプス値の最大値dmax、デプス値の最小値dmin、及び、エンコーダにおける移動操作の最大検出値tmaxが予め設定された以下の式(1)から式(4)を用いて、エンコーダにおける移動操作の検出値t(但し、0≦t≦tmax)から、デプス値を示すkを算出することが好ましい(本願第2発明)。 Here, the depth value calculation unit includes an operation unit in which a gazing point movement operation is performed, and an encoder that detects a movement operation with respect to the operation unit, and the maximum distance B between the baselines of the master camera and the slave camera, the depth value The maximum value d max , the minimum value d min of the depth value, and the maximum detected value t max of the moving operation in the encoder are set in advance using the following equations (1) to (4). Preferably, k indicating the depth value is calculated from the detected value t (where 0 ≦ t ≦ t max ) (second invention of the present application).

また、本願第3発明に係るロボットカメラ制御装置は、カメラ姿勢操作部で操作されたカメラ姿勢をとるように、マスターカメラの姿勢を制御するマスターカメラ制御部、をさらに備え、スレーブカメラ制御部が、注視点算出部が算出した注視点に合焦するように、スレーブカメラのフォーカスをさらに制御することを特徴とする。
かかる構成によれば、ロボットカメラ制御装置は、マスターカメラの姿勢を制御すると共に、スレーブカメラを注視点に正確にフォーカスさせることができる。
The robot camera control device according to the third invention of the present application further includes a master camera control unit that controls the posture of the master camera so as to take the camera posture operated by the camera posture operation unit, and the slave camera control unit includes: The focus of the slave camera is further controlled so as to focus on the gazing point calculated by the gazing point calculation unit.
According to such a configuration, the robot camera control apparatus can control the posture of the master camera and accurately focus the slave camera on the point of sight.

また、前記した課題に鑑みて、本願第4発明に係る多視点ロボットカメラシステムは、複数台のロボットカメラのうち、予め設定された1台のロボットカメラであるマスターカメラと、マスターカメラ以外のロボットカメラであるスレーブカメラと、マスターカメラの光軸上を移動可能な注視点に向くようにスレーブカメラの姿勢を制御するロボットカメラ制御装置とを備える多視点ロボットカメラシステムであって、ロボットカメラ制御装置が、カメラ姿勢入力部と、デプス値算出部と、カメラキャリブレーション部と、注視点算出部と、スレーブカメラ制御部と、を備えることを特徴とする。   Further, in view of the above-described problems, a multi-viewpoint robot camera system according to the fourth invention of the present application includes a master camera that is a preset robot camera among a plurality of robot cameras, and a robot other than the master camera. A multi-viewpoint robot camera system comprising a slave camera that is a camera and a robot camera control device that controls the posture of the slave camera so as to face a gazing point that can move on the optical axis of the master camera. Comprises a camera posture input unit, a depth value calculation unit, a camera calibration unit, a gaze point calculation unit, and a slave camera control unit.

かかる構成によれば、ロボットカメラ制御装置は、カメラ姿勢操作部によって、マスターカメラのカメラ姿勢を操作する。また、ロボットカメラ制御装置は、デプス値算出部によって、注視点を移動させる移動操作が行われ、注視点の移動操作量から、マスターカメラから離れる程、単位時間あたりの注視点の移動距離が長くなるように、マスターカメラから注視点までの距離であるデプス値を、非線形に変化させて算出する。   According to this configuration, the robot camera control apparatus operates the camera posture of the master camera by the camera posture operation unit. Also, in the robot camera control device, the depth value calculation unit performs a moving operation for moving the gazing point, and the moving distance of the gazing point increases as the distance from the master camera increases from the gazing point moving operation amount. In this way, the depth value, which is the distance from the master camera to the gazing point, is calculated in a non-linear manner.

また、ロボットカメラ制御装置は、カメラキャリブレーション部によって、カメラキャリブレーションを行ったときのマスターカメラのカメラ姿勢と、マスターカメラの外部パラメータである並進ベクトルとを、カメラキャリブレーションにより算出する。   Also, the robot camera control device calculates, by camera calibration, the camera orientation of the master camera when the camera calibration is performed and the translation vector that is an external parameter of the master camera by the camera calibration unit.

また、ロボットカメラ制御装置は、注視点算出部によって、カメラ姿勢操作部とカメラキャリブレーション部とのカメラ姿勢の差分に基づいて、マスターカメラにおける回転行列を算出し、算出した回転行列に含まれる奥行成分のベクトルとデプス値との積に並進ベクトルを加算することで、注視点の位置を算出する。そして、ロボットカメラ制御装置は、スレーブカメラ制御部によって、注視点算出部が算出した注視点に向くように、スレーブカメラの姿勢を制御する。   In addition, the robot camera control device calculates a rotation matrix in the master camera based on the difference in camera posture between the camera posture operation unit and the camera calibration unit by the gazing point calculation unit, and the depth included in the calculated rotation matrix The position of the gazing point is calculated by adding the translation vector to the product of the component vector and the depth value. In the robot camera control device, the slave camera control unit controls the posture of the slave camera so as to face the gazing point calculated by the gazing point calculation unit.

ここで、本願第1発明に係るロボットカメラ制御装置は、カメラ姿勢操作部及びデプス値算出部を備えるコンピュータのCPU(Central Processing Unit)、メモリ、ハードディスクなどのハードウェア資源を、カメラキャリブレーション部、注視点算出部及びスレーブカメラ制御部として協調動作させるためのロボットカメラ制御プログラムによって実現することもできる(本願第5発明)。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。   Here, the robot camera control device according to the first invention of the present application is provided with hardware resources such as a CPU (Central Processing Unit), a memory, and a hard disk of a computer including a camera posture operation unit and a depth value calculation unit, a camera calibration unit, It can also be realized by a robot camera control program for cooperative operation as a gazing point calculation unit and a slave camera control unit (the fifth invention of the present application). This program may be distributed through a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.

本願発明によれば、以下のような優れた効果を奏する。
本願第1,2,4,5発明によれば、ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステムは、マスターカメラから離れる程、単位時間あたりの注視点の移動距離が長くなるようにデプス値を非線形に変化させるため、注視点とマスターカメラとの遠近に関係なく、スレーブカメラの制御角度の変化が一定になり、デプス調整を容易に行うことができる。
本願第3発明によれば、ロボットカメラ制御装置は、マスターカメラの姿勢を制御すると共に、スレーブカメラを注視点に正確にフォーカスさせるため、多視点映像を容易に撮影することができる。
According to the present invention, the following excellent effects can be obtained.
According to the first, second, fourth, and fifth inventions of the present application, the robot camera control device, the program thereof, and the multi-viewpoint robot camera system have a depth so that the moving distance of the gazing point per unit time increases as the distance from the master camera increases. Since the value is changed non-linearly, the change of the control angle of the slave camera becomes constant regardless of the distance between the gazing point and the master camera, and the depth adjustment can be easily performed.
According to the third aspect of the present invention, the robot camera control device controls the posture of the master camera and accurately focuses the slave camera on the point of sight, so that it is possible to easily shoot a multi-viewpoint video.

本願発明の実施形態に係る多視点ロボットカメラシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the multiview robot camera system which concerns on embodiment of this invention. (a)は図1のデプス操作部が備える操作部及びエンコーダを説明する図であり、(b)はデプス操作部の操作を説明する説明図である。(A) is a figure explaining the operation part and encoder with which the depth operation part of FIG. 1 is provided, (b) is explanatory drawing explaining operation of a depth operation part. 図1のデプス操作部において、デプス値の変化を説明する説明図である。It is explanatory drawing explaining the change of a depth value in the depth operation part of FIG. 図1のデプス操作部において、デプス値の変化を説明する説明図である。It is explanatory drawing explaining the change of a depth value in the depth operation part of FIG. (a)及び(b)は図1の多視点ロボットカメラシステムにおいて、スレーブカメラの制御角度の変化を説明する説明図である。(A) And (b) is explanatory drawing explaining the change of the control angle of a slave camera in the multiview robot camera system of FIG. 図1の多視点ロボットカメラシステムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the multiview robot camera system of FIG. 本願発明の実施例を説明する説明図である。It is explanatory drawing explaining the Example of this invention. 本願発明の実施例において、スレーブカメラの制御角度の変化の測定結果を示すグラフである。In the Example of this invention, it is a graph which shows the measurement result of the change of the control angle of a slave camera. (a)及び(b)は従来の多視点ロボットカメラシステムにおいて、スレーブカメラの制御角度の変化を説明する説明図である。(A) And (b) is explanatory drawing explaining the change of the control angle of a slave camera in the conventional multiview robot camera system.

以下、本願発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function are denoted by the same reference numerals and description thereof is omitted.

(実施形態)
[多視点ロボットカメラシステムの構成]
図1を参照し、本願発明の実施形態に係る多視点ロボットカメラシステム100の構成について、説明する。
図1に示すように、多視点ロボットカメラシステム100は、被写体の多視点映像を撮影するものであり、ロボットカメラ制御装置1と、マスターカメラMCと、スレーブカメラSC,…,SC(SC)とを備える。
(Embodiment)
[Configuration of multi-viewpoint robot camera system]
A configuration of a multi-viewpoint robot camera system 100 according to an embodiment of the present invention will be described with reference to FIG.
As shown in FIG. 1, the multi-viewpoint robotic camera system 100 is for capturing multi-view image of an object, a robot camera controller 1, and the master camera MC, the slave camera SC 1, ..., SC n ( SC ).

本実施形態では、マスターカメラMC及びスレーブカメラSCは、所定の間隔で直線状に配置されることとする。
また、スレーブカメラSCは、n台であることとする(但し、n≧1を満たす整数)。
In the present embodiment, the master camera MC and the slave camera SC are arranged in a straight line at a predetermined interval.
The number of slave cameras SC is n (where n is an integer satisfying n ≧ 1).

ロボットカメラ制御装置1は、マスターカメラMC及びスレーブカメラSCを制御するものであり、操作インターフェース部10と、カメラキャリブレーション部20と、マスターカメラ制御部30と、注視点算出部40と、スレーブカメラ制御部50,…,50(50)とを備える。 The robot camera control device 1 controls the master camera MC and the slave camera SC, and includes an operation interface unit 10, a camera calibration unit 20, a master camera control unit 30, a gazing point calculation unit 40, and a slave camera. Control units 50 1 ,..., 50 n (50).

操作インターフェース部10は、カメラマンが、マスターカメラMC及びスレーブカメラSCを遠隔操作するものであり、パン・チルト操作部(カメラ姿勢操作部)11と、ズーム・アイリス操作部13と、デプス操作部(デプス値算出部)15とを備える。   The operation interface unit 10 is used by a cameraman to remotely control the master camera MC and the slave camera SC. The pan / tilt operation unit (camera posture operation unit) 11, the zoom / iris operation unit 13, and the depth operation unit ( A depth value calculation unit) 15.

パン・チルト操作部11は、カメラマンが、マスターカメラMCのパン及びチルト(カメラ姿勢)を操作するものである。そして、パン・チルト操作部11は、カメラマンの操作に応じたパン値及びチルト値を検出して、パン・チルト・ズーム・アイリス制御部31と、注視点算出部40とに出力する。   The pan / tilt operation unit 11 is used by a cameraman to operate pan and tilt (camera posture) of the master camera MC. Then, the pan / tilt operation unit 11 detects the pan value and the tilt value according to the operation of the cameraman, and outputs them to the pan / tilt / zoom / iris control unit 31 and the gaze point calculation unit 40.

ズーム・アイリス操作部13は、カメラマンが、マスターカメラMCのズーム及びアイリスを操作するものである。そして、ズーム・アイリス操作部13は、カメラマンの操作に応じたズーム値及びアイリス値を検出して、パン・チルト・ズーム・アイリス制御部31と、ズーム・アイリス制御部55とに出力する。   The zoom / iris operation unit 13 is used by a cameraman to operate zoom and iris of the master camera MC. Then, the zoom / iris operation unit 13 detects the zoom value and the iris value according to the operation of the cameraman, and outputs them to the pan / tilt / zoom / iris control unit 31 and the zoom / iris control unit 55.

デプス操作部15は、注視点を移動させる移動操作が行われると共に、注視点の移動操作の検出値から、マスターカメラから離れる程、単位時間あたりの注視点の移動距離が長くなるようなデプス値を算出するものである。
なお、デプス値とは、マスターカメラMCから注視点までの距離を示す。
The depth operation unit 15 performs a moving operation for moving the gazing point, and the depth value such that the moving distance of the gazing point per unit time increases as the distance from the master camera increases from the detected value of the gazing point moving operation. Is calculated.
The depth value indicates the distance from the master camera MC to the gazing point.

本実施形態では、デプス操作部15は、図2(a)に示すように、注視点の移動操作が行われる回転ダイヤル(操作部)16と、回転ダイヤル16に対する移動操作を検出するエンコーダ17とを備える。
ここで、図2(b)に示すように、回転ダイヤル16を時計回りに回転させる程、エンコーダ17のエンコーダ値(移動操作の検出値)が増大する。そして、回転ダイヤル16に刻まれた指標16aが指標位置「△最大」に達したときに、エンコーダ17のエンコーダ値が最大となる。
一方、回転ダイヤル16を反時計回りに回転させる程、エンコーダ17のエンコーダ値が減少する。そして、回転ダイヤル16に刻まれた指標16aが指標位置「△最小」に達したときに、エンコーダ17のエンコーダ値が最小となる。
そして、デプス操作部15は、エンコーダ値とデプス値とを対応付けたデプス値変換情報が予め設定され、このデプス値変換情報を参照して、エンコーダ17で検出されたエンコーダ値をデプス値に変換する。さらに、デプス操作部15は、変換されたデプス値を以下で説明するように変化(増減)させて、フォーカス制御部33と、注視点算出部40とに出力する。
In the present embodiment, as shown in FIG. 2A, the depth operation unit 15 includes a rotary dial (operation unit) 16 that performs a gazing point movement operation, and an encoder 17 that detects a movement operation on the rotation dial 16. Is provided.
Here, as shown in FIG. 2B, the encoder value of the encoder 17 (detected value of the movement operation) increases as the rotary dial 16 is rotated clockwise. When the index 16a engraved on the rotary dial 16 reaches the index position “Δmaximum”, the encoder value of the encoder 17 becomes maximum.
On the other hand, the encoder value of the encoder 17 decreases as the rotary dial 16 is rotated counterclockwise. When the index 16a engraved on the rotary dial 16 reaches the index position “Δminimum”, the encoder value of the encoder 17 becomes minimum.
The depth operation unit 15 is preset with depth value conversion information in which the encoder value and the depth value are associated with each other, and converts the encoder value detected by the encoder 17 into a depth value with reference to the depth value conversion information. To do. Further, the depth operation unit 15 changes (increases / decreases) the converted depth value as described below, and outputs it to the focus control unit 33 and the gaze point calculation unit 40.

<デプス値の変化>
図3,図4を参照して、デプス操作部15によるデプス値の変化について、説明する(適宜図1,2参照)。
図3に示すように、カメラマンは、マスターカメラMCの撮影映像90を見ながら、マスターカメラMCが被写体αを捉えるようにパン・チルト操作部11及びズーム・アイリス操作部13を操作する。従って、マスターカメラMCの撮影映像90は、画面中央に被写体αが捉えられている。一方、スレーブカメラSCの撮影映像91は、被写体αが捉えてられていない。
なお、ズーム・アイリス操作部13は、カメラマン以外が遠隔操作することもある。
<Change in depth value>
With reference to FIG. 3 and FIG. 4, the change of the depth value by the depth operation part 15 is demonstrated (refer FIG. 1, 2 suitably).
As shown in FIG. 3, the cameraman operates the pan / tilt operation unit 11 and the zoom / iris operation unit 13 so that the master camera MC captures the subject α while viewing the captured video 90 of the master camera MC. Therefore, in the captured video 90 of the master camera MC, the subject α is captured at the center of the screen. On the other hand, in the captured video 91 of the slave camera SC, the subject α is not captured.
The zoom / iris operation unit 13 may be remotely operated by a person other than the cameraman.

次に、カメラマンは、回転ダイヤル16の操作によりデプス値を連続的に変化させることで、注視点Qを光軸βの上で移動させる。そして、図4に示すように、カメラマンは、スレーブカメラSCの撮影映像91を見ながら、撮影映像91の中央に被写体αが位置するように、回転ダイヤル16を操作してデプス値を調整する。   Next, the cameraman moves the gazing point Q on the optical axis β by continuously changing the depth value by operating the rotary dial 16. Then, as shown in FIG. 4, the cameraman adjusts the depth value by operating the rotary dial 16 so that the subject α is positioned at the center of the captured image 91 while viewing the captured image 91 of the slave camera SC.

このとき、デプス操作部15は、マスターカメラMCから離れる程、単位時間あたりの注視点Qの移動距離が長くなるように、デプス値を非線形に変化させる。具体的には、デプス操作部15は、以下の式(1)〜式(4)を用いて、デプス値kを算出する。   At this time, the depth operation unit 15 changes the depth value nonlinearly so that the moving distance of the gazing point Q per unit time increases as the distance from the master camera MC increases. Specifically, the depth operation unit 15 calculates the depth value k using the following equations (1) to (4).

Figure 2014103490
Figure 2014103490

Figure 2014103490
Figure 2014103490

Figure 2014103490
Figure 2014103490

Figure 2014103490
Figure 2014103490

なお、マスターカメラMCと、マスターカメラMCから最も遠いスレーブカメラSCのベースラインの距離(カメラ間隔)がB、デプス値の最大値がdmax、デプス値の最小値がdmin、エンコーダ17で検出可能なエンコーダ値の最大値がtmax、エンコーダ17で検出されたエンコーダ値がtである(但し、0≦t≦tmaxを満たす)。
この最大距離B、最大値dmax、最小値dmin及び最大検出値tmaxは、予め設定されている。
The base line distance (camera interval) between the master camera MC and the slave camera SC farthest from the master camera MC is B, the maximum depth value is d max , the minimum depth value is d min , and is detected by the encoder 17. The maximum possible encoder value is t max , and the encoder value detected by the encoder 17 is t (provided that 0 ≦ t ≦ t max is satisfied).
The maximum distance B, maximum value d max , minimum value d min, and maximum detection value t max are set in advance.

図1に戻り、多視点ロボットカメラシステム100の説明を続ける。
カメラキャリブレーション部20は、マスターカメラMC及びスレーブカメラSCのカメラパラメータ(A,R,T,p0m,t0m,z0m,f0m,i0m,A,R,T,p0n,t0n,z0n,f0n,i0n)をカメラキャリブレーションにより算出して、メモリやハードディスク等の記憶装置(不図示)に格納するものである。
Returning to FIG. 1, the description of the multi-viewpoint robot camera system 100 will be continued.
The camera calibration unit 20 includes camera parameters (A m , R m , T m , p 0m , t 0m , z 0m , f 0m , i 0m , A n , R n , T n of the master camera MC and slave camera SC. , P 0n , t 0n , z 0n , f 0n , i 0n ) are calculated by camera calibration and stored in a storage device (not shown) such as a memory or a hard disk.

ここで、カメラキャリブレーション部20は、カメラキャリブレーションを行ったときのマスターカメラMCのカメラ姿勢として、マスターカメラMCのパン値p0mと、チルト値t0mとを算出し、記憶装置に格納する。また、カメラキャリブレーション部20は、カメラキャリブレーションを行ったときのマスターカメラMCの内部パラメータAと、外部パラメータ(回転行列R及び並進ベクトルT)と、マスターカメラMCのズーム値z0mと、フォーカス値f0mと、アイリス値i0mとを算出し、記憶装置に格納する。
なお、添え字mがマスターカメラMCを示す。
Here, the camera calibration unit 20 calculates the pan value p 0m and the tilt value t 0m of the master camera MC as the camera posture of the master camera MC when the camera calibration is performed, and stores it in the storage device. . The camera calibration unit 20 includes an internal parameter A m of the master camera MC when performing camera calibration, and external parameters (rotation matrix R m and the translation vector T m), the master camera MC zoom value z 0 m Then, the focus value f 0m and the iris value i 0m are calculated and stored in the storage device.
Note that the subscript m indicates the master camera MC.

また、カメラキャリブレーション部20は、カメラキャリブレーションを行ったときのスレーブカメラSCの内部パラメータAと、外部パラメータ(回転行列R及び並進ベクトルT)と、スレーブカメラSCのパン値p0nと、チルト値t0nと、ズーム値z0nと、フォーカス値f0nと、アイリス値i0nとを算出し、記憶装置に格納する。 The camera calibration unit 20 includes an internal parameter A n of the slave camera SC n when performing camera calibration, and external parameters (rotation matrix R n and the translation vector T n), the pan value of the slave camera SC n p 0n , tilt value t 0n , zoom value z 0n , focus value f 0n , and iris value i 0n are calculated and stored in the storage device.

なお、カメラキャリブレーションの手法は、例えば、以下の参考文献に記載されているため、詳細な説明を省略する。
参考文献「デジタル画像処理:財団法人 画像情報教育振興協会」
The camera calibration method is described in, for example, the following references, and thus detailed description thereof is omitted.
Reference "Digital Image Processing: Association for Promotion of Image Information Education"

マスターカメラ制御部30は、マスターカメラMCを制御するものであり、パン・チルト・ズーム・アイリス制御部31と、フォーカス制御部33とを備える。   The master camera control unit 30 controls the master camera MC, and includes a pan / tilt / zoom / iris control unit 31 and a focus control unit 33.

パン・チルト・ズーム・アイリス制御部31は、パン・チルト操作部11から入力されたパン値及びチルト値と、ズーム・アイリス操作部13から入力されたズーム値及びアイリス値とに基づいて、マスターカメラMCのパン、チルト、ズーム及びアイリスを制御するものである。   The pan / tilt / zoom / iris control unit 31 is based on the pan value and tilt value input from the pan / tilt operation unit 11 and the zoom value and iris value input from the zoom / iris operation unit 13. This controls the pan, tilt, zoom and iris of the camera MC.

具体的には、パン・チルト・ズーム・アイリス制御部31は、パン値、チルト値、ズーム値及びアイリス値を、それら値の大きさに応じたパン・チルト・ズーム・アイリス制御信号に変換する。そして、パン・チルト・ズーム・アイリス制御部31は、変換したパン・チルト・ズーム・アイリス制御信号をマスターカメラMCに出力する。   Specifically, the pan / tilt / zoom / iris control unit 31 converts the pan value, tilt value, zoom value, and iris value into pan / tilt / zoom / iris control signals corresponding to the magnitudes of these values. . Then, the pan / tilt / zoom / iris control unit 31 outputs the converted pan / tilt / zoom / iris control signal to the master camera MC.

フォーカス制御部33は、デプス操作部15から入力されたデプス値に基づいて、マスターカメラMCのフォーカスを制御するものである。具体的には、フォーカス制御部33は、デプス値とフォーカス値とを対応付けた情報が予め設定され、この情報を参照して、デプス値に対応したフォーカス値を算出する。そして、フォーカス制御部33は、算出したフォーカス値を、その値の大きさに応じたフォーカス制御信号に変換して、マスターカメラMCに出力する。   The focus control unit 33 controls the focus of the master camera MC based on the depth value input from the depth operation unit 15. Specifically, the focus control unit 33 is preset with information that associates the depth value with the focus value, and refers to this information to calculate the focus value corresponding to the depth value. The focus control unit 33 converts the calculated focus value into a focus control signal corresponding to the magnitude of the value, and outputs the focus control signal to the master camera MC.

マスターカメラMCは、多視点ロボットカメラシステム100が備える複数台のロボットカメラのうち、予め設定された1台のロボットカメラである。このマスターカメラMCは、例えば、電動雲台に搭載された固定ロボットカメラである。そして、マスターカメラMCは、パン・チルト・ズーム・アイリス制御部31から入力されたパン・チルト・ズーム・アイリス制御信号に従って、パン、チルト、ズーム及びアイリスを駆動する。さらに、マスターカメラMCは、フォーカス制御部33から入力されたフォーカス制御信号に従って、フォーカスを駆動する。   The master camera MC is a preset robot camera among a plurality of robot cameras provided in the multi-viewpoint robot camera system 100. This master camera MC is, for example, a fixed robot camera mounted on an electric head. The master camera MC drives pan, tilt, zoom, and iris in accordance with the pan / tilt / zoom / iris control signal input from the pan / tilt / zoom / iris control unit 31. Further, the master camera MC drives the focus according to the focus control signal input from the focus control unit 33.

注視点算出部40は、パン・チルト操作部11から入力されたパン値及びチルト値と、デプス操作部15から入力されたデプス値と、カメラキャリブレーション部20に格納されたカメラパラメータに基づいて、注視点の世界座標を算出するものである。   The gazing point calculation unit 40 is based on the pan value and tilt value input from the pan / tilt operation unit 11, the depth value input from the depth operation unit 15, and the camera parameters stored in the camera calibration unit 20. The world coordinates of the point of interest are calculated.

具体的には、注視点算出部40は、以下の式(5)を用いて、マスターカメラMCについて、パン・チルト操作部11からのパン値pと、カメラキャリブレーション時のパン値p0mとの角度差θpmを算出する。 Specifically, the gazing point calculation unit 40 uses the following equation (5), the master camera MC, and pan values p m from the pan-tilt control member 11, the pan value p 0 m when camera calibration And the angle difference θ pm is calculated.

Figure 2014103490
Figure 2014103490

また、注視点算出部40は、以下の式(6)を用いて、マスターカメラMCについて、パン・チルト操作部11からのチルト値tと、カメラキャリブレーション時のチルト値t0mとの角度差θtmを算出する。 The gaze point calculation unit 40 uses the following equation (6) to determine the angle between the tilt value t m from the pan / tilt operation unit 11 and the tilt value t 0m at the time of camera calibration for the master camera MC. The difference θ tm is calculated.

Figure 2014103490
Figure 2014103490

次に、注視点算出部40は、以下の式(7)に示すように、角度差θpm及び角度差θtmを用いて、カメラ座標系における回転行列R´rect_Cmを生成する。 Next, the gaze point calculation unit 40 generates a rotation matrix R′rect_Cm in the camera coordinate system using the angle difference θ pm and the angle difference θ tm as shown in the following equation (7).

Figure 2014103490
Figure 2014103490

そして、注視点算出部40は、以下の式(8)に示すように、回転行列R´rect_Cm、及び、マスターカメラMCの外部パラメータである回転行列Rを用いて、世界座標系におけるカメラ姿勢の回転行列R´rectmを生成する。この回転行列R´rectmは、マスターカメラMCについて、カメラキャリブレーション時のカメラ姿勢から、操作インターフェース部10で操作後のカメラ姿勢に変えるための回転行列である。
なお、回転行列R´rectmが請求項に記載の「マスターカメラにおける回転行列」に相当する。
Then, the gaze point calculation unit 40 uses the rotation matrix R ′ rect — Cm and the rotation matrix R m that is an external parameter of the master camera MC, as shown in the following equation (8), to determine the camera posture in the world coordinate system. The rotation matrix R ′ rectm is generated. This rotation matrix R′rectm is a rotation matrix for changing the camera posture at the time of camera calibration from the camera posture at the time of camera calibration to the camera posture after being operated by the operation interface unit 10 for the master camera MC.
The rotation matrix R′rectm corresponds to the “rotation matrix in the master camera” recited in the claims.

Figure 2014103490
Figure 2014103490

ここで、式(8)の回転行列R´rectmは、以下の式(9)に示すように、世界座標系におけるカメラ姿勢のX軸を示すベクトルe´xmと、世界座標系におけるカメラ姿勢のY軸を示すベクトルe´ymと、世界座標系におけるカメラ姿勢のZ軸を示すベクトル(奥行成分のベクトル)ezmとを用いて、定義することができる。
なお、式(9)のベクトルe´xm,e´ymは、以後の計算に利用されない。
Here, as shown in the following equation (9), the rotation matrix R′rectm of equation (8) is a vector e ′ xm indicating the X axis of the camera posture in the world coordinate system and the camera posture in the world coordinate system. It can be defined using a vector e ′ ym indicating the Y axis and a vector (depth component vector) e zm indicating the Z axis of the camera posture in the world coordinate system.
Note that the vectors e ′ xm and e ′ ym in the equation (9) are not used for the subsequent calculations.

Figure 2014103490
Figure 2014103490

そして、注視点算出部40は、以下の式(10)に示すように、回転行列R´rectmと、マスターカメラMCの並進ベクトルTと、デプス操作部15から入力されたデプス値kとを用いて、注視点Qの世界座標(位置)Pを算出する。この式(10)は、ベクトルezmとデプス値kとの積に並進ベクトルTを加算することを示す。その後、注視点算出部40は、算出した注視点Qの世界座標Pを、パン・チルト制御部51と、フォーカス制御部53とに出力する。 Then, as shown in the following formula (10), the gazing point calculation unit 40 calculates the rotation matrix R ′ rectm , the translation vector T m of the master camera MC, and the depth value k input from the depth operation unit 15. Using this, the world coordinate (position) P of the gazing point Q is calculated. This equation (10) indicates that the translation vector T m is added to the product of the vector e zm and the depth value k. Thereafter, the gazing point calculation unit 40 outputs the calculated world coordinates P of the gazing point Q to the pan / tilt control unit 51 and the focus control unit 53.

Figure 2014103490
Figure 2014103490

図5を参照し、スレーブカメラSCの制御角度の変化について、説明する(適宜図1,2参照)。
図5(a)の注視点Q〜Qは、マスターカメラMCの光軸βの上を移動する注視点について、時間t=1〜4での位置を示している。
前記したように、デプス操作部15がデプス値を非線形に変化させるため、注視点Q〜Qの単位時間あたりの移動距離は、マスターカメラMCから離れる程、広くなる。つまり、注視点Q,Qの距離よりも注視点Q,Qの距離が広くなり、注視点Q,Qの距離よりも注視点Q,Qの距離が広くなる。このため、時間t=1〜2におけるスレーブカメラSCの制御角度Aと、時間t=3〜4におけるスレーブカメラSCの制御角度Bとが、等しくなる。
A change in the control angle of the slave camera SC will be described with reference to FIG. 5 (see FIGS. 1 and 2 as appropriate).
The gazing points Q 1 to Q 4 in FIG. 5A indicate the positions at the time t = 1 to 4 with respect to the gazing point moving on the optical axis β of the master camera MC.
As described above, since the depth operation unit 15 changes the depth value nonlinearly, the moving distance per unit time of the gazing points Q 1 to Q 4 becomes wider as the distance from the master camera MC increases. That is, the distance between the gazing points Q 2 and Q 3 is larger than the distance between the gazing points Q 1 and Q 2, and the distance between the gazing points Q 3 and Q 4 is larger than the distance between the gazing points Q 2 and Q 3 . Therefore, the control angle A of the slave camera SC at the time t = 1 to 2 is equal to the control angle B of the slave camera SC at the time t = 3 to 4.

図5(b)では、回転ダイヤル16において、注視点Q〜Qに対応する指標位置を図示した。これら注視点Q〜Qに対応する指標位置は、全て等間隔となっている。
図5(b)に示すように、指標16aが指標位置「Q」に重なるとき、図5(a)の注視点Qを指す。これと同様、指標16aが指標位置「Q」に重なるときに図5(a)の注視点Qを指し、指標16aが指標位置「Q」に重なるときに図5(a)の注視点Qを指し、指標16aが指標位置「Q」に重なるときに図5(a)の注視点Qを指す。
FIG. 5B illustrates the index positions corresponding to the gazing points Q 1 to Q 4 on the rotary dial 16. The index positions corresponding to these gazing points Q 1 to Q 4 are all equally spaced.
As shown in FIG. 5B, when the index 16a overlaps the index position “Q 1 ”, the point of sight Q 1 in FIG. 5A is indicated. Similarly, when the index 16a overlaps the index position “Q 2 ”, it points to the gazing point Q 2 in FIG. 5A, and when the index 16a overlaps the index position “Q 3 ”, the note of FIG. refers viewpoint Q 3, refers to the fixation point Q 4 shown in FIG. 5 (a) when the index 16a overlaps the index position "Q 4".

ここで、図5(a)に示すように、注視点Qから注視点Qに移動させる場合、及び、注視点Qから注視点Qに移動させる場合でも、制御角度A,Bが等しいため、図5(b)に示すように、回転ダイヤル16の移動操作量が一定となる。このように、多視点ロボットカメラシステム100では、回転ダイヤル16の移動操作量に対し、スレーブカメラSCの制御角度の変化量が一定となる。 Here, as shown in FIG. 5 (a), when moving from the gazing point Q 1 to the gazing point Q 2, and, even when moving from the gazing point Q 3 on the fixation point Q 4, the control angle A, and B Therefore, as shown in FIG. 5B, the moving operation amount of the rotary dial 16 is constant. As described above, in the multi-viewpoint robot camera system 100, the change amount of the control angle of the slave camera SC is constant with respect to the movement operation amount of the rotary dial 16.

図1に戻り、多視点ロボットカメラシステム100の説明を続ける。
スレーブカメラ制御部50,…,50は、スレーブカメラSC,…,SCを制御するものであり、パン・チルト制御部51,…,51(51)と、フォーカス制御部53,…,53(53)と、ズーム・アイリス制御部55,…,55(55)とを備える。
なお、スレーブカメラ制御部50,…,50は、スレーブカメラSC,…,SCに対応するように備えられており、全て同一構成である。
Returning to FIG. 1, the description of the multi-viewpoint robot camera system 100 will be continued.
The slave camera control units 50 1 ,..., 50 n control the slave cameras SC 1 ,..., SC n , and the pan / tilt control units 51 1 , ..., 51 n (51) and the focus control unit 53. 1 ,..., 53 n (53) and zoom / iris control units 55 1 ,..., 55 n (55).
Incidentally, the slave camera control unit 50 1, ..., 50 n, the slave camera SC 1, ..., and arranged to correspond to SC n, are all identical configuration.

パン・チルト制御部51は、注視点算出部40から入力された注視点Qの世界座標Pと、カメラキャリブレーション部20に格納されたカメラパラメータ(回転行列R及び並進ベクトルT)とに基づいて、スレーブカメラSCの姿勢(パン及びチルト)を制御するものである。 The pan / tilt control unit 51 uses the world coordinates P of the gazing point Q input from the gazing point calculation unit 40 and the camera parameters (rotation matrix R n and translation vector T n ) stored in the camera calibration unit 20. Based on this, the posture (pan and tilt) of the slave camera SC is controlled.

具体的には、パン・チルト制御部51は、以下の式(11)に示すように、パン及びチルトを制御するために、スレーブカメラSCから注視点Qの世界座標Pへ向かう単位ベクトルeznを算出する。
なお、“‖‖”はノルムを示す。
Specifically, the pan-tilt control unit 51, as shown in equation (11) below, in order to control the pan and tilt unit vector e directed to the world coordinate P of the fixation point Q from the slave camera SC n zn is calculated.
“‖‖” represents a norm.

Figure 2014103490
Figure 2014103490

また、パン・チルト制御部51は、以下の式(12)に示すように、算出した単位ベクトルezn、及び、回転行列Rの逆行列R−1 を用いて、カメラ座標系におけるスレーブカメラSCから注視点Qの世界座標Pへ向かう単位ベクトルeCznを算出する。 In addition, the pan / tilt control unit 51 uses the calculated unit vector e nz and the inverse matrix R −1 n of the rotation matrix R n as shown in the following equation (12) to set the slave in the camera coordinate system. A unit vector e Czn from the camera SC n toward the world coordinate P of the gazing point Q is calculated.

Figure 2014103490
Figure 2014103490

そして、パン・チルト制御部51は、以下の式(13)〜式(15)に示すように、スレーブカメラSCのパン値θPn及びチルト値θTnを算出する。
なお、e,e,eは、それぞれ、単位ベクトルeCznのX軸、Y軸、Z軸成分を示す。
Then, the pan / tilt control unit 51 calculates the pan value θ Pn and the tilt value θ Tn of the slave camera SC n as shown in the following equations (13) to (15).
Note that e 1 , e 2 , and e 3 represent the X-axis, Y-axis, and Z-axis components of the unit vector e Czn , respectively.

Figure 2014103490
Figure 2014103490

Figure 2014103490
Figure 2014103490

Figure 2014103490
Figure 2014103490

さらに、パン・チルト制御部51は、算出したパン値θPn及びチルト値θTnを、それら値の大きさに応じたパン・チルト制御信号に変換する。その後、パン・チルト制御部51は、変換したパン・チルト制御信号をスレーブカメラSCに出力する。 Further, the pan / tilt control unit 51 converts the calculated pan value θ Pn and tilt value θ Tn into pan / tilt control signals according to the magnitudes of these values. Thereafter, the pan / tilt control unit 51 outputs the converted pan / tilt control signal to the slave camera SC.

フォーカス制御部53は、注視点算出部40から入力された注視点Qの世界座標Pと、カメラキャリブレーション部20に格納されたカメラパラメータ(並進ベクトルT)とに基づいて、注視点Qに合焦するように、スレーブカメラSCのフォーカスを制御するものである。 The focus control unit 53 sets the gaze point Q based on the world coordinates P of the gaze point Q input from the gaze point calculation unit 40 and the camera parameters (translation vector T n ) stored in the camera calibration unit 20. The focus of the slave camera SC is controlled so that it is in focus.

具体的には、フォーカス制御部53は、以下の式(16)に示すように、フォーカスを制御するために、スレーブカメラSCから注視点Qの世界座標Pへ向かうベクトルEznを算出する。 Specifically, the focus control unit 53 calculates a vector E zn from the slave camera SC n toward the world coordinate P of the gazing point Q in order to control the focus, as shown in the following formula (16).

Figure 2014103490
Figure 2014103490

そして、フォーカス制御部53は、以下の式(17)及び式(18)に示すように、ベクトルEznから、スレーブカメラSCと注視点Qの世界座標Pとの距離kを算出する。
なお、E,E,Eは、それぞれ、ベクトルEznのX軸、Y軸、Z軸成分を示す。
Then, the focus control unit 53, as shown in the following equation (17) and (18), from the vector E zn, calculates the distance k n of the world coordinates P of the slave cameras SC n and fixation point Q.
E 1 , E 2 , and E 3 indicate the X-axis, Y-axis, and Z-axis components of the vector E zn , respectively.

Figure 2014103490
Figure 2014103490

Figure 2014103490
Figure 2014103490

さらに、フォーカス制御部53は、距離kとフォーカス値とを対応付けた情報が予め設定され、この情報を参照して、距離kに対応するフォーカス値を算出する。その後、フォーカス制御部53は、算出したフォーカス値を、その値の大きさに応じたフォーカス制御信号に変換して、スレーブカメラSCに出力する。 Further, the focus control unit 53, the distance k n and set information associating a focus value in advance, by referring to this information, calculates a focus value corresponding to the distance k n. Thereafter, the focus control unit 53 converts the calculated focus value into a focus control signal corresponding to the magnitude of the value, and outputs the focus control signal to the slave camera SC.

ズーム・アイリス制御部55は、ズーム・アイリス操作部13から入力されたズーム値及びアイリス値に基づいて、スレーブカメラSCのズーム及びアイリスを制御するものである。   The zoom / iris control unit 55 controls the zoom and iris of the slave camera SC based on the zoom value and the iris value input from the zoom / iris operation unit 13.

具体的には、ズーム・アイリス制御部55は、ズーム値及びアイリス値を、それら値の大きさに応じたズーム・アイリス制御信号に変換する。そして、ズーム・アイリス制御部55は、変換したズーム・アイリス制御信号をスレーブカメラSCに出力する。   Specifically, the zoom / iris control unit 55 converts the zoom value and the iris value into a zoom / iris control signal corresponding to the magnitude of the values. Then, the zoom / iris control unit 55 outputs the converted zoom / iris control signal to the slave camera SC.

スレーブカメラSCは、多視点ロボットカメラシステム100が備える複数台のロボットカメラのうち、マスターカメラMC以外のロボットカメラである。このスレーブカメラSCは、例えば、電動雲台に搭載された固定ロボットカメラである。また、スレーブカメラSCは、パン・チルト制御部51から入力されたパン・チルト制御信号に応じて、パン及びチルトを駆動する。そして、スレーブカメラSCは、フォーカス制御部53から入力されたフォーカス制御信号に応じて、フォーカスを駆動する。さらに、スレーブカメラSCは、ズーム・アイリス制御部55から入力されたズーム・アイリス制御信号に応じて、ズーム及びアイリスを駆動する。   The slave camera SC is a robot camera other than the master camera MC among a plurality of robot cameras provided in the multi-viewpoint robot camera system 100. The slave camera SC is, for example, a fixed robot camera mounted on an electric head. In addition, the slave camera SC drives pan and tilt according to the pan / tilt control signal input from the pan / tilt control unit 51. Then, the slave camera SC drives the focus according to the focus control signal input from the focus control unit 53. Furthermore, the slave camera SC drives the zoom and the iris in accordance with the zoom / iris control signal input from the zoom / iris control unit 55.

[多視点ロボットカメラシステムの動作]
図6を参照し、図1の多視点ロボットカメラシステム100の動作について、説明する(適宜図1参照)。
多視点ロボットカメラシステム100は、カメラキャリブレーション部20によって、マスターカメラMC及びスレーブカメラSCのカメラパラメータを算出し(ステップS1)、記憶装置に格納する(ステップ2)。
[Operation of multi-viewpoint robot camera system]
The operation of the multi-viewpoint robot camera system 100 of FIG. 1 will be described with reference to FIG. 6 (see FIG. 1 as appropriate).
In the multi-viewpoint robot camera system 100, the camera calibration unit 20 calculates camera parameters of the master camera MC and the slave camera SC (step S1) and stores them in the storage device (step 2).

多視点ロボットカメラシステム100は、パン・チルト操作部11によって、カメラマンの操作に応じたパン値及びチルト値を検出して、パン・チルト・ズーム・アイリス制御部31と、注視点算出部40とに出力する。
多視点ロボットカメラシステム100は、ズーム・アイリス操作部13によって、カメラマンの操作に応じたズーム値及びアイリス値を検出して、パン・チルト・ズーム・アイリス制御部31と、ズーム・アイリス制御部55とに出力する。
多視点ロボットカメラシステム100は、デプス操作部15によって、式(1)から式4)を用いて、エンコーダ17のエンコーダ値から、マスターカメラから離れる程、単位時間あたりの注視点の移動距離が長くなるようなデプス値を算出する(ステップS3)。
The multi-viewpoint robot camera system 100 detects a pan value and a tilt value according to the operation of the cameraman by the pan / tilt operation unit 11, and performs a pan / tilt / zoom / iris control unit 31, a gaze point calculation unit 40, and the like. Output to.
In the multi-viewpoint robot camera system 100, the zoom / iris operation unit 13 detects the zoom value and the iris value according to the operation of the cameraman, and the pan / tilt / zoom / iris control unit 31 and the zoom / iris control unit 55. And output.
The multi-viewpoint robot camera system 100 uses the expressions (1) to (4) by the depth operation unit 15 to increase the moving distance of the gazing point per unit time as the distance from the master camera increases. Such a depth value is calculated (step S3).

多視点ロボットカメラシステム100は、パン・チルト・ズーム・アイリス制御部31によって、パン値、チルト値、ズーム値及びアイリス値を、パン・チルト・ズーム・アイリス制御信号に変換して、マスターカメラMCに出力する。
多視点ロボットカメラシステム100は、フォーカス制御部33によって、デプス値に対応したフォーカス値を算出し、算出したフォーカス値をフォーカス制御信号に変換して、マスターカメラMCに出力する(ステップS4)。
The multi-viewpoint robot camera system 100 converts a pan value, a tilt value, a zoom value, and an iris value into a pan / tilt / zoom / iris control signal by the pan / tilt / zoom / iris control unit 31 to obtain a master camera MC. Output to.
In the multi-viewpoint robot camera system 100, the focus control unit 33 calculates a focus value corresponding to the depth value, converts the calculated focus value into a focus control signal, and outputs the focus control signal to the master camera MC (step S4).

多視点ロボットカメラシステム100は、注視点算出部40によって、パン・チルト操作部11とカメラキャリブレーション部20とのカメラ姿勢の差分に基づいて、式(8)の回転行列R´rectmを算出する。
多視点ロボットカメラシステム100は、注視点算出部40によって、式(10)のように、回転行列R´rectmに含まれるベクトルezmとデプス値kとの積に並進ベクトルTを加算することで、注視点Qの世界座標Pを算出する(ステップS5)。
In the multi-viewpoint robot camera system 100, the gaze point calculation unit 40 calculates the rotation matrix R′rectm of Expression (8) based on the difference in camera posture between the pan / tilt operation unit 11 and the camera calibration unit 20. .
In the multi-viewpoint robot camera system 100, the gaze point calculation unit 40 adds the translation vector T m to the product of the vector e zm and the depth value k included in the rotation matrix R ′ rectm as in Expression (10). Thus, the world coordinate P of the gazing point Q is calculated (step S5).

多視点ロボットカメラシステム100は、パン・チルト制御部51によって、注視点Qに向くようにスレーブカメラSCのパン及びチルトを制御する。
多視点ロボットカメラシステム100は、フォーカス制御部53によって、注視点Qに合焦するようにスレーブカメラSCのフォーカスを制御する。
多視点ロボットカメラシステム100は、ズーム・アイリス制御部55によって、ズーム値及びアイリス値に基づいて、スレーブカメラSCのズーム及びアイリスを制御する(ステップS6)。
In the multi-viewpoint robot camera system 100, the pan / tilt control unit 51 controls the pan and tilt of the slave camera SC so as to face the gazing point Q.
In the multi-viewpoint robot camera system 100, the focus control unit 53 controls the focus of the slave camera SC so as to focus on the gazing point Q.
In the multi-viewpoint robot camera system 100, the zoom / iris controller 55 controls the zoom and iris of the slave camera SC based on the zoom value and the iris value (step S6).

以上のように、本願発明の実施形態に係る多視点ロボットカメラシステム100は、デプス操作部15によりデプス値を非線形に変化させるため、注視点とマスターカメラとの遠近に関係なく、スレーブカメラSCの制御角度A,Bの変化が線形(一定)となり、デプス調整を容易に行うことができる(図5参照)。   As described above, since the multi-viewpoint robot camera system 100 according to the embodiment of the present invention changes the depth value nonlinearly by the depth operation unit 15, the slave camera SC can be controlled regardless of the distance between the gazing point and the master camera. Changes in the control angles A and B are linear (constant), and depth adjustment can be easily performed (see FIG. 5).

本願発明は、実施形態に限定されず、その趣旨を逸脱しない範囲で様々な変形を加えることができる。以下、本願発明の変形例について、具体的に説明する。
前記した実施形態では、デプス操作部15が回転ダイヤル16を備えることとして説明したが、本願発明は、これに限定されない。
例えば、デプス操作部15は、回転ダイヤル16の代わりにスライダを備えてもよい。
The present invention is not limited to the embodiments, and various modifications can be made without departing from the spirit of the present invention. Hereinafter, the modification of this invention is demonstrated concretely.
In the above-described embodiment, the depth operation unit 15 is described as including the rotary dial 16, but the present invention is not limited to this.
For example, the depth operation unit 15 may include a slider instead of the rotary dial 16.

図7,図8を参照し、本願発明の実施例として、スレーブカメラSCの制御角度の変化の実験結果について、説明する(適宜図1参照)。
図1の多視点ロボットカメラシステム100を用いて、スレーブカメラSCの制御角度の変化を測定する実験を行った。ここで、図7に示すように、9台のロボットカメラを横一直線状に配置し、中央のロボットカメラ1台をマスターカメラMCとして設定し、残り8台のロボットカメラをスレーブカメラSCとして設定した。このとき、デプス値の最大値dmax=100メートル、デプス値の範囲の最小値dmin=1メートル、ベースラインの距離B=20メートル、エンコーダの最大値tmax=10000であった。
With reference to FIG. 7 and FIG. 8, the experiment result of the change in the control angle of the slave camera SC will be described as an embodiment of the present invention (see FIG. 1 as appropriate).
Using the multi-viewpoint robot camera system 100 of FIG. 1, an experiment for measuring a change in the control angle of the slave camera SC was performed. Here, as shown in FIG. 7, nine robot cameras are arranged in a horizontal line, one central robot camera is set as a master camera MC, and the remaining eight robot cameras are set as slave cameras SC. . At this time, the maximum depth value d max = 100 meters, the minimum value range d min = 1 meter, the baseline distance B = 20 meters, and the maximum encoder value t max = 10000.

そして、カメラマンによる操作部16の操作に応じて、スレーブカメラSCの制御角度の変化を測定した。さらに、比較例として、図7と同一のカメラ配置で、従来の多視点ロボットカメラシステムを用いて、スレーブカメラSCの制御角度の変化を測定した。 Then, in response to operation of the operation unit 16 by the photographer, to determine the change in the control angle of the slave camera SC 1. Further, as a comparative example, the same camera arrangement and 7, using a conventional multi-view robotic camera system, to measure the change in the control angle of the slave camera SC 1.

図8では、実施例の測定結果を実線で図示し、比較例の測定結果を破線で図示した。
図8から、比較例では、破線の傾きが一定でなく、スレーブカメラSCの制御角度が大きく変化していることがわかる。つまり、比較例では、注視点QがマスターカメラMCに近いとき(エンコーダ値が小さいとき)、スレーブカメラSCの制御角度の変化が大きくなる。また、比較例では、注視点QがマスターカメラMCから遠いとき(エンコーダ値が大きいとき)、スレーブカメラSCの制御角度の変化が小さくなる。このことから、比較例では、スレーブカメラSCの制御角度の変化が一定とならず、注視点Qが被写体に重なるようなデプス調整が困難であると考えられる。
In FIG. 8, the measurement results of the example are illustrated by solid lines, and the measurement results of the comparative example are illustrated by broken lines.
8, in the comparative example, a rather dashed gradient is constant, it can be seen that the control angle of the slave camera SC 1 greatly changes. That is, in the comparative example, (when the small encoder value) fixation point Q is when close to the master camera MC, the change in the control angle of the slave camera SC 1 increases. In the comparative example, when the gazing point Q is far from the master camera MC (when the encoder value is large), the change in the control angle of the slave camera SC is small. Therefore, in the comparative example, it is considered that it is difficult to adjust the depth so that the change in the control angle of the slave camera SC is not constant and the gazing point Q overlaps the subject.

一方、実施例では、実線の傾きが一定であり、スレーブカメラSCの制御角度が一定に変化していることがわかる。つまり、実施例では、注視点QとマスターカメラMCとの遠近に関わらず、スレーブカメラSCの制御角度の変化が一定となるため、比較例に比べて、デプス調整が容易であると考えられる。 Meanwhile, in the embodiment, a solid line slope is constant, it can be seen that the control angle of the slave camera SC 1 is changed to the constant. That is, in the embodiment, regardless of the distance between the gazing point Q and the master camera MC, the change in the control angle of the slave camera SC 1 is constant, is considered in comparison with the comparative example, it is easy depth adjustment .

1 ロボットカメラ制御装置
10 操作インターフェース部
11 パン・チルト操作部(カメラ姿勢操作部)
13 ズーム・アイリス操作部
15 デプス操作部(デプス値算出部)
16 回転ダイヤル(操作部)
17 エンコーダ
20 カメラキャリブレーション部
30 マスターカメラ制御部
31 パン・チルト・ズーム・アイリス制御部
33 フォーカス制御部
40 注視点算出部
50 スレーブカメラ制御部
51 パン・チルト制御部
53 フォーカス制御部
55 ズーム・アイリス制御部
100 多視点ロボットカメラシステム
MC マスターカメラ
SC スレーブカメラ
DESCRIPTION OF SYMBOLS 1 Robot camera control apparatus 10 Operation interface part 11 Pan / tilt operation part (camera attitude | position operation part)
13 Zoom / iris operation section 15 Depth operation section (depth value calculation section)
16 Rotating dial (operation unit)
17 Encoder 20 Camera calibration unit 30 Master camera control unit 31 Pan / tilt / zoom / iris control unit 33 Focus control unit 40 Gaze point calculation unit 50 Slave camera control unit 51 Pan / tilt control unit 53 Focus control unit 55 Zoom / iris Control unit 100 Multi-viewpoint robot camera system MC Master camera SC Slave camera

Claims (5)

複数台のロボットカメラのうち、予め設定された1台のロボットカメラであるマスターカメラの光軸上を移動可能な注視点に向くように、前記マスターカメラ以外のロボットカメラであるスレーブカメラの姿勢を制御するロボットカメラ制御装置であって、
前記マスターカメラのカメラ姿勢を操作するカメラ姿勢操作部と、
前記注視点を移動させる移動操作が行われ、前記注視点の移動操作の検出値から、前記マスターカメラから離れる程、単位時間あたりの前記注視点の移動距離が長くなるように、前記マスターカメラから前記注視点までの距離であるデプス値を算出するデプス値算出部と、
カメラキャリブレーションを行ったときの前記マスターカメラのカメラ姿勢と、前記マスターカメラの外部パラメータである並進ベクトルとを、前記カメラキャリブレーションにより算出するカメラキャリブレーション部と、
前記カメラ姿勢操作部と前記カメラキャリブレーション部とのカメラ姿勢の差分に基づいて、前記マスターカメラにおける回転行列を算出し、算出した前記回転行列に含まれる奥行成分のベクトルと前記デプス値との積に前記並進ベクトルを加算することで、前記注視点の位置を算出する注視点算出部と、
前記注視点算出部が算出した注視点に向くように、前記スレーブカメラの姿勢を制御するスレーブカメラ制御部と、
を備えることを特徴とするロボットカメラ制御装置。
Of the plurality of robot cameras, the posture of the slave camera, which is a robot camera other than the master camera, is set so as to face a gazing point that can be moved on the optical axis of the master camera that is a preset one robot camera. A robot camera control device for controlling,
A camera attitude operation unit for operating the camera attitude of the master camera;
From the master camera, a moving operation for moving the gazing point is performed, and from the detected value of the gazing point moving operation, the moving distance of the gazing point per unit time increases as the distance from the master camera increases. A depth value calculation unit that calculates a depth value that is a distance to the gazing point;
A camera calibration unit that calculates a camera orientation of the master camera when performing camera calibration and a translation vector that is an external parameter of the master camera by the camera calibration;
A rotation matrix in the master camera is calculated based on a difference in camera attitude between the camera attitude operation unit and the camera calibration unit, and a product of a depth component vector and the depth value included in the calculated rotation matrix A gazing point calculation unit for calculating the position of the gazing point by adding the translation vector to
A slave camera control unit that controls the posture of the slave camera so as to face the gazing point calculated by the gazing point calculation unit;
A robot camera control device comprising:
前記デプス値算出部は、
前記注視点の移動操作が行われる操作部と、
前記操作部に対する移動操作を検出するエンコーダと、を備え、
前記マスターカメラ及び前記スレーブカメラのベースラインの最大距離B、前記デプス値の最大値dmax、前記デプス値の最小値dmin、及び、前記エンコーダにおける移動操作の最大検出値tmaxが予め設定された以下の式(1)から式(4)を用いて、前記エンコーダにおける移動操作の検出値t(但し、0≦t≦tmax)から、前記デプス値を示すkを算出することを特徴とする請求項1に記載のロボットカメラ制御装置。
Figure 2014103490
Figure 2014103490
Figure 2014103490
Figure 2014103490
The depth value calculation unit
An operation unit for performing an operation of moving the gazing point;
An encoder for detecting a movement operation on the operation unit;
The maximum baseline B of the master camera and the slave camera, the maximum value d max of the depth value, the minimum value d min of the depth value, and the maximum detection value t max of the moving operation in the encoder are preset. In addition, the following equation (1) to equation (4) are used to calculate k indicating the depth value from the detected value t (where 0 ≦ t ≦ t max ) of the movement operation in the encoder. The robot camera control device according to claim 1.
Figure 2014103490
Figure 2014103490
Figure 2014103490
Figure 2014103490
前記カメラ姿勢操作部で操作されたカメラ姿勢をとるように、前記マスターカメラの姿勢を制御するマスターカメラ制御部、をさらに備え、
前記スレーブカメラ制御部は、前記注視点算出部が算出した注視点に合焦するように、前記スレーブカメラのフォーカスをさらに制御することを特徴とする請求項1又は請求項2に記載のロボットカメラ制御装置。
A master camera control unit that controls the posture of the master camera so as to take the camera posture operated by the camera posture operation unit;
The robot camera according to claim 1, wherein the slave camera control unit further controls the focus of the slave camera so as to focus on the gazing point calculated by the gazing point calculation unit. Control device.
複数台のロボットカメラのうち、予め設定された1台のロボットカメラであるマスターカメラと、前記マスターカメラ以外のロボットカメラであるスレーブカメラと、前記マスターカメラの光軸上を移動可能な注視点に向くように前記スレーブカメラの姿勢を制御するロボットカメラ制御装置とを備える多視点ロボットカメラシステムであって、
前記ロボットカメラ制御装置が、
前記マスターカメラのカメラ姿勢を操作するカメラ姿勢操作部と、
前記注視点を移動させる移動操作が行われ、前記注視点の移動操作の検出値から、前記マスターカメラから離れる程、単位時間あたりの前記注視点の移動距離が長くなるように、前記マスターカメラから前記注視点までの距離であるデプス値を算出するデプス値算出部と、
カメラキャリブレーションを行ったときの前記マスターカメラのカメラ姿勢と、前記マスターカメラの外部パラメータである並進ベクトルとを、前記カメラキャリブレーションにより算出するカメラキャリブレーション部と、
前記カメラ姿勢操作部と前記カメラキャリブレーション部とのカメラ姿勢の差分に基づいて、前記マスターカメラにおける回転行列を算出し、算出した前記回転行列に含まれる奥行成分のベクトルと前記デプス値との積に前記並進ベクトルを加算することで、前記注視点の位置を算出する注視点算出部と、
前記注視点算出部が算出した注視点に向くように、前記スレーブカメラの姿勢を制御するスレーブカメラ制御部と、
を備えることを特徴とする多視点ロボットカメラシステム。
Among a plurality of robot cameras, a master camera that is a preset robot camera, a slave camera that is a robot camera other than the master camera, and a gaze point that can move on the optical axis of the master camera A multi-viewpoint robot camera system comprising a robot camera control device for controlling the posture of the slave camera so as to face,
The robot camera control device is
A camera attitude operation unit for operating the camera attitude of the master camera;
From the master camera, a moving operation for moving the gazing point is performed, and from the detected value of the gazing point moving operation, the moving distance of the gazing point per unit time increases as the distance from the master camera increases. A depth value calculation unit that calculates a depth value that is a distance to the gazing point;
A camera calibration unit that calculates a camera orientation of the master camera when performing camera calibration and a translation vector that is an external parameter of the master camera by the camera calibration;
A rotation matrix in the master camera is calculated based on a difference in camera attitude between the camera attitude operation unit and the camera calibration unit, and a product of a depth component vector and the depth value included in the calculated rotation matrix A gazing point calculation unit for calculating the position of the gazing point by adding the translation vector to
A slave camera control unit that controls the posture of the slave camera so as to face the gazing point calculated by the gazing point calculation unit;
A multi-viewpoint robot camera system comprising:
複数台のロボットカメラのうち、予め設定された1台のロボットカメラであるマスターカメラの光軸上を移動可能な注視点に向くように、前記マスターカメラ以外のロボットカメラであるスレーブカメラの姿勢を制御するために、前記マスターカメラのカメラ姿勢を操作するカメラ姿勢操作部と、前記注視点を移動させる移動操作が行われ、前記注視点の移動操作の検出値から、前記マスターカメラから離れる程、単位時間あたりの前記注視点の移動距離が長くなるように、前記マスターカメラから前記注視点までの距離であるデプス値を算出するデプス値算出部とを備えるコンピュータを、
カメラキャリブレーションを行ったときの前記マスターカメラのカメラ姿勢と、前記マスターカメラの外部パラメータである並進ベクトルとを、前記カメラキャリブレーションにより算出するカメラキャリブレーション部、
前記カメラ姿勢操作部と前記カメラキャリブレーション部とのカメラ姿勢の差分に基づいて、前記マスターカメラにおける回転行列を算出し、算出した前記回転行列に含まれる奥行成分のベクトルと前記デプス値との積に前記並進ベクトルを加算することで、前記注視点の位置を算出する注視点算出部、
前記注視点算出部が算出した注視点に向くように、前記スレーブカメラの姿勢を制御するスレーブカメラ制御部、
として機能させるためのロボットカメラ制御プログラム。
Of the plurality of robot cameras, the posture of the slave camera, which is a robot camera other than the master camera, is set so as to face a gazing point that can be moved on the optical axis of the master camera that is a preset one robot camera. In order to control, a camera posture operation unit for operating the camera posture of the master camera and a moving operation for moving the gazing point are performed, and from the detection value of the gazing point moving operation, the farther from the master camera, A computer comprising a depth value calculation unit that calculates a depth value that is a distance from the master camera to the gazing point so that a moving distance of the gazing point per unit time is increased.
A camera calibration unit that calculates a camera orientation of the master camera when camera calibration is performed and a translation vector that is an external parameter of the master camera by the camera calibration;
A rotation matrix in the master camera is calculated based on a difference in camera attitude between the camera attitude operation unit and the camera calibration unit, and a product of a depth component vector and the depth value included in the calculated rotation matrix A gazing point calculation unit for calculating the position of the gazing point by adding the translation vector to
A slave camera control unit that controls the posture of the slave camera so as to face the gazing point calculated by the gazing point calculation unit;
Robot camera control program to function as
JP2012253086A 2012-11-19 2012-11-19 Robot camera control device, program for the same, and multi-viewpoint robot camera system Pending JP2014103490A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012253086A JP2014103490A (en) 2012-11-19 2012-11-19 Robot camera control device, program for the same, and multi-viewpoint robot camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012253086A JP2014103490A (en) 2012-11-19 2012-11-19 Robot camera control device, program for the same, and multi-viewpoint robot camera system

Publications (1)

Publication Number Publication Date
JP2014103490A true JP2014103490A (en) 2014-06-05

Family

ID=51025646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012253086A Pending JP2014103490A (en) 2012-11-19 2012-11-19 Robot camera control device, program for the same, and multi-viewpoint robot camera system

Country Status (1)

Country Link
JP (1) JP2014103490A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9961330B2 (en) 2015-03-02 2018-05-01 Electronics And Telecommunications Research Institute Device and method of generating multi-view immersive content
CN113875219A (en) * 2019-08-27 2021-12-31 Oppo广东移动通信有限公司 Image processing method and device, electronic equipment and computer readable storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH052205A (en) * 1991-06-26 1993-01-08 Canon Inc Focus command device
JP2007133660A (en) * 2005-11-10 2007-05-31 Nippon Hoso Kyokai <Nhk> Apparatus and method for composing multi-viewpoint video image
JP2012098327A (en) * 2010-10-29 2012-05-24 Canon Inc Imaging system
JP2012114593A (en) * 2010-11-22 2012-06-14 Nippon Hoso Kyokai <Nhk> Multi-viewpoint robot camera system, multi-viewpoint robot camera controller and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH052205A (en) * 1991-06-26 1993-01-08 Canon Inc Focus command device
JP2007133660A (en) * 2005-11-10 2007-05-31 Nippon Hoso Kyokai <Nhk> Apparatus and method for composing multi-viewpoint video image
JP2012098327A (en) * 2010-10-29 2012-05-24 Canon Inc Imaging system
JP2012114593A (en) * 2010-11-22 2012-06-14 Nippon Hoso Kyokai <Nhk> Multi-viewpoint robot camera system, multi-viewpoint robot camera controller and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9961330B2 (en) 2015-03-02 2018-05-01 Electronics And Telecommunications Research Institute Device and method of generating multi-view immersive content
CN113875219A (en) * 2019-08-27 2021-12-31 Oppo广东移动通信有限公司 Image processing method and device, electronic equipment and computer readable storage medium
CN113875219B (en) * 2019-08-27 2023-08-15 Oppo广东移动通信有限公司 Image processing method and device, electronic equipment and computer readable storage medium

Similar Documents

Publication Publication Date Title
US10048461B2 (en) Method and apparatus for performing temperature compensation for camera
KR102143456B1 (en) Depth information acquisition method and apparatus, and image collection device
JP6551392B2 (en) System and method for controlling an apparatus for image capture
CN107113376B (en) A kind of image processing method, device and video camera
US9832362B2 (en) Image-capturing apparatus
CN107077154B (en) Cloud platform control method, device, storage medium and unmanned plane
WO2002065761A2 (en) System and method for stabilizing rotational images
JP5509044B2 (en) Multi-viewpoint robot camera system, multi-viewpoint robot camera control device and program
CN104950726B (en) The time delay correction method and its device of remote controlled travelling device
KR20190055582A (en) Method for capturing an image of electronic device and electronic device thereof
WO2017038680A1 (en) System, method and program for generating three-dimensional image data of a target object
JP2016219968A (en) Multi-viewpoint video expression apparatus and program therefor
US8810641B2 (en) Television, control method and control device for the television
US9300860B2 (en) Image-capturing apparatus
JP2014103490A (en) Robot camera control device, program for the same, and multi-viewpoint robot camera system
JP7470518B2 (en) Pan/tilt angle calculation device and program thereof
JP6073114B2 (en) Robot camera control device, program thereof, and multi-viewpoint robot camera system
JP5223096B2 (en) 3D video shooting control system, 3D video shooting control method, and program
US10529084B2 (en) Image processing method, electronic device, and non-transitory computer readable storage medium
JP6180925B2 (en) Robot camera control device, program thereof, and multi-viewpoint robot camera system
JP2015126402A (en) Robot camera control device, program for the same, and multi-viewpoint robot camera system
JP5988842B2 (en) Robot camera control device, program thereof, and multi-viewpoint robot camera system
JP6381092B2 (en) Method and apparatus for estimating the value of an input in the presence of a perturbation factor
JP2014096761A (en) Image processing apparatus, and control method and control program of the same
JP2021197572A (en) Camera control apparatus and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170411