JP7262317B2 - Remote camera system, control system, control method, and control program - Google Patents

Remote camera system, control system, control method, and control program Download PDF

Info

Publication number
JP7262317B2
JP7262317B2 JP2019107947A JP2019107947A JP7262317B2 JP 7262317 B2 JP7262317 B2 JP 7262317B2 JP 2019107947 A JP2019107947 A JP 2019107947A JP 2019107947 A JP2019107947 A JP 2019107947A JP 7262317 B2 JP7262317 B2 JP 7262317B2
Authority
JP
Japan
Prior art keywords
camera
unit
operator
control
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019107947A
Other languages
Japanese (ja)
Other versions
JP2020202481A (en
Inventor
信広 日置
知明 田原
康文 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ikegami Tsushinki Co Ltd
Original Assignee
Ikegami Tsushinki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ikegami Tsushinki Co Ltd filed Critical Ikegami Tsushinki Co Ltd
Priority to JP2019107947A priority Critical patent/JP7262317B2/en
Publication of JP2020202481A publication Critical patent/JP2020202481A/en
Application granted granted Critical
Publication of JP7262317B2 publication Critical patent/JP7262317B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、リモートカメラシステム、制御システム、制御方法、及び制御プログラムに関する。 The present disclosure relates to a remote camera system, control system, control method, and control program.

近年、放送技術の分野では、ロボットアームの先端にカメラを取り付け、ロボットアームの遠隔操作による撮影を可能にするロボットカメラの技術に注目が集まっている。撮影現場では、被写体を様々な角度から撮影する目的やカメラの配置を安定させる目的でペデスタルやクレーンなどの特殊な機材が広く利用されている。こうした特殊な機材を巧みに操るにはカメラマンの熟練した技術が必要になる。一方、ロボットカメラの場合、コントローラを利用してロボットアームを自在に動かせるため、操作が比較的容易である。 2. Description of the Related Art In recent years, in the field of broadcasting technology, attention has been focused on the technology of a robot camera, in which a camera is attached to the tip of a robot arm to enable photographing by remote control of the robot arm. At filming sites, special equipment such as pedestals and cranes are widely used for the purpose of photographing subjects from various angles and for the purpose of stabilizing the placement of cameras. Skillful manipulation of such special equipment requires the skill of a cameraman. On the other hand, in the case of a robot camera, since the robot arm can be freely moved using a controller, the operation is relatively easy.

ロボットカメラの操作系に関し、下記の特許文献1では、ロボットカメラの模型をコントローラとして利用し、模型の動きに連動してロボットカメラを動かす仕組みが提案されている。また、下記の特許文献2では、ロボットアームを模した操作器をコントローラとして利用し、操作器の各関節部における回転角を検出し、その検出結果に応じてロボットカメラを動かす仕組みが提案されている。これらの仕組みは、ロボットアームそのものを手で動かす感覚で操作を行うことができるため、直感的な操作を可能にするものである。 Regarding the operation system of a robot camera, Patent Document 1 below proposes a mechanism in which a robot camera model is used as a controller and the robot camera is moved in conjunction with the movement of the model. In addition, Patent Document 2 below proposes a mechanism that uses an operating device that simulates a robot arm as a controller, detects the rotation angle of each joint of the operating device, and moves a robot camera according to the detection results. there is These mechanisms enable intuitive operations because they can be operated with the feeling of moving the robot arm itself by hand.

特開2004-289379号公報JP-A-2004-289379 特開平07-146501号公報JP-A-07-146501

しかしながら、上記の仕組みは、あくまでもロボットアームを直接的に操作している感覚を提供するものであり、映像を撮るカメラの動きを直感的に操作するものではない。また、ロボットアームの模型や、ロボットアームを模した操作器を精巧に作製することは容易でなく、特に、複雑な構成を有するロボットアームに上記の仕組みを適用することは現実的ではない。 However, the above mechanism provides the feeling of directly operating the robot arm, and does not intuitively operate the movement of the camera that takes the image. In addition, it is not easy to elaborately manufacture a model of a robot arm or a manipulator that imitates a robot arm.

複雑な構成を有するロボットアームは動きの自由度が高く、ロボットカメラを利用することで、従来の撮影機材では実現困難なアングルからの撮影が容易になるなどの利点がある。そのため、ロボットアームの構成や動きを意識せず、より直接的にカメラを動かしている感覚でロボットカメラを操作することが可能な操作系が求められている。 A robot arm with a complicated structure has a high degree of freedom of movement, and the use of a robot camera has the advantage of facilitating shooting from angles that are difficult to achieve with conventional shooting equipment. Therefore, there is a demand for an operation system that allows the user to operate the robot camera as if it were moving the camera more directly without being conscious of the configuration and movement of the robot arm.

本開示の1つの観点によれば、本開示の目的は、より直感的な操作を可能にするリモートカメラシステム、制御システム、制御方法、及び制御プログラムを提供することにある。 According to one aspect of the present disclosure, an object of the present disclosure is to provide a remote camera system, control system, control method, and control program that enable more intuitive operation.

本開示の第1の態様によれば、メインカメラと、一端がメインカメラに接続され、かつ、一端との間の位置関係が既知の参照点を原点とする座標系を回転させる第1の動き、及び参照点を移動させる第2の動きが可能なモーションユニットとを有するカメラユニット、及びメインカメラの撮像素子上に設定された代表点と参照点とを一致させ、モーションユニットを制御して、第1の動きによりメインカメラの姿勢を変え、第2の動きによりメインカメラの位置を変える制御システムを含む、リモートカメラシステムが提供されうる。 According to a first aspect of the present disclosure, a first movement that rotates a coordinate system whose origin is a reference point that is connected to the main camera at one end and has a known positional relationship with the one end , and a motion unit capable of a second movement that moves the reference point, and the representative point set on the imaging device of the main camera and the reference point are matched to control the motion unit, A remote camera system may be provided that includes a control system that changes the pose of the main camera with a first movement and changes the position of the main camera with a second movement.

また、本開示の第2の態様によれば、メインカメラと、一端がメインカメラに接続され、かつ、一端との間の位置関係が既知の参照点を原点とする座標系を回転させる第1の動き、及び参照点を移動させる第2の動きが可能なモーションユニットとを有するカメラユニットを制御するユニット制御部を備え、ユニット制御部は、メインカメラの撮像素子上に設定された代表点と参照点とを一致させ、モーションユニットを制御して、第1の動きによりメインカメラの姿勢を変え、第2の動きによりメインカメラの位置を変える、制御システムが提供されうる。 Further, according to the second aspect of the present disclosure, a first coordinate system that rotates a main camera and a reference point that is connected at one end to the main camera and has a known positional relationship with the one end as an origin is a coordinate system. and a motion unit capable of moving the reference point, the unit control unit controls the representative point set on the imaging element of the main camera and the A control system may be provided that aligns the reference points and controls the motion unit to change the pose of the main camera with a first movement and the position of the main camera with a second movement.

また、本開示の第3の態様によれば、コンピュータにより、メインカメラと、一端がメインカメラに接続され、かつ、一端との間の位置関係が既知の参照点を原点とする座標系を回転させる第1の動き、及び参照点を移動させる第2の動きが可能なモーションユニットとを有するカメラユニットを制御するステップを含み、制御するステップでは、コンピュータが、メインカメラの撮像素子上に設定された代表点と参照点とを一致させ、モーションユニットを制御して、第1の動きによりメインカメラの姿勢を変え、第2の動きによりメインカメラの位置を変える、制御方法が提供されうる。また、本開示の第4の態様によれば、当該ステップの処理をコンピュータに実行させる制御プログラムが提供されうる。また、本開示の第5の態様によれば、当該制御プログラムが格納されたコンピュータ読み取り可能な非一時的な記録媒体(Non-transitory computer readable storage medium)が提供されうる。 Further, according to the third aspect of the present disclosure, the computer rotates a coordinate system having a main camera and a reference point connected at one end to the main camera and having a known positional relationship with the one end as an origin. and a motion unit capable of a second motion to move the reference point, the step of controlling a computer configured on the imaging element of the main camera to A control method can be provided for matching the representative point and the reference point and controlling the motion unit to change the pose of the main camera by the first movement and change the position of the main camera by the second movement. Moreover, according to the fourth aspect of the present disclosure, a control program that causes a computer to execute the processing of the steps can be provided. Further, according to a fifth aspect of the present disclosure, a non-transitory computer readable storage medium storing the control program can be provided.

本開示によれば、より直感的な操作が可能になる。 According to the present disclosure, more intuitive operation becomes possible.

本実施形態に係るリモートカメラシステムについて説明するためのブロック図である。1 is a block diagram for explaining a remote camera system according to this embodiment; FIG. 本実施形態に係るカメラユニットの構成について説明するためのブロック図である。It is a block diagram for explaining the configuration of a camera unit according to the present embodiment. 本実施形態に係るカメラユニットの一構成例(構成例1)を模式的に示した図である。1 is a diagram schematically showing one configuration example (configuration example 1) of a camera unit according to the present embodiment; FIG. 本実施形態に係るカメラユニットの一構成例(構成例2)を模式的に示した図である。FIG. 3 is a diagram schematically showing one configuration example (configuration example 2) of a camera unit according to the present embodiment; 本実施形態に係るカメラユニットの一構成例(構成例3)を模式的に示した図である。It is a figure which showed typically one structural example (structure example 3) of the camera unit which concerns on this embodiment. 本実施形態に係るカメラユニットの一構成例(構成例4)を模式的に示した図である。It is a figure which showed typically one structural example (structure example 4) of the camera unit which concerns on this embodiment. 本実施形態に係るカメラユニットの一構成例(構成例5)を模式的に示した図である。It is a figure which showed typically one structural example (structure example 5) of the camera unit which concerns on this embodiment. 本実施形態に係るカメラユニットの一構成例(構成例6)を模式的に示した図である。It is a figure which showed typically one structural example (structure example 6) of the camera unit which concerns on this embodiment. 本実施形態に係るカメラユニットの一構成例(構成例7)を模式的に示した図である。FIG. 11 is a diagram schematically showing one configuration example (configuration example 7) of a camera unit according to the present embodiment; 本実施形態に係る制御システムの機能について説明するためのブロック図である。It is a block diagram for explaining the function of the control system according to the present embodiment. 本実施形態に係るリモートカメラシステムにおけるカメラユニットのロケーション制御について説明するための模式図である。FIG. 4 is a schematic diagram for explaining location control of a camera unit in the remote camera system according to the embodiment; 本実施形態に係るカメラユニットにおけるTCP設定について説明するための模式図である。FIG. 4 is a schematic diagram for explaining TCP settings in the camera unit according to the embodiment; 本実施形態に係るTCP設定情報について説明するための図表である。4 is a chart for explaining TCP setting information according to the embodiment; FIG. (a)は本実施形態に係るカメラユニットのチルト制御について説明するための模式図であり、(b)は本実施形態に係るカメラユニットのパン制御について説明するための模式図である。(a) is a schematic diagram for explaining tilt control of the camera unit according to the embodiment, and (b) is a schematic diagram for explaining pan control of the camera unit according to the embodiment. 本実施形態に係るカメラユニット及びメインカメラの動きを規定することが可能なスタジオ座標系、ユニット座標系及びカメラ座標系の関係について説明するための説明図である。FIG. 4 is an explanatory diagram for explaining the relationship among a studio coordinate system, a unit coordinate system, and a camera coordinate system that can define movements of a camera unit and a main camera according to the embodiment; (a)は本実施形態に係るカメラユニットのポジション(TCP)制御について説明するための模式図であり、(b)は、本実施形態に係るカメラユニットのポジション(TCP)制御に利用可能な操作手段ついて説明するための模式図である。(a) is a schematic diagram for explaining the position (TCP) control of the camera unit according to the present embodiment, and (b) is an operation that can be used for the position (TCP) control of the camera unit according to the present embodiment. It is a schematic diagram for demonstrating a means. (a)は本実施形態に係るカメラユニットのポジション(TCP)制御について説明するための模式図であり、(b)は本実施形態に係るカメラユニットのポジション(TCP)制御に利用可能な操作手段ついて説明するための模式図である。(a) is a schematic diagram for explaining the position (TCP) control of the camera unit according to the present embodiment, and (b) is an operation means that can be used for the position (TCP) control of the camera unit according to the present embodiment. It is a schematic diagram for explaining about. (a)は本実施形態に係るカメラユニットのポジション(TCP)制御について説明するための模式図であり、(b)は本実施形態に係るカメラユニットのポジション(TCP)制御に利用可能な操作手段ついて説明するための模式図である。(a) is a schematic diagram for explaining the position (TCP) control of the camera unit according to the present embodiment, and (b) is an operation means that can be used for the position (TCP) control of the camera unit according to the present embodiment. It is a schematic diagram for explaining about. 本実施形態に係る固定点(eTCP)基準でのカメラユニットの移動制御について説明するための模式図である。FIG. 4 is a schematic diagram for explaining movement control of a camera unit based on a fixed point (eTCP) according to the embodiment; 本実施形態に係るアイビューの制御について説明するための模式図である。FIG. 3 is a schematic diagram for explaining eye view control according to the present embodiment; 本実施形態に係るリアビューの制御について説明するための模式図である。FIG. 4 is a schematic diagram for explaining rear view control according to the present embodiment; 本実施形態に係るプリセット情報について説明するための第1の図表である。FIG. 4 is a first chart for explaining preset information according to the embodiment; FIG. 本実施形態に係るプリセット情報について説明するための第2の図表である。FIG. 4 is a second chart for explaining preset information according to the embodiment; FIG. 本実施形態に係るシナリオ情報について説明するための図表である。4 is a chart for explaining scenario information according to the embodiment; 本実施形態に係る操作権限情報について説明するための図表である。4 is a chart for explaining operation authority information according to the embodiment; 本実施形態に係るオペレータシステムの機能について説明するためのブロック図である。It is a block diagram for explaining the function of the operator system according to the present embodiment. 本実施形態に係るオペレータシステムのUIとして利用可能なコントローラの一例を模式的に示した図である。FIG. 4 is a diagram schematically showing an example of a controller that can be used as a UI of the operator system according to this embodiment; 本実施形態に係るオペレータシステムのUIとして利用可能なコントローラの他の例を模式的に示した図である。FIG. 7 is a diagram schematically showing another example of a controller that can be used as a UI of the operator system according to this embodiment; (a)は本実施形態に係るオペレータシステムのUIとして利用可能なジェスチャー操作型デバイスの装着形態を模式的に示した図であり、(b)は本実施形態に係るオペレータシステムのUIとして利用可能なジェスチャー操作型デバイスの操作形態を模式的に示した図である。(a) is a diagram schematically showing a mounting form of a gesture operation type device that can be used as the UI of the operator system according to this embodiment, and (b) can be used as the UI of the operator system according to this embodiment. 1 is a diagram schematically showing an operation form of a gesture operation type device; FIG. 本実施形態に係るオペレータシステムのUIとして利用可能な着座型オペレーションユニットの例を模式的に示した図である。FIG. 4 is a diagram schematically showing an example of a seated operation unit that can be used as a UI of the operator system according to this embodiment; 本実施形態に係るオペレータシステムのUI(リアルタイム操作モード)について説明するための模式図である。FIG. 3 is a schematic diagram for explaining the UI (real-time operation mode) of the operator system according to this embodiment; 本実施形態に係るオペレータシステムのUI(サブビューモード)について説明するための模式図である。FIG. 4 is a schematic diagram for explaining the UI (sub-view mode) of the operator system according to this embodiment; 本実施形態に係るオペレータシステムのUI(プリセット撮影モード)について説明するための模式図である。4 is a schematic diagram for explaining the UI (preset imaging mode) of the operator system according to the embodiment; FIG. 本実施形態に係るオペレータシステムのUI(シナリオ撮影モード)について説明するための模式図である。FIG. 4 is a schematic diagram for explaining the UI (scenario shooting mode) of the operator system according to the embodiment; 本実施形態に係るプリセット登録に関する処理の流れについて説明するためのフロー図である。FIG. 5 is a flow diagram for explaining the flow of processing relating to preset registration according to the present embodiment; 本実施形態に係るトレース登録に関する処理の流れについて説明するためのフロー図である。FIG. 4 is a flow diagram for explaining the flow of processing relating to trace registration according to the embodiment; 本実施形態に係るシナリオ設定に関する処理の流れについて説明するためのフロー図である。FIG. 4 is a flow diagram for explaining the flow of processing regarding scenario setting according to the present embodiment; 本実施形態に係る操作権限の設定及び移転に関する処理の流れについて説明するためのシーケンス図である。FIG. 5 is a sequence diagram for explaining the flow of processing regarding setting and transfer of operation authority according to the present embodiment; 本実施形態に係る制御システムの機能を実現可能なハードウェアについて説明するためのブロック図である。FIG. 3 is a block diagram for explaining hardware capable of realizing the functions of the control system according to the embodiment;

以下に添付図面を参照しながら、本開示の実施形態について説明する。なお、本明細書及び図面において実質的に同一の機能を有する要素については、同一の符号を付することにより重複説明を省略する場合がある。 Embodiments of the present disclosure will be described below with reference to the accompanying drawings. Elements having substantially the same functions in the present specification and drawings may be denoted by the same reference numerals, thereby omitting redundant description.

[1.リモートカメラシステム]
まず、図1を参照しながら、本実施形態に係るリモートカメラシステムについて説明する。図1は、本実施形態に係るリモートカメラシステムについて説明するためのブロック図である。図1に示したリモートカメラシステム5は、本実施形態に係るリモートカメラシステムの一例である。
[1. remote camera system]
First, a remote camera system according to this embodiment will be described with reference to FIG. FIG. 1 is a block diagram for explaining the remote camera system according to this embodiment. The remote camera system 5 shown in FIG. 1 is an example of a remote camera system according to this embodiment.

図1に示すように、リモートカメラシステム5は、カメラユニット10a、10bと、リアビューカメラ20a、20bと、オペレータシステム30a、30bと、制御システム40とを含む。ここでは説明を簡単にするために、カメラユニットの数を2、リアビューカメラの数を2、オペレータシステムの数を2に設定しているが、いずれの数も2以外であってよい。 As shown in FIG. 1, the remote camera system 5 includes camera units 10a, 10b, rearview cameras 20a, 20b, operator systems 30a, 30b, and a control system 40. As shown in FIG. For simplicity of explanation, the number of camera units is set to two, the number of rear view cameras to two, and the number of operator systems to two, but any number other than two may be used.

カメラユニット10a、10bは、スタジオ内に配置され、主に放送用の映像を撮影するための機材である。後述するように、カメラユニット10a、10bの主な構成は同じである。カメラユニット10a、10bは、振動を抑制するための制震機構を備えてもよく、さらに、動作音を抑制するための静音機構を備えてもよい。制震機構としては、例えば、ゴムやバネなどの弾性部材を利用して防振するシステムや、ジャイロセンサなどのモーションセンサの出力に応じて逆位相に筐体を動かすことで振動を抑制する防振システムなどを適用することができる。静音機構としては、筐体の内外に配置される吸音部材などがある。また、筐体内部の温度を下げる冷却ファンや、電源に搭載される電源ファンなどを、静音性の高いファンにする方法により静音性を高めてもよい。 The camera units 10a and 10b are equipment arranged in a studio and used mainly for shooting video for broadcasting. As will be described later, the main configurations of the camera units 10a and 10b are the same. The camera units 10a and 10b may include a damping mechanism for suppressing vibration, and may also include a silent mechanism for suppressing operation noise. As a vibration damping mechanism, for example, a system that uses elastic members such as rubber or springs to dampen vibrations, or a damping system that suppresses vibrations by moving the housing in the opposite phase according to the output of a motion sensor such as a gyro sensor. A vibration system or the like can be applied. Silent mechanisms include sound absorbing members arranged inside and outside the housing. Quietness may also be improved by using a cooling fan that lowers the temperature inside the housing, a power supply fan mounted on the power supply, or the like to be a highly silent fan.

リアビューカメラ20a、20bは、スタジオ内に配置され、カメラユニット10a、10bの周囲から、カメラユニット10a、10bを画角に含む視点での映像を撮影するために利用されうるカメラである。なお、説明の都合上、以下では、リアビューカメラ20a、20bをカメラユニット10a、10bの後方に設置し、カメラユニット10a、10bを画角に含む視点(以下、リアビュー)からの映像(以下、リアビュー映像)を出力する形態を例に説明するが、リアビューカメラ20a、20bの配置はこの例に限定されない。そして、“リアビュー”カメラと呼称するが、カメラユニット10a、10bを側面、斜め前方、上方、下方から撮るカメラであってもよい。後述するように、リアビューカメラ20a、20bの主な構成は同じである。 The rear-view cameras 20a and 20b are cameras that are arranged in a studio and can be used to shoot images from the surroundings of the camera units 10a and 10b at viewpoints including the camera units 10a and 10b in the angle of view. For convenience of explanation, the rear view cameras 20a and 20b are installed behind the camera units 10a and 10b, and an image from a viewpoint (hereinafter referred to as a rear view) including the camera units 10a and 10b in an angle of view (hereinafter referred to as a rear view) is described below. video) will be described as an example, but the arrangement of the rear view cameras 20a and 20b is not limited to this example. Although referred to as a "rear view" camera, it may be a camera that takes pictures of the camera units 10a, 10b from the side, obliquely forward, above, or below. As will be described later, the main configurations of the rearview cameras 20a and 20b are the same.

オペレータシステム30a、30bは、カメラユニット10a、10bを操作するオペレータが利用するシステムである。また、オペレータシステム30a、30bは、リアビューカメラ20a、20bの操作に利用されてもよい。例えば、オペレータは、オペレータシステム30a、30bのいずれか又は他のオペレータシステムを利用してリアビューカメラ20a、20bのパン・チルトを操作してもよい。後述するように、オペレータシステム30a、30bの主な構成は同じである。図1の例では、オペレータシステム30aがスタジオ内に配置され、オペレータシステム30bがコントロールルーム(例えば、副調整室や中継車など)に配置されている。このように、オペレータシステム30a、30bの利用場所は、スタジオ内であってもよいし、コントロールルーム内であってもよいし、或いは、その他の場所(例えば、別のスタジオや遠隔地の放送局など)であってもよい。 The operator systems 30a and 30b are systems used by operators who operate the camera units 10a and 10b. The operator systems 30a, 30b may also be used to operate the rear view cameras 20a, 20b. For example, the operator may use one of the operator systems 30a, 30b or another operator system to operate the pan/tilt of the rear view cameras 20a, 20b. As will be described later, the main configuration of operator systems 30a and 30b is the same. In the example of FIG. 1, the operator system 30a is located in the studio, and the operator system 30b is located in the control room (eg, sub-control room, relay car, etc.). Thus, operator systems 30a and 30b may be used in a studio, in a control room, or in other locations (eg, another studio or a remote broadcast station). etc.).

制御システム40は、オペレータシステム30a、30bによる操作入力に応じて、カメラユニット10a、10bの動作を制御するシステムである。また、制御システム40は、リアビューカメラ20a、20bから出力されるリアビュー映像をオペレータシステム30a、30bに提供する機能、及びオペレータシステム30a、30bに対して設定されるカメラユニット10a、10bの操作権限を管理する機能などを有する。図1の例では、制御システム40は、コントロールルームに配置されている。 The control system 40 is a system that controls the operations of the camera units 10a and 10b according to operation inputs from the operator systems 30a and 30b. In addition, the control system 40 has a function of providing the operator systems 30a and 30b with rear-view images output from the rear-view cameras 20a and 20b, and the operation authority of the camera units 10a and 10b set for the operator systems 30a and 30b. It has functions such as management. In the example of FIG. 1, control system 40 is located in a control room.

以下では、図1のシステム構成を例に説明を進めるが、本実施形態に係るリモートカメラシステムのシステム構成は図1の例に限定されない。例えば、本実施形態に係るリモートカメラシステムは、スタジオ撮影に限定されず、屋内外のスポーツ施設、イベント会場、コンサートホール、コンベンション会場、或いは、式場などでの撮影にも適用可能である。以下、リモートカメラシステム5の各構成要素について、さらに説明する。 The system configuration in FIG. 1 will be described below as an example, but the system configuration of the remote camera system according to this embodiment is not limited to the example in FIG. For example, the remote camera system according to this embodiment is not limited to studio photography, but can also be applied to photography at indoor and outdoor sports facilities, event venues, concert halls, convention venues, ceremony halls, and the like. Each component of the remote camera system 5 will be further described below.

[2.カメラユニット]
図2を参照しながら、本実施形態に係るカメラユニットの構成について説明する。図2は、本実施形態に係るカメラユニットの構成について説明するためのブロック図である。上記の通り、カメラユニット10a、10bの主な構成は同じであるため、カメラユニット10aについて詳細に説明し、カメラユニット10bについては説明を省略する。
[2. camera unit]
The configuration of the camera unit according to this embodiment will be described with reference to FIG. FIG. 2 is a block diagram for explaining the configuration of the camera unit according to this embodiment. As described above, since the main configurations of the camera units 10a and 10b are the same, the camera unit 10a will be described in detail, and the description of the camera unit 10b will be omitted.

図2に示すように、カメラユニット10aは、メインカメラ11と、アイビューカメラ12と、モーションユニット13と、コントロールボックス14とを有する。 As shown in FIG. 2, the camera unit 10a has a main camera 11, an eye view camera 12, a motion unit 13, and a control box .

メインカメラ11は、放送映像を出力するための撮像装置である。メインカメラ11は、レンズや光学フィルタなどの光学素子、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide-Semiconductor)などの撮像素子、及びDSP(Digital Signal Processor)、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)などのプロセッサを搭載する。 The main camera 11 is an imaging device for outputting broadcast video. The main camera 11 includes optical elements such as lenses and optical filters, imaging elements such as CCDs (Charge-Coupled Devices) and CMOSs (Complementary Metal-Oxide-Semiconductors), DSPs (Digital Signal Processors), and CPUs (Central Processing Units). , a GPU (Graphic Processing Unit) or the like.

また、メインカメラ11は、有線又は無線のネットワーク或いは専用の通信回線を通じて制御システム40と通信するための通信インターフェースを搭載している。メインカメラ11から出力される映像(以下、メイン映像)は、通信インターフェースを介して制御システム40に伝送される。なお、メインカメラ11は、マイクを搭載していてもよい。また、メインカメラ11は、オペレータシステム30a、30bと直接通信するための通信手段を搭載していてもよい。 The main camera 11 also has a communication interface for communicating with the control system 40 through a wired or wireless network or a dedicated communication line. An image output from the main camera 11 (hereinafter referred to as main image) is transmitted to the control system 40 via a communication interface. Note that the main camera 11 may be equipped with a microphone. Also, the main camera 11 may be equipped with communication means for direct communication with the operator systems 30a and 30b.

アイビューカメラ12は、カメラユニット10aを操作するオペレータにカメラマン目線で見たスタジオ内の様子を映像として提供するための撮像装置である。アイビューカメラ12は、メインカメラ11をカメラマンが手動で操作すると仮定した場合にカメラマンの目が位置する位置又はその近傍に設置されることが好ましい。例えば、アイビューカメラ12は、メインカメラ11の筐体に物理的に固定されてよい。 The eye-view camera 12 is an imaging device for providing the operator who operates the camera unit 10a with an image of the inside of the studio seen from the cameraman's point of view. The eye-view camera 12 is preferably installed at or near the position where the cameraman's eyes would be positioned if the main camera 11 were to be operated manually by the cameraman. For example, the eye-view camera 12 may be physically fixed to the housing of the main camera 11 .

アイビューカメラ12は、人間の視野より広い画角を有する広角カメラである。例えば、アイビューカメラ12は、全方位映像(360°映像)を得ることが可能な全方位カメラであってもよいし、カメラユニット10aを取り囲む広い範囲の映像(180°映像、270°映像など)を得ることが可能な広角カメラであってもよい。アイビューカメラ12は、有線又は無線のネットワーク或いは専用の通信回線を通じて制御システム40と通信するための通信インターフェースを搭載している。アイビューカメラ12から出力される映像は、通信インターフェースを介して制御システム40に伝送される。なお、アイビューカメラ12は、オペレータシステム30a、30bと直接通信するための通信手段を搭載していてもよい。 The eye-view camera 12 is a wide-angle camera having an angle of view wider than the human field of view. For example, the eye view camera 12 may be an omnidirectional camera capable of obtaining an omnidirectional video (360° video), or a wide range of video (180° video, 270° video, etc.) surrounding the camera unit 10a. ) may be used. The eye view camera 12 is equipped with a communication interface for communicating with the control system 40 through a wired or wireless network or a dedicated communication line. Images output from the eye view camera 12 are transmitted to the control system 40 via the communication interface. Note that the eye view camera 12 may be equipped with communication means for direct communication with the operator systems 30a and 30b.

モーションユニット13は、スタジオ内におけるカメラユニット10aの位置(以下、ロケーション)、及び、メインカメラ11の基準位置(以下、ポジション)及び姿勢を変化させるための機材である。モーションユニット13の形態は多種多様であってよい。例えば、ロケーションが固定の形態であってもよいし、ポジション及び姿勢の変化範囲に制約がある形態であってもよい。ここで、図3~図9を参照しながら、モーションユニット13の可能な形態(カメラユニット10aの構成例1~構成例7)について説明する。 The motion unit 13 is equipment for changing the position (hereinafter referred to as location) of the camera unit 10a in the studio and the reference position (hereinafter referred to as position) and orientation of the main camera 11 . The motion unit 13 may take many different forms. For example, the location may be fixed, or the position and attitude change range may be restricted. Here, possible forms of the motion unit 13 (configuration example 1 to configuration example 7 of the camera unit 10a) will be described with reference to FIGS. 3 to 9. FIG.

図3を参照しながら、本実施形態に係るカメラユニットの一構成例(構成例1)について説明する。図3は、本実施形態に係るカメラユニットの一構成例(構成例1)を模式的に示した図である。 A configuration example (configuration example 1) of the camera unit according to the present embodiment will be described with reference to FIG. FIG. 3 is a diagram schematically showing one configuration example (configuration example 1) of the camera unit according to the present embodiment.

構成例1は、ロボットアーム13a及びベース13bを用いてモーションユニット13を構成した場合のカメラユニット10aの構成例である。 Configuration Example 1 is a configuration example of the camera unit 10a when the motion unit 13 is configured using the robot arm 13a and the base 13b.

構成例1において、ロボットアーム13aは、6軸のロボットアームであり、アームの先端が届く範囲でメインカメラ11の位置を空間内の任意の位置に移動することができる。また、ロボットアーム13aは、各関節部の回動によりメインカメラ11の向きをパン方向及びチルト方向に傾けることができる。ベース13bは、車輪やモータなどの移動機構(非図示)を有し、自走によりスタジオ内を移動することができる。構成例1によれば、モーションユニット13は、ロケーション、ポジション、パン・チルトを自由に制御できる。 In configuration example 1, the robot arm 13a is a 6-axis robot arm, and can move the position of the main camera 11 to any position in space within the reach of the tip of the arm. Further, the robot arm 13a can tilt the orientation of the main camera 11 in the pan direction and the tilt direction by rotating each joint. The base 13b has a movement mechanism (not shown) such as wheels and a motor, and can move in the studio by self-running. According to Configuration Example 1, the motion unit 13 can freely control the location, position, and pan/tilt.

次に、図4を参照しながら、本実施形態に係るカメラユニットの一構成例(構成例2)について説明する。図4は、本実施形態に係るカメラユニットの一構成例(構成例2)を模式的に示した図である。 Next, a configuration example (configuration example 2) of the camera unit according to the present embodiment will be described with reference to FIG. FIG. 4 is a diagram schematically showing one configuration example (configuration example 2) of the camera unit according to the present embodiment.

構成例2は、ロボットアーム13a、昇降機構UD1、及びベース13b1を用いてモーションユニット13を構成した場合のカメラユニット10aの構成例である。 Configuration example 2 is a configuration example of the camera unit 10a when the motion unit 13 is configured using the robot arm 13a, the lifting mechanism UD1, and the base 13b1.

構成例2において、ロボットアーム13aは、6軸のロボットアームであり、アームの先端が届く範囲でメインカメラ11の位置を空間内の任意の位置に移動することができる。また、ロボットアーム13aは、各関節部の回動によりメインカメラ11の向きをパン方向及びチルト方向に傾けることができる。昇降機構UD1は、ロボットアーム13aを昇降させることができる。ベース13b1は、レールに沿って移動するための車輪を有し、レールで規定される移動経路に沿ってスタジオ内を移動することができる。構成例2によれば、モーションユニット13は、レールに沿ってロケーションを変えることができ、ポジション、パン・チルトを自由に制御できる。 In configuration example 2, the robot arm 13a is a 6-axis robot arm, and can move the position of the main camera 11 to any position in space within the reach of the tip of the arm. Further, the robot arm 13a can tilt the direction of the main camera 11 in the pan direction and the tilt direction by rotating each joint. The lifting mechanism UD1 can lift and lower the robot arm 13a. The base 13b1 has wheels for moving along rails, and can move within the studio along a moving path defined by the rails. According to Configuration Example 2, the motion unit 13 can change its location along the rail and freely control its position and pan/tilt.

次に、図5を参照しながら、本実施形態に係るカメラユニットの一構成例(構成例3)について説明する。図5は、本実施形態に係るカメラユニットの一構成例(構成例3)を模式的に示した図である。 Next, a configuration example (configuration example 3) of the camera unit according to the present embodiment will be described with reference to FIG. FIG. 5 is a diagram schematically showing one configuration example (configuration example 3) of the camera unit according to the present embodiment.

構成例3は、ロボットアーム13a、ペデスタルUD2、及びベース13bを用いてモーションユニット13を構成した場合のカメラユニット10aの構成例である。 Configuration example 3 is a configuration example of the camera unit 10a when the motion unit 13 is configured using the robot arm 13a, the pedestal UD2, and the base 13b.

構成例3において、ロボットアーム13aは、6軸のロボットアームであり、アームの先端が届く範囲でメインカメラ11の位置を空間内の任意の位置に移動することができる。また、ロボットアーム13aは、各関節部の回動によりメインカメラ11の向きをパン方向及びチルト方向に傾けることができる。ペデスタルUD2は、ロボットアーム13aを昇降させることができる。ベース13bは、車輪やモータなどの移動機構(非図示)を有し、自走によりスタジオ内を移動することができる。構成例3によれば、モーションユニット13は、ロケーション、ポジション、パン・チルトを自由に制御できる。 In configuration example 3, the robot arm 13a is a 6-axis robot arm, and can move the position of the main camera 11 to any position in space within the reach of the tip of the arm. Further, the robot arm 13a can tilt the orientation of the main camera 11 in the pan direction and the tilt direction by rotating each joint. The pedestal UD2 can raise and lower the robot arm 13a. The base 13b has a movement mechanism (not shown) such as wheels and a motor, and can move in the studio by self-running. According to Configuration Example 3, the motion unit 13 can freely control the location, position, and pan/tilt.

次に、図6を参照しながら、本実施形態に係るカメラユニットの一構成例(構成例4)について説明する。図6は、本実施形態に係るカメラユニットの一構成例(構成例4)を模式的に示した図である。 Next, a configuration example (configuration example 4) of the camera unit according to the present embodiment will be described with reference to FIG. FIG. 6 is a diagram schematically showing one configuration example (configuration example 4) of the camera unit according to the present embodiment.

構成例4は、ロボットアーム13a及び三脚13b2を用いてモーションユニット13を構成した場合のカメラユニット10aの構成例である。 Configuration example 4 is a configuration example of the camera unit 10a when the motion unit 13 is configured using the robot arm 13a and the tripod 13b2.

構成例4において、ロボットアーム13aは、6軸のロボットアームであり、アームの先端が届く範囲でメインカメラ11の位置を空間内の任意の位置に移動することができる。また、ロボットアーム13aは、各関節部の回動によりメインカメラ11の向きをパン方向及びチルト方向に傾けることができる。三脚13b2は、移動できず、特定のロケーションでロボットアーム13aを支持する。構成例4によれば、モーションユニット13は、ロケーションを変えることはできないが、特定のロケーションでポジション、パン・チルトを自由に制御できる。 In configuration example 4, the robot arm 13a is a six-axis robot arm, and can move the position of the main camera 11 to any position in space within the reach of the tip of the arm. Further, the robot arm 13a can tilt the orientation of the main camera 11 in the pan direction and the tilt direction by rotating each joint. The tripod 13b2 is immobile and supports the robot arm 13a at a specific location. According to Configuration Example 4, the motion unit 13 cannot change the location, but can freely control the position and pan/tilt at a specific location.

次に、図7を参照しながら、本実施形態に係るカメラユニットの一構成例(構成例5)について説明する。図7は、本実施形態に係るカメラユニットの一構成例(構成例5)を模式的に示した図である。 Next, one configuration example (configuration example 5) of the camera unit according to the present embodiment will be described with reference to FIG. FIG. 7 is a diagram schematically showing one configuration example (configuration example 5) of the camera unit according to the present embodiment.

構成例5は、雲台13a1、昇降機構UD3、及びベース13bを用いてモーションユニット13を構成した場合のカメラユニット10aの構成例である。 Configuration example 5 is a configuration example of the camera unit 10a when the motion unit 13 is configured using the platform 13a1, the lifting mechanism UD3, and the base 13b.

雲台13a1は、回転軸の回動によりメインカメラ11の向きをパン方向及びチルト方向に傾けることができる。昇降機構UD3は、雲台13a1を昇降させることができる。ベース13bは、車輪やモータなどの移動機構(非図示)を有し、自走によりスタジオ内を移動することができる。構成例5によれば、モーションユニット13は、ロケーションを自由に変えることができ、また、ポジションを鉛直方向に変えることができ、さらに、パン・チルトを自由に制御できる。 The camera platform 13a1 can tilt the direction of the main camera 11 in the pan direction and the tilt direction by rotating the rotation shaft. The elevating mechanism UD3 can elevate the camera platform 13a1. The base 13b has a movement mechanism (not shown) such as wheels and a motor, and can move in the studio by self-running. According to Configuration Example 5, the motion unit 13 can freely change its location, can change its position in the vertical direction, and can freely control panning and tilting.

次に、図8を参照しながら、本実施形態に係るカメラユニットの一構成例(構成例6)について説明する。図8は、本実施形態に係るカメラユニットの一構成例(構成例6)を模式的に示した図である。 Next, a configuration example (configuration example 6) of the camera unit according to the present embodiment will be described with reference to FIG. FIG. 8 is a diagram schematically showing one configuration example (configuration example 6) of the camera unit according to the present embodiment.

構成例6は、クレーン13a2、ペデスタルUD4、及びベース13bを用いてモーションユニット13を構成した場合のカメラユニット10aの構成例である。 Configuration example 6 is a configuration example of the camera unit 10a when the motion unit 13 is configured using the crane 13a2, the pedestal UD4, and the base 13b.

クレーン13a2は、ペデスタルUD4との接続部を基点としてメインカメラ11の位置を水平面内で移動することができ、さらに、ペデスタルUD4のアームを傾ける動きによりメインカメラ11の位置を下げつつチルト方向に傾けることができる。また、クレーン13a2の先端に設けられた回転機構によりメインカメラ11の向きをパン方向及びチルト方向に傾けることができる。ペデスタルUD4は、クレーン13a2を昇降させることができる。ベース13bは、車輪やモータなどの移動機構(非図示)を有し、自走によりスタジオ内を移動することができる。構成例6によれば、モーションユニット13は、ロケーションを自由に制御でき、クレーン13a2の可動範囲内でポジション、パン・チルトを制御できる。 The crane 13a2 can move the position of the main camera 11 in the horizontal plane with the connecting portion to the pedestal UD4 as a base point, and tilts the main camera 11 in the tilt direction while lowering the position thereof by tilting the arm of the pedestal UD4. be able to. Also, the direction of the main camera 11 can be tilted in the pan direction and the tilt direction by a rotation mechanism provided at the tip of the crane 13a2. The pedestal UD4 can raise and lower the crane 13a2. The base 13b has a movement mechanism (not shown) such as wheels and a motor, and can move in the studio by self-running. According to Configuration Example 6, the motion unit 13 can freely control the location, and can control the position and pan/tilt within the movable range of the crane 13a2.

次に、図9を参照しながら、本実施形態に係るカメラユニットの一構成例(構成例7)について説明する。図9は、本実施形態に係るカメラユニットの一構成例(構成例7)を模式的に示した図である。 Next, a configuration example (configuration example 7) of the camera unit according to the present embodiment will be described with reference to FIG. FIG. 9 is a diagram schematically showing one configuration example (configuration example 7) of the camera unit according to the present embodiment.

構成例7は、ロボットアーム13a3及びベース13bを用いてモーションユニット13を構成した場合のカメラユニット10aの構成例である。 Configuration example 7 is a configuration example of the camera unit 10a when the motion unit 13 is configured using the robot arm 13a3 and the base 13b.

ロボットアーム13a3は、先端部の回転機構及び軸a~fを有する7軸のロボットアームであり、アームの先端が届く範囲でメインカメラ11の位置を空間内の任意の位置に移動することができる。また、ロボットアーム13aは、各関節部の回動によりメインカメラ11の向きをパン方向及びチルト方向に傾けることができる。ベース13bは、車輪やモータなどの移動機構(非図示)を有し、自走によりスタジオ内を移動することができる。構成例7によれば、モーションユニット13は、ロケーション、ポジション、パン・チルトを自由に制御できる。 The robot arm 13a3 is a 7-axis robot arm having a tip rotation mechanism and axes a to f, and can move the position of the main camera 11 to any position in space within the reach of the tip of the arm. . Further, the robot arm 13a can tilt the direction of the main camera 11 in the pan direction and the tilt direction by rotating each joint. The base 13b has a movement mechanism (not shown) such as wheels and a motor, and can move in the studio by self-running. According to Configuration Example 7, the motion unit 13 can freely control the location, position, and pan/tilt.

上記のように、モーションユニット13は様々な形態を取り得るが、以下では、説明を簡単にするために図3に示した構成例1を例に説明を進める。 As described above, the motion unit 13 can take various forms, but for the sake of simplicity, the following explanation will be given by taking the configuration example 1 shown in FIG. 3 as an example.

再び図2を参照する。モーションユニット13は、ロボットアーム13aと、ベース13bとを有する。モーションユニット13は、コントロールボックス14に接続され、コントロールボックス14を介して制御システム40から受信した制御信号に応じて、ロボットアーム13a及びベース13bを動かす。図示しないが、コントロールボックス14は、制御システム40と通信するための通信インターフェース、カメラユニット10aの制御を行うプロセッサ、及びカメラユニット10aの駆動用電源を搭載していてもよい。 Refer to FIG. 2 again. The motion unit 13 has a robot arm 13a and a base 13b. Motion unit 13 is connected to control box 14 and moves robot arm 13 a and base 13 b in response to control signals received from control system 40 via control box 14 . Although not shown, the control box 14 may include a communication interface for communicating with the control system 40, a processor for controlling the camera unit 10a, and a power supply for driving the camera unit 10a.

[3.制御システム]
次に、図10を参照しながら、制御システム40を例に、本実施形態に係る制御システムの機能について説明する。図10は、本実施形態に係る制御システムの機能について説明するためのブロック図である。
[3. control system]
Next, referring to FIG. 10, the functions of the control system according to the present embodiment will be described using the control system 40 as an example. FIG. 10 is a block diagram for explaining the functions of the control system according to this embodiment.

図10に示すように、制御システム40は、ユニット制御部41と、メイン映像出力部42と、アイビュー提供部43と、リアビュー提供部44と、通信ツール提供部45と、カメラワーク実行部46と、権限管理部47と、記憶部48とを有する。 As shown in FIG. 10, the control system 40 includes a unit control section 41, a main video output section 42, an eye view providing section 43, a rear view providing section 44, a communication tool providing section 45, and a camerawork execution section 46. , an authority management unit 47 , and a storage unit 48 .

ユニット制御部41は、カメラユニット10a、10bの動作を制御する。例えば、ユニット制御部41は、メインカメラ11による撮像動作の制御、アイビューカメラ12による撮像動作の制御、ロボットアーム13aによるポジション及びパン・チルトの制御、及び、ベース13bによるロケーションの制御を実行する。 The unit control section 41 controls operations of the camera units 10a and 10b. For example, the unit control section 41 controls the imaging operation of the main camera 11, the imaging operation of the eye-view camera 12, the position and pan/tilt control of the robot arm 13a, and the location control of the base 13b. .

(ロケーション制御について)
ここで、図11を参照しながら、本実施形態に係るリモートカメラシステムにおけるカメラユニットのロケーション制御について説明する。図11は、本実施形態に係るリモートカメラシステムにおけるカメラユニットのロケーション制御について説明するための模式図である。
(About location control)
Here, location control of the camera unit in the remote camera system according to this embodiment will be described with reference to FIG. 11 . FIG. 11 is a schematic diagram for explaining location control of the camera unit in the remote camera system according to this embodiment.

図11には、出演者m1、…、m4、スタジオセットobj、tbl、scr、及びリアビューカメラ20a、20bが配置されたスタジオ内の様子が模式的に示されている。以下の説明において、表記を簡単にするため、カメラユニット10aをUN1、カメラユニット10bをUN2、リアビューカメラ20aをRVC1、リアビューカメラ20bをRVC2、メインカメラ11をMCと表記する場合がある。 FIG. 11 schematically shows the inside of a studio in which performers m1, . In the following description, for simplicity of notation, the camera unit 10a may be denoted by UN1, the camera unit 10b by UN2, the rear-view camera 20a by RVC1, the rear-view camera 20b by RVC2, and the main camera 11 by MC.

図11の例では、スタジオ内に5つのロケーション(LOC1、…、LOC5)が設定されている。LOC1、LOC2は、カメラ庫に設定されたロケーションである。例えば、ユニット制御部41は、ベース13bを制御し、移動経路MV13に沿って、LOC1に配置されていたUN1を撮影開始前にLOC3へと移動させる。同様に、ユニット制御部41は、移動経路MV25に沿って、LOC2に配置されていたUN2を撮影開始前にLOC5へと移動させる。 In the example of FIG. 11, five locations (LOC1, . . . , LOC5) are set in the studio. LOC1 and LOC2 are locations set in the camera warehouse. For example, the unit control section 41 controls the base 13b to move UN1 from LOC1 to LOC3 along the movement route MV13 before the start of imaging. Similarly, the unit control section 41 moves UN2 from LOC2 to LOC5 along the movement path MV25 before the start of imaging.

UN1、UN2の位置は、スタジオ内に設定された基準点s0を原点とする2次元座標系により表現されうる。以下の説明では、説明を簡単にするために、s0を原点とし、直交する2つの軸sX、sYで規定される座標系を想定し、この座標系の座標値を用いて、スタジオ内に設定されたロケーション、スタジオ内でのUN1、UN2のロケーション、及びRVC1、RVC2のロケーションを表現する場合がある。例えば、LOCn(n=1,…,5)は、座標値(sXn,sYn)で表現されうる。 The positions of UN1 and UN2 can be represented by a two-dimensional coordinate system whose origin is the reference point s0 set in the studio. In the following description, to simplify the description, a coordinate system defined by two orthogonal axes sX and sY with s0 as the origin is assumed, and the coordinate values of this coordinate system are used to set in the studio. , the location of UN1, UN2 within the studio, and the location of RVC1, RVC2. For example, LOCn (n=1, . . . , 5) can be represented by coordinate values (sXn, sYn).

ある時点におけるUNk(k=1,2)のロケーションを特定する方法としては、例えば、スタジオ内に電波を発信するステーションを配置し、UNkが受信する電波の強度に基づいて特定する方法がある。他の方法としては、UNkにGPS(Global Positioning System)ユニットを搭載し、GPSデータを利用してUNkのロケーションを特定する方法がある。さらに、UNkにモーションセンサを搭載し、モーションセンサの出力に基づいて移動経路を求め、現在のロケーションを特定する方法がある。また、リアビューカメラ20a、20bを利用し、UNkの画を含むリアビュー映像の映像解析により現在のロケーションを特定する方法がある。映像解析の方法としては、例えば、物体認識やトラッキングの技術などを適用することができる。また、映像解析の精度を高めるためにAI(Artificial Intelligence)技術が適用されてもよい。なお、ロケーションの特定方法は、これらの例に限定されず、任意の方法が適用されうる。 As a method of specifying the location of UNk (k=1, 2) at a certain point in time, for example, there is a method of placing a station that transmits radio waves in a studio and specifying it based on the strength of the radio waves received by UNk. Another method is to equip the UNk with a GPS (Global Positioning System) unit and use GPS data to identify the location of the UNk. Furthermore, there is a method of mounting a motion sensor on UNk, obtaining a moving route based on the output of the motion sensor, and identifying the current location. There is also a method of specifying the current location by video analysis of rear-view video including images of UNk using the rear-view cameras 20a and 20b. As a video analysis method, for example, object recognition or tracking technology can be applied. Also, AI (Artificial Intelligence) technology may be applied to improve the accuracy of video analysis. Note that the location specifying method is not limited to these examples, and any method can be applied.

ユニット制御部41は、上記のような方法によりUNkのロケーションを把握し、オペレータの操作に応じてUNkのロケーションを制御する。UN1、UN2のロケーションをリアルタイムに把握できることで、ユニット制御部41は、UN1、UN2の移動経路が交わらないように空間的及び時間的に両者の移動経路をずらして両者の衝突を避けたり、UN1、UN2がメイン映像が含まれることを避けたり、或いは、本来メイン映像に含まれるべきでない物体(例えば、レールや照明など)が含まれることを避けることもできる。ロケーションの制御は、オペレータによるリアルタイム操作により実行されてもよいし、事前にオペレータにより設定された制御内容(後述するプリセット及びシナリオ)に基づいて実行されてもよい。 The unit control section 41 grasps the location of UNk by the method described above, and controls the location of UNk according to the operation of the operator. By being able to grasp the locations of UN1 and UN2 in real time, the unit control section 41 can shift the movement routes of both spatially and temporally so that the movement routes of UN1 and UN2 do not intersect, thereby avoiding collision between the two. , UN2 can avoid including the main image, or avoid including objects that should not be included in the main image (eg, rails, lighting, etc.). The location control may be executed by an operator's real-time operation, or may be executed based on control contents (presets and scenarios described later) set in advance by the operator.

(TCP(Tool Center Point)設定について)
次に、図12(a)及び(b)を参照しながら、本実施形態に係るカメラユニットにおけるTCP設定について説明する。図12(a)は、本実施形態に係るカメラユニットにおけるTCP設定について説明するための模式図である。図12(b)は、本実施形態に係るカメラユニットにおけるTCP設定について説明するための模式図である。
(Regarding TCP (Tool Center Point) settings)
Next, TCP settings in the camera unit according to this embodiment will be described with reference to FIGS. FIG. 12A is a schematic diagram for explaining TCP settings in the camera unit according to this embodiment. FIG. 12B is a schematic diagram for explaining TCP settings in the camera unit according to this embodiment.

ロボットアーム13aが有する各関節の動き(各軸の回転角)は、コントロールボックス14が制御する。ロボットアーム13aには、TCPと呼ばれる参照点が設定されている。例えば、TCPは、ロボットアーム13aの先端部(メインカメラ11が接続される側の端部)付近に設定されている。コントロールボックス14は、TCPの変位を伝える制御信号に応じて、その変位に対応する各軸の回転角を特定し、特定した回転角だけロボットアーム13aの各軸を回転させる。つまり、TCPの位置を指定すれば、コントロールボックス14が自動的にロボットアーム13aを適切な形状に変形させる。 A control box 14 controls the movement of each joint (rotation angle of each axis) of the robot arm 13a. A reference point called TCP is set on the robot arm 13a. For example, the TCP is set near the tip of the robot arm 13a (the end to which the main camera 11 is connected). The control box 14 specifies the rotation angle of each axis corresponding to the displacement according to the control signal that conveys the displacement of the TCP, and rotates each axis of the robot arm 13a by the specified rotation angle. In other words, if the position of the TCP is designated, the control box 14 automatically transforms the robot arm 13a into an appropriate shape.

TCPの位置は変更可能である。リモートカメラシステム5では、メインカメラ11(MC)の撮像素子上に設定された代表点とロボットアーム13aのTCPとが一致するようにTCPの位置を設定する。 The position of TCP can be changed. In the remote camera system 5, the position of the TCP is set so that the representative point set on the imaging element of the main camera 11 (MC) and the TCP of the robot arm 13a match.

例えば、図12(a)に示すように、ロボットアーム13aに予め設定されているTCP(TCP0)をMCの撮像素子IS1上の点TCP1に変更する。TCP1は、撮像素子IS1と、レンズ系LS1の光軸AXとの交点である。ロボットアーム13aのTCPをTCP1に設定することで、オペレータは、TCP1を基準にMCのポジションを動かすことが可能になる。つまり、オペレータがMCの像平面を基準にMCを動かすことになり、より直感的な操作感をもたらすことができる。 For example, as shown in FIG. 12(a), the TCP (TCP0) preset in the robot arm 13a is changed to the point TCP1 on the image sensor IS1 of MC. TCP1 is the intersection of the image sensor IS1 and the optical axis AX of the lens system LS1. By setting the TCP of the robot arm 13a to TCP1, the operator can move the MC position based on TCP1. In other words, the operator moves the MC with reference to the image plane of the MC, which provides a more intuitive feeling of operation.

通常、MCの筐体底面に設けられる接続部(例えば、ネジ穴)は、光軸AXの直上に設けられる。また、フランジ面から撮像素子IS1までの距離FB1は既知である。そのため、TCP0とTCP1との間の光軸AX上の距離d11は容易に得られる。また、光軸AXはレンズ系LS1の中心を通るため、光軸AXとTCP0との間の距離d12も容易に得られる。図12(b)に示すように、MCの種類が変わっても、同様の方法で、TCP0と変更後のTCP(TCP2)との位置関係は容易に得られる。 Normally, a connecting portion (for example, a screw hole) provided on the bottom surface of the casing of the MC is provided directly above the optical axis AX. Also, the distance FB1 from the flange surface to the image sensor IS1 is known. Therefore, the distance d11 on the optical axis AX between TCP0 and TCP1 can be easily obtained. Also, since the optical axis AX passes through the center of the lens system LS1, the distance d12 between the optical axis AX and TCP0 can be easily obtained. As shown in FIG. 12(b), even if the type of MC changes, the positional relationship between TCP0 and the changed TCP (TCP2) can be easily obtained by the same method.

ロボットアーム13aにおけるTCP0と変更後のTCPとの位置関係を示す情報は、TCP設定情報48aとして記憶部48に予め格納されてよい。TCP設定情報48aは、例えば、図13に示すような情報を含む。図13は、本実施形態に係るTCP設定情報について説明するための図表である。 Information indicating the positional relationship between TCP0 and the changed TCP in the robot arm 13a may be stored in advance in the storage unit 48 as the TCP setting information 48a. The TCP setting information 48a includes, for example, information as shown in FIG. FIG. 13 is a chart for explaining TCP setting information according to this embodiment.

図12(a)及び(b)に示すように、光軸AXをcY軸、撮像素子の行方向をcZ軸、撮像素子の列方向をcX軸とする座標系を考えると、TCP0と変更後のTCPとの位置関係を示すTCP移動量は、主にcY軸に沿った変位dcY及びcZ軸に沿った変位dcZにより表現されうる。TCP0が光軸AXの直下にない場合、TCP移動量は、cX軸に沿った変位dcXを含む。 As shown in FIGS. 12A and 12B, considering a coordinate system in which the optical axis AX is the cY axis, the row direction of the image sensor is the cZ axis, and the column direction of the image sensor is the cX axis, TCP0 and The amount of TCP movement, which indicates the positional relationship between , and TCP, can be expressed mainly by the displacement dcY along the cY axis and the displacement dcZ along the cZ axis. If TCP0 is not directly under the optical axis AX, then the TCP displacement includes the displacement dcX along the cX axis.

ユニット制御部41は、TCP設定情報48aを参照し、UNkに含まれるMCの種類に応じたTCP移動量を特定し、特定したTCP移動量をUNkのコントロールボックス14に伝えてTCPの位置を変更する。これにより、MCの種類が変更されても、オペレータは、MCの像平面を基準にMCのポジションを動かすことができる。つまり、オペレータは、MCの種類を意識することなく、また、ロボットアーム13aの動きを意識することなく、直感的にMCのポジションを制御することが可能になる。 The unit control unit 41 refers to the TCP setting information 48a, identifies the TCP movement amount corresponding to the type of MC included in UNk, and transmits the identified TCP movement amount to the control box 14 of UNk to change the position of TCP. do. Thereby, even if the type of MC is changed, the operator can move the position of MC with reference to the image plane of MC. In other words, the operator can intuitively control the position of the MC without being conscious of the type of MC and without being conscious of the movement of the robot arm 13a.

また、ロボットアーム13aは、図14(a)及び(b)に示すように、変更後のTCPを基準にMCのパン・チルトを変えることができる。図14(a)は、本実施形態に係るカメラユニットのチルト制御について説明するための模式図である。図14(b)は、本実施形態に係るカメラユニットのパン制御について説明するための模式図である。以下、変更後のTCPを単にTCPと表記する場合がある。また、cX軸を回転軸とするチルト方向の回転角をθx、cZ軸を回転軸とするパン方向の回転角をθzと表記する。 Further, the robot arm 13a can change the pan/tilt of the MC based on the changed TCP, as shown in FIGS. 14(a) and 14(b). FIG. 14A is a schematic diagram for explaining tilt control of the camera unit according to this embodiment. FIG. 14B is a schematic diagram for explaining pan control of the camera unit according to this embodiment. Hereinafter, TCP after change may be simply referred to as TCP. Also, the rotation angle in the tilt direction with the cX axis as the rotation axis is denoted by θx, and the rotation angle in the pan direction with the cZ axis as the rotation axis is denoted by θz.

図14(a)及び(b)に示すように、光軸と撮像素子との交点に設定されたTCPを基準にMCをパン・チルトすると像平面をその場で傾けていることになる。そのため、オペレータは、MCの種類を意識することなく、また、ロボットアーム13aの動きを意識することなく、直感的にMCのパン・チルトを制御することが可能になる。 As shown in FIGS. 14A and 14B, when the MC is panned and tilted with reference to the TCP set at the intersection of the optical axis and the image sensor, the image plane is tilted on the spot. Therefore, the operator can intuitively control the panning and tilting of the MC without being conscious of the type of MC and without being conscious of the movement of the robot arm 13a.

(座標系の整理)
ここで、図15を参照しながら、本実施形態に係るカメラユニット及びメインカメラの動きを規定するスタジオ座標系、ユニット座標系及びカメラ座標系の関係について整理する。図15は、本実施形態に係るカメラユニットの動きを規定することが可能なスタジオ座標系、ユニット座標系及びカメラ座標系の関係について説明するための説明図である。
(Arrangement of coordinate system)
Here, with reference to FIG. 15, the relationships among the studio coordinate system, the unit coordinate system, and the camera coordinate system that define the movements of the camera unit and the main camera according to this embodiment will be summarized. FIG. 15 is an explanatory diagram for explaining the relationship among the studio coordinate system, the unit coordinate system, and the camera coordinate system that can define the movement of the camera unit according to this embodiment.

以下、上述したsX軸及びsY軸で規定される座標系を「スタジオ座標系」と呼ぶことにする。また、上述したcX軸、cY軸、cZ軸で規定される座標系を「カメラ座標系」と呼ぶことにする。カメラ座標系の原点OcはTCPの位置とする。さらに、UNk(k=1,2)のロケーションを示す座標点を原点とし、スタジオ座標系に直交する軸をuZ軸、uZ軸に直交する一の軸をuX軸、uZ軸及びuX軸に直交する他の軸をuY軸とする「ユニット座標系」を導入する。UNkについてのユニット座標系の原点Ouは、UNkのロケーションとする。 Hereinafter, the coordinate system defined by the sX-axis and sY-axis described above will be referred to as a "studio coordinate system". Also, the coordinate system defined by the cX-axis, cY-axis, and cZ-axis described above will be called a "camera coordinate system". The origin Oc of the camera coordinate system is the position of the TCP. Further, the coordinate point indicating the location of UNk (k = 1, 2) is the origin, the axis orthogonal to the studio coordinate system is the uZ axis, one axis orthogonal to the uZ axis is the uX axis, and the uZ axis and the uX axis are orthogonal. Introduce a “unit coordinate system” in which the uY axis is the other axis that Let the origin Ou of the unit coordinate system for UNk be the location of UNk.

図15に示すように、ユニット座標系を導入すると、UNkのロケーションと、TCPとの位置関係をユニット座標系の座標点(uX,uY,uZ)で表現することができる。つまり、TCPの移動は、ユニット座標系におけるTCPの移動として表現されうる。また、TCPを基準とするMCのパン・チルト制御は、カメラ座標系における光軸方向の移動として表現されうる。光軸方向は、例えば、カメラ座標系の原点Ocから光軸に沿って物体側へ延びる単位ベクトルで表現されうる。 As shown in FIG. 15, when the unit coordinate system is introduced, the positional relationship between the location of UNk and TCP can be represented by the coordinate points (uX, uY, uZ) of the unit coordinate system. That is, the movement of TCP can be expressed as the movement of TCP in the unit coordinate system. Also, MC pan/tilt control based on TCP can be expressed as movement in the optical axis direction in the camera coordinate system. The optical axis direction can be expressed, for example, by a unit vector extending from the origin Oc of the camera coordinate system to the object side along the optical axis.

UNkのロケーション変更は、スタジオ座標系におけるロケーション座標の変更として表現されることから、ユニット制御部41は、スタジオ座標系の座標点を指示してUNkのロケーションを制御し、ユニット座標系の座標点を指示してMCのTCPを制御し、カメラ座標系の座標点を指定してMCのパン・チルトを制御することができる。このように、TCPという一点を基準にMCの位置や姿勢を制御することで、UNkの構成が変わっても同じ仕組みで、同じ位置から同じ向きにカメラを向けることが可能になる。 A change in the location of UNk is expressed as a change in location coordinates in the studio coordinate system. is designated to control the TCP of the MC, and a coordinate point of the camera coordinate system is designated to control the pan/tilt of the MC. In this way, by controlling the position and attitude of MC based on one point, TCP, it is possible to point the camera in the same direction from the same position with the same mechanism even if the structure of UNk changes.

(三面独立制御について)
上記のように、モーションユニット13の適用によりTCPを三次元的に移動させ、MCの位置を自由に動かすことができる。しかし、オペレータがMCの動きを把握しやすくする観点から、リモートカメラシステム5は、図16(a)~図18(b)に示すような制御の仕組み(以下、三面独立制御)を備えてもよい。この仕組みは、TCPをuX-uZ面内で移動させる第1の操作(図16(a)及び(b))と、uY-uZ面内で移動させる第2の操作(図17(a)及び(b))と、uX-uY面内で移動させる第3の操作(図18(a)及び(b))とを分離する。以下、第1の操作、第2の操作、第3の操作について順に説明する。
(Regarding three-sided independent control)
As described above, by applying the motion unit 13, the TCP can be moved three-dimensionally and the position of the MC can be freely moved. However, from the viewpoint of making it easier for the operator to grasp the movement of the MC, the remote camera system 5 may be provided with a control mechanism (hereinafter referred to as three-plane independent control) as shown in FIGS. 16(a) to 18(b). good. This mechanism consists of a first operation (FIGS. 16(a) and (b)) for moving the TCP within the uX-uZ plane, and a second operation (FIGS. 17(a) and 17(a) for moving the TCP within the uY-uZ plane. (b)) and the third operation (FIGS. 18(a) and (b)) of moving in the uX-uY plane. The first operation, the second operation, and the third operation will be described below in order.

図16(a)には、uX-uZ面内の4つのポジション(POS11、…、POS14)を通るようにMCが動いている様子が模式的に示されている。また、図16(b)には、操作インターフェース301と、操作インターフェース301のうち、第1の操作に用いる第1の操作領域(uZ-uX OPERATION)を操作する操作体302とが示されている。図16(a)は、本実施形態に係るカメラユニットのポジション(TCP)制御について説明するための模式図である。図16(b)は、本実施形態に係るカメラユニットのポジション(TCP)制御に利用可能な操作手段について説明するための模式図である。 FIG. 16(a) schematically shows how the MC moves so as to pass through four positions (POS11, . . . , POS14) in the uX-uZ plane. FIG. 16(b) also shows an operation interface 301 and an operation body 302 for operating a first operation area (uZ-uX OPERATION) of the operation interface 301, which is used for the first operation. . FIG. 16A is a schematic diagram for explaining the position (TCP) control of the camera unit according to this embodiment. FIG. 16B is a schematic diagram for explaining operation means that can be used for position (TCP) control of the camera unit according to this embodiment.

第1の操作領域はuZ-uX面に対応し、図16(b)に示すように、操作体302により第1の操作領域を操作すると、図16(a)に示すように、その操作に追従してTCPが移動する。図16(b)の例では、左回りに円を描くように操作体302が移動しているため、これに追従してTCPもuZ-uX面内で左回りに移動している。このように、第1の操作領域を独立させることで、MCの動きをuZ-uX面内に制限することができる。MCの動きがuZ-uX面内に制限されることで、オペレータは、MCが光軸に垂直な面内で移動していることを認識しつつ安心して操作を行うことができる。 The first operation area corresponds to the uZ-uX plane, and as shown in FIG. 16(b), when the operation body 302 operates the first operation area, as shown in FIG. TCP moves accordingly. In the example of FIG. 16(b), since the operating body 302 moves in a counterclockwise circle, the TCP also moves counterclockwise in the uZ-uX plane following this movement. Thus, by making the first operation area independent, the movement of MC can be restricted within the uZ-uX plane. By restricting the movement of the MC within the uZ-uX plane, the operator can perform the operation without anxiety while recognizing that the MC is moving within the plane perpendicular to the optical axis.

図17(a)には、uY-uZ面内の4つのポジション(POS21、…、POS24)を通るようにMCが動いている様子が模式的に示されている。また、図17(b)には、操作インターフェース301と、操作インターフェース301のうち、第2の操作に用いる第2の操作領域(uY-uZ OPERATION)を操作する操作体302とが示されている。図17(a)は、本実施形態に係るカメラユニットのポジション(TCP)制御について説明するための模式図である。図17(b)は、本実施形態に係るカメラユニットのポジション(TCP)制御に利用可能な操作手段について説明するための模式図である。 FIG. 17(a) schematically shows how MC moves so as to pass through four positions (POS21, . . . , POS24) in the uY-uZ plane. FIG. 17(b) also shows an operation interface 301 and an operation body 302 for operating a second operation area (uY-uZ OPERATION) of the operation interface 301, which is used for the second operation. . FIG. 17A is a schematic diagram for explaining the position (TCP) control of the camera unit according to this embodiment. FIG. 17B is a schematic diagram for explaining operating means that can be used for position (TCP) control of the camera unit according to this embodiment.

第2の操作領域はuY-uZ面に対応し、図17(b)に示すように、操作体302により第2の操作領域を操作すると、図17(a)に示すように、その操作に追従してTCPが移動する。図17(b)の例では、左回りに円を描くように操作体302が移動しているため、これに追従してTCPもuY-uZ面内で左回りに移動している。このように、第2の操作領域を独立させることで、MCの動きをuY-uZ面内に制限することができる。MCの動きがuY-uZ面内に制限されることで、オペレータは、MCが光軸を含む垂直面内で移動していることを認識しつつ安心して操作を行うことができる。 The second operation area corresponds to the uYuZ plane, and as shown in FIG. 17(b), when the operation body 302 operates the second operation area, as shown in FIG. TCP moves accordingly. In the example of FIG. 17(b), since the operating body 302 moves in a counterclockwise circle, the TCP also moves counterclockwise in the uY-uZ plane following this movement. Thus, by making the second operation area independent, the movement of MC can be restricted within the uY-uZ plane. By restricting the movement of the MC within the uY-uZ plane, the operator can safely perform operations while recognizing that the MC is moving within the vertical plane including the optical axis.

図18(a)には、uX-uY面内の4つのポジション(POS31、…、POS34)を通るようにMCが動いている様子が模式的に示されている。また、図18(b)には、操作インターフェース301と、操作インターフェース301のうち、第3の操作に用いる第3の操作領域(uX-uY OPERATION)を操作する操作体302とが示されている。図18(a)は、本実施形態に係るカメラユニットのポジション(TCP)制御について説明するための模式図である。図18(b)は、本実施形態に係るカメラユニットのポジション(TCP)制御に利用可能な操作手段について説明するための模式図である。 FIG. 18(a) schematically shows how MC moves so as to pass through four positions (POS31, . . . , POS34) in the uX-uY plane. FIG. 18(b) also shows an operation interface 301 and an operation body 302 for operating a third operation area (uX-uY OPERATION) of the operation interface 301, which is used for the third operation. . FIG. 18A is a schematic diagram for explaining the position (TCP) control of the camera unit according to this embodiment. FIG. 18B is a schematic diagram for explaining operating means that can be used for position (TCP) control of the camera unit according to this embodiment.

第3の操作領域はuX-uY面に対応し、図18(b)に示すように、操作体302により第3の操作領域を操作すると、図18(a)に示すように、その操作に追従してTCPが移動する。図18(b)の例では、左回りに円を描くように操作体302が移動しているため、これに追従してTCPもuX-uY面内で左回りに移動している。このように、第3の操作領域を独立させることで、MCの動きをuX-uY面内に制限することができる。MCの動きがuX-uY面内に制限されることで、オペレータは、MCが光軸を含む水平面内で移動していることを認識しつつ安心して操作を行うことができる。 The third operation area corresponds to the uX-uY plane, and as shown in FIG. 18(b), when the operation body 302 operates the third operation area, as shown in FIG. TCP moves accordingly. In the example of FIG. 18(b), since the operating body 302 moves in a counterclockwise circle, the TCP also moves counterclockwise within the uX-uY plane following this movement. Thus, by making the third operation area independent, the movement of MC can be restricted within the uX-uY plane. By restricting the movement of the MC within the uX-uY plane, the operator can perform operations without worry while recognizing that the MC is moving within the horizontal plane including the optical axis.

なお、操作インターフェース301は、オペレータシステム30a、30bに表示されるGUI(Graphical User Interface)であってもよいし、後述するコントローラの操作系であってもよい。コントローラの操作系に第1~第3の操作を独立して割り当てる場合、図16(b)、図17(b)、及び図18(b)に示した操作領域とは異なり、物理的な操作手段に第1~第3の操作がそれぞれ割り当てられる。操作インターフェース301の機能を提供する操作系については後段でさらに説明する。 The operation interface 301 may be a GUI (Graphical User Interface) displayed on the operator systems 30a and 30b, or may be an operation system of a controller to be described later. When the first to third operations are independently assigned to the operation system of the controller, unlike the operation areas shown in FIGS. First to third operations are assigned to the means. An operation system that provides the functions of the operation interface 301 will be further described later.

(三面独立制御の変形例)
上記の説明では、ユニット座標系を規定する3つの軸のうち2つの軸で形成される3つの面内の動きをそれぞれ独立して制御する操作系について説明したが、カメラ座標系の3つの軸に置き換えて同様の操作系を実現することも可能である。この場合、上記のuXをcX、uYをcY、uZをcZと置き換えることで、カメラ座標系を基準とする三面独立制御が実現されうる。
(Modified example of three-plane independent control)
In the above description, an operation system that independently controls movements within three planes formed by two of the three axes that define the unit coordinate system has been described. It is also possible to realize a similar operation system by replacing with In this case, by replacing uX with cX, uY with cY, and uZ with cZ, three-plane independent control based on the camera coordinate system can be realized.

さらに、光軸に垂直な第1の面、メインカメラの上方向(例えば、撮像素子の列方向)を示す軸と光軸とを含む第2の面、その軸及び光軸に直交する他の軸と光軸とを含む第3の面を想定し、第1の面内での動き、第2の面内での動き、第3の面内での動きを独立して制御する操作系を実現することも可能である。例えば、上記のuZ-uX面を第1の面、uY-uZ面を第2の面、uX-uY面を第3の面に置き換えれば、上述した三面独立制御の仕組みをそのまま応用することができる。これらの変形例についても当然に本実施形態の技術的範囲に属する。 Furthermore, a first plane perpendicular to the optical axis, a second plane including an axis indicating the upward direction of the main camera (for example, the column direction of the image sensor) and the optical axis, and another plane perpendicular to the axis and the optical axis Assuming a third plane containing the axis and the optical axis, an operation system that independently controls movement within the first plane, movement within the second plane, and movement within the third plane. Realization is also possible. For example, if the uZ-uX plane is replaced with the first plane, the uY-uZ plane with the second plane, and the uX-uY plane with the third plane, the three-plane independent control mechanism described above can be applied as it is. can. These modifications also naturally belong to the technical scope of the present embodiment.

(固定点基準での移動制御について)
次に、図19を参照しながら、本実施形態に係る固定点(eTCP)基準でのカメラユニットの移動制御について説明する。図19は、本実施形態に係る固定点(eTCP)基準でのカメラユニットの移動制御について説明するための模式図である。
(Regarding movement control based on fixed points)
Next, movement control of the camera unit based on a fixed point (eTCP) according to this embodiment will be described with reference to FIG. FIG. 19 is a schematic diagram for explaining movement control of the camera unit based on a fixed point (eTCP) according to this embodiment.

MCの移動を制限する方法としては、図19に示すように、ターゲットとなる固定点(eTCP)を設定し、光軸がeTCPを通り、TCPがeTCPを中心とする円軌道を描くように制御する方法がある。この方法を適用する場合、ユニット制御部41は、カメラ座標系の原点Ocを上記の円軌道に沿って移動させながら、光軸を示す単位ベクトルがeTCPを指し示すようにカメラ座標系内のパン角θzを制御する。図19の例では、説明の都合上、MCが二次元的に移動する様子を示しているが、eTCPを中心とする球面上を自由に動かすこともできる。この場合、カメラ座標系内のパン角θzだけでなく、チルト角θxも制御されうる。この制御方法によれば、eTCPの位置にある被写体を様々な角度から容易に撮影できる。 As a method of restricting the movement of MC, as shown in FIG. 19, a fixed point (eTCP) as a target is set, the optical axis passes through eTCP, and TCP is controlled to draw a circular orbit centered on eTCP. There is a way. When this method is applied, the unit control section 41 moves the origin Oc of the camera coordinate system along the above-described circular orbit, and adjusts the pan angle in the camera coordinate system so that the unit vector indicating the optical axis points to eTCP. Control θz. In the example of FIG. 19, for convenience of explanation, the MC is shown moving two-dimensionally, but it can also be moved freely on a spherical surface centered on eTCP. In this case, not only the pan angle θz in the camera coordinate system but also the tilt angle θx can be controlled. According to this control method, the object located at the eTCP position can be easily photographed from various angles.

以上説明したように、ユニット制御部41は、カメラユニット10a、10bのロケーションを制御し、TCPを動かしてメインカメラ11のポジションを制御し、さらに、TCPを通る軸を回転軸としてメインカメラ11をパン・チルト制御する。この仕組みにより、より直感的な操作系を実現することができる。また、メインカメラ11の位置及び向きがスタジオ座標系、ユニット座標系、及びカメラ座標系における座標値で特定できるため、これらの座標値を指定することで、特定の撮影状況を再現することが可能になる。 As described above, the unit control section 41 controls the locations of the camera units 10a and 10b, moves the TCP to control the position of the main camera 11, and rotates the main camera 11 with the axis passing through the TCP as the rotation axis. Pan/tilt control. With this mechanism, a more intuitive operation system can be realized. In addition, since the position and orientation of the main camera 11 can be specified by coordinate values in the studio coordinate system, unit coordinate system, and camera coordinate system, it is possible to reproduce a specific shooting situation by specifying these coordinate values. become.

再び図10を参照する。メイン映像出力部42は、メインカメラ11から出力されるメイン映像の映像信号を処理し、メイン映像をオペレータシステム30a、30bに提供する。例えば、メイン映像出力部42は、メイン映像の解像度を下げるダウンコンバージョン処理や映像信号の圧縮処理を実行し、処理後のメイン映像をオペレータシステム30a、30bに提供してもよい。これらの処理により、制御システム40からオペレータシステム30a、30bへとメイン映像を伝送する際の負荷が低減されうる。また、オペレータシステム30a、30bにおけるメイン映像の表示処理における負荷が低減されうる。 Refer to FIG. 10 again. The main video output unit 42 processes the video signal of the main video output from the main camera 11 and provides the main video to the operator systems 30a and 30b. For example, the main video output unit 42 may perform down-conversion processing to lower the resolution of the main video or compression processing of the video signal, and provide the processed main video to the operator systems 30a and 30b. These processes can reduce the load when transmitting the main video from the control system 40 to the operator systems 30a and 30b. Also, the load on the main video display processing in the operator systems 30a and 30b can be reduced.

(アイビュー映像について)
アイビュー提供部43は、アイビューカメラ12から出力される映像を処理し、処理後の映像をアイビュー映像としてオペレータシステム30a、30bに提供する。例えば、アイビュー提供部43は、オペレータシステム30aを利用してカメラユニット10aを操作しているオペレータの視線方向を示す情報を取得し、アイビューカメラ12の出力映像のうち視線方向に対応する範囲(以下、視線範囲)の映像を切り出す。そして、アイビュー提供部43は、切り出した映像をアイビュー映像としてオペレータシステム30aに提供する。
(About eye view image)
The eye-view providing unit 43 processes the image output from the eye-view camera 12 and provides the processed image as an eye-view image to the operator systems 30a and 30b. For example, the eye-view providing unit 43 acquires information indicating the line-of-sight direction of the operator who is operating the camera unit 10a using the operator system 30a, and determines the range corresponding to the line-of-sight direction in the output image of the eye-view camera 12. (hereinafter referred to as line-of-sight range) is cut out. Then, the eye-view providing unit 43 provides the cut-out image as an eye-view image to the operator system 30a.

アイビューカメラ12の出力映像が全方位映像である場合、アイビュー提供部43は、図20に示すような方法でアイビュー映像を切り出す。図20は、本実施形態に係るアイビューの制御について説明するための模式図である。 When the output image of the eye-view camera 12 is an omnidirectional image, the eye-view providing unit 43 cuts out the eye-view image by the method shown in FIG. FIG. 20 is a schematic diagram for explaining eye view control according to the present embodiment.

図20に示すように、全方位映像は、アイビューカメラ12の位置を中心とする天球面43a(仮想球面)に投影される映像とみなすことができる。天球面43aの中心を原点し、互いに直交するeX軸、eY軸、eZ軸で規定される座標系を設定し、eY軸を視線方向の基準となる正面、eZ軸をオペレータの頭頂に設定すると、視線方向は、天球面43aの一点(視線43c)を指す単位ベクトルで表現されうる。なお、図20の例では、eY軸が光軸AXに一致するように設定されている。 As shown in FIG. 20, the omnidirectional image can be regarded as an image projected onto a celestial sphere 43a (virtual spherical surface) centered on the position of the eye view camera 12. FIG. A coordinate system defined by mutually orthogonal eX, eY, and eZ axes is set with the center of the celestial sphere 43a as the origin. , the line-of-sight direction can be expressed by a unit vector pointing to one point (line-of-sight 43c) on the celestial sphere 43a. In addition, in the example of FIG. 20, the eY axis is set to coincide with the optical axis AX.

人間の視野は上側に約60°、下側に約70°、耳側に約100°であり、視線43cの方向を見ているオペレータには、視線43cの上側(+eZに向かう方向)に約70°、下側(-eZに向かう方向)に約60°、右側/左側(+eX/-eXに向かう方向)に約100°の範囲が見える。そこで、視界範囲43bを規定する角度L、Hは、人間の視野に合わせてL=130°、H=200°に設定されてよい。また、Hは、水平視野の安定注視野に相当する60°~90°、Lは、垂直視野の安定注視野に相当する45°~70°の範囲に設定されてよい。 The human visual field is approximately 60 degrees upward, approximately 70 degrees downward, and approximately 100 degrees toward the ear. A range of 70°, down (towards -eZ) about 60°, right/left (towards +eX/-eX) about 100° is visible. Therefore, the angles L and H defining the field of view range 43b may be set to L=130° and H=200° in accordance with the human visual field. Also, H may be set in the range of 60° to 90°, which corresponds to the stable field of fixation in the horizontal field of view, and L may be set in the range of 45° to 70°, which corresponds to the stable field of fixation in the vertical field of view.

オペレータがHMD(Head Mounted Display)やスマートグラスのような頭部装着型のデバイスを装着し、そのデバイスにモーションセンサが搭載されている場合には、モーションセンサの出力に基づいてオペレータの視線方向を推定することができる。また、オペレータの顔を正面から撮影し、画像処理により視線検知することでオペレータの視線方向を推定することができる。これらの推定結果が制御システム40にリアルタイムで入力される仕組みを適用すれば、オペレータの視線に視界範囲43bを追従させることができる。 When the operator wears a head-mounted device such as HMD (Head Mounted Display) or smart glasses and the device is equipped with a motion sensor, the operator's line of sight direction is determined based on the output of the motion sensor. can be estimated. In addition, the direction of the operator's line of sight can be estimated by photographing the face of the operator from the front and detecting the line of sight by image processing. By applying a mechanism in which these estimation results are input to the control system 40 in real time, the visual field range 43b can be made to follow the line of sight of the operator.

アイビューカメラ12はカメラマンの目線が位置する場所の近傍に設置されるため、視界範囲43bを切り出した映像をオペレータに提供することで、オペレータは、実際にスタジオ内でメインカメラ11を操作している仮想カメラマンの視界を得ることができる。 Since the eye-view camera 12 is installed near the location where the cameraman's line of sight is located, the operator can actually operate the main camera 11 in the studio by providing the operator with an image obtained by clipping the field of view 43b. You can get the view of the virtual cameraman who is there.

(リアビュー映像について)
リアビュー提供部44は、リアビューカメラ20a、20bから出力されるリアビュー映像の映像信号を処理し、リアビュー映像をオペレータシステム30a、30bに提供する。また、リアビュー提供部44は、オペレータの操作に応じてリアビューカメラ20a、20bのパン・チルト・ズームを制御してもよい。
(About rear view video)
The rearview providing unit 44 processes video signals of the rearview images output from the rearview cameras 20a and 20b and provides the rearview images to the operator systems 30a and 30b. In addition, the rear-view providing unit 44 may control pan/tilt/zoom of the rear-view cameras 20a and 20b according to the operator's operation.

リアビューカメラ20a、20bは、カメラユニット10a、10bを後方から撮影し、オペレータがカメラユニット10a、10bの状態を確認できるようにするためのリアビュー映像を提供するカメラである。そのため、自らが操作しているカメラユニットが映っていないリアビュー映像が提供されても、オペレータは、そのリアビュー映像からカメラユニットの状態を把握することはできない。そこで、リアビュー提供部44は、カメラユニット10a、10bのロケーションと、リアビューカメラ20a、20bのロケーションとの関係を利用して、どのリアビュー映像をどのオペレータに提供するかを判断してもよい。 The rear-view cameras 20a and 20b are cameras that photograph the camera units 10a and 10b from behind and provide rear-view images so that the operator can check the states of the camera units 10a and 10b. Therefore, even if the operator is provided with a rear-view image that does not show the camera unit being operated by the operator, the operator cannot grasp the state of the camera unit from the rear-view image. Therefore, the rear-view providing section 44 may use the relationship between the locations of the camera units 10a and 10b and the locations of the rear-view cameras 20a and 20b to determine which rear-view video to provide to which operator.

ここで図11を参照し、図11に示した状況を例にリアビュー映像の提供先を判断する方法について説明する。図11の例では、スタジオ内にRVC1、RVC2が設置されている。また、LOC3にUN1が、LOC5にUN2が配置されている。RVC1はLOC3の後方に位置しており、図21に示すように、LOC3にあるUN1を後方から撮影することができる。図21は、本実施形態に係るリアビューの制御について説明するための模式図である。しかし、LOC5にあるUN2はRVC1の画角に入らない。RVC2はLOC5の後方に位置しており、LOC3にあるUN1はRVC2の画角に入らない。 Here, with reference to FIG. 11, a method for determining the destination of the rear-view video will be described using the situation shown in FIG. 11 as an example. In the example of FIG. 11, RVC1 and RVC2 are installed in the studio. In addition, UN1 is arranged in LOC3, and UN2 is arranged in LOC5. RVC1 is located behind LOC3, and as shown in FIG. 21, UN1 at LOC3 can be imaged from behind. FIG. 21 is a schematic diagram for explaining rear view control according to the present embodiment. However, UN2 at LOC5 does not fall within the angle of view of RVC1. RVC2 is positioned behind LOC5, and UN1 in LOC3 does not enter the angle of view of RVC2.

例えば、オペレータシステム30aでUN1が操作され、オペレータシステム30bでUN2が操作されている場合、リアビュー提供部44は、RVC1から出力されるリアビュー映像をオペレータシステム30aに提供し、RVC2から出力されるリアビュー映像をオペレータシステム30bに提供する。仮に、RVC1、RVC2のいずれもがLOC4にあるUNを捉えることができる状況にあるとき、リアビュー提供部44は、そのUNの全体を映しているRVCの出力、或いは、そのUNをより大きく映しているRVCの出力をオペレータに提供してもよい。 For example, when UN1 is operated by the operator system 30a and UN2 is operated by the operator system 30b, the rear view providing unit 44 provides the rear view image output from the RVC1 to the operator system 30a, and the rear view image output from the RVC2. The video is provided to the operator system 30b. If both RVC1 and RVC2 are in a situation where they can capture the UN at LOC4, the rear view providing unit 44 displays the output of the RVC that displays the entire UN or displays the UN in a larger size. The operator may be provided with the output of the RVC that is present.

(コミュニケーションツールについて)
再び図10を参照する。通信ツール提供部45は、カメラユニット10a、10bを操作するオペレータ同士、或いは、撮影作業に関わる他のスタッフとオペレータとの間で音声又はテキストによる意思疎通を図るためのコミュニケーションツールを提供する。例えば、通信ツール提供部45は、オペレータシステム30a、30bの間で文字情報をやり取りするためのチャットツールを提供する。また、通信ツール提供部45は、オペレータシステム30a、30bの間でやり取りされた文字情報を通信ログ48fとして記憶部48に格納してもよい。
(About communication tools)
Refer to FIG. 10 again. The communication tool providing unit 45 provides a communication tool for communicating by voice or text between the operators who operate the camera units 10a and 10b, or between the operator and other staff involved in the imaging work. For example, the communication tool providing unit 45 provides a chat tool for exchanging character information between the operator systems 30a and 30b. Further, the communication tool providing unit 45 may store character information exchanged between the operator systems 30a and 30b in the storage unit 48 as a communication log 48f.

(プリセット・シナリオ・リアルタイム操作について)
カメラワーク実行部46は、オペレータシステム30a、30bによる操作に応じて、ユニット制御部41にカメラワークを指示し、ユニット制御部41を介してカメラユニット10a、10bを制御する。カメラワーク実行部46は、プリセット実行部46a、シナリオ実行部46b、及びリアルタイム操作部46cを有する。
(Regarding presets, scenarios, and real-time operations)
The camerawork execution section 46 instructs the unit control section 41 to perform camerawork in response to operations by the operator systems 30a and 30b, and controls the camera units 10a and 10b via the unit control section 41. FIG. The camerawork execution unit 46 has a preset execution unit 46a, a scenario execution unit 46b, and a real-time operation unit 46c.

プリセット実行部46aは、ロケーション、ポジション、パン・チルト、及びメインカメラ11の設定情報を含むプリセットDB48bに基づいてカメラユニット10a、10bの動作を制御する。プリセットDB48bは、図22及び図23に示すような内容を含む。図22は、本実施形態に係るプリセット情報について説明するための第1の図表である。図23は、本実施形態に係るプリセット情報について説明するための第2の図表である。 The preset executing section 46 a controls the operations of the camera units 10 a and 10 b based on the preset DB 48 b including location, position, pan/tilt, and setting information of the main camera 11 . The preset DB 48b includes contents as shown in FIGS. 22 and 23. FIG. FIG. 22 is a first chart for explaining preset information according to this embodiment. FIG. 23 is a second chart for explaining the preset information according to this embodiment.

図22に示すように、プリセットDB48bには、プリセット番号(PRESET NUMBER)と、ロケーション情報(LOCATION)と、メインカメラの位置決め情報(POSITIONING)と、ズーム(ZOOM)の情報と、サムネイルとが含まれる。 As shown in FIG. 22, the preset DB 48b includes a preset number (PRESET NUMBER), location information (LOCATION), main camera positioning information (POSITIONING), zoom information, and thumbnails. .

プリセット番号は、個々のプリセット情報を識別するための識別番号である。ロケーション情報は、カメラユニットが配置されるロケーションの情報を含む。例えば、ロケーション情報は、ロケーションを識別するための識別情報と、そのロケーションに対応するスタジオ座標系の座標値とが含まれてよい。 The preset number is an identification number for identifying individual preset information. The location information includes information on the location where the camera unit is arranged. For example, the location information may include identification information for identifying the location and coordinate values of the studio coordinate system corresponding to the location.

メインカメラの位置決め情報は、TCPの座標情報を含む。TCPは、対応するユニット座標系の座標値で表現されうる。パン・チルト角は、TCPを原点とするカメラ座標系のcX軸を回転軸とする回転角θxと、cZ軸を回転軸とする回転角θzとで表現されうる。ズームの情報は、レンズ系の焦点距離で表現されてもよいし、基準の焦点距離とズーム倍率との組み合わせで表現されてもよい。 The positioning information of the main camera includes TCP coordinate information. TCP can be represented by coordinate values of the corresponding unit coordinate system. The pan/tilt angle can be expressed by a rotation angle θx about the cX axis of the camera coordinate system with TCP as the origin, and a rotation angle θz about the cZ axis. The zoom information may be expressed by the focal length of the lens system, or may be expressed by a combination of the reference focal length and the zoom magnification.

サムネイルは、メイン映像から生成されるサムネイル画像である。例えば、プリセット番号がPS001のプリセット情報は、カメラユニットがLOC4にあり、ユニット座標系の座標値が(10.0,50.0,1500)の位置にTCPがあり、チルト角が0.0度、パン角が10.0度、レンズ系の焦点距離が50.3mmの場合に、そのカメラユニットのメインカメラ11から出力されるメイン映像のサムネイルを含む。 A thumbnail is a thumbnail image generated from a main video. For example, in the preset information with preset number PS001, the camera unit is at LOC4, the TCP is at the position of (10.0, 50.0, 1500) in the unit coordinate system, and the tilt angle is 0.0 degrees. , the thumbnail of the main video output from the main camera 11 of the camera unit when the pan angle is 10.0 degrees and the focal length of the lens system is 50.3 mm.

上記のプリセット情報を利用してカメラユニットを制御すると、サムネイルに対応するメイン映像を撮影したときと同じ位置で同じ向きにメインカメラ11を向けることができ、画角も同じに制御されることから、サムネイルと同じ撮影範囲のメイン映像が得られる。つまり、カメラユニットに関して撮影条件がほぼ再現されることになる。また、図23に示すように、フォーカス(FOCUS)、アイリス(IRIS)、ゲイン(GAIN)、ペデスタルレベル(PEDESTAL LEVEL)、ガンマ値(GAMMA)、ニー(KNEE)、色温度(COLOR TEMP)などを考慮することで、これらのパラメータが変化していても、より忠実に撮影条件を再現することができる。 By controlling the camera unit using the above preset information, the main camera 11 can be directed in the same position and in the same direction as when the main video corresponding to the thumbnail was shot, and the angle of view is also controlled in the same way. , you can get the main image with the same shooting range as the thumbnail. That is, the photographing conditions are almost reproduced with respect to the camera unit. Also, as shown in FIG. 23, focus (FOCUS), iris (IRIS), gain (GAIN), pedestal level (PEDESTAL LEVEL), gamma value (GAMMA), knee (KNEE), color temperature (COLOR TEMP), etc. By taking these parameters into consideration, it is possible to more faithfully reproduce the imaging conditions even if these parameters change.

なお、フォーカスは合焦位置を示し、アイリスは絞り値(例えば、F値)を示し、ゲインは撮像素子から出力される電気信号の増幅度合いを示し、ペデスタルレベルは映像信号レベルの基準となる輝度レベルを示し、ガンマ値は画像階調の応答特性を示し、ニーはダイナミックレンジを超えた映像信号の高輝度側を圧縮する際に用いるパラメータであり、ニーポイント(P)はどのレベルから圧縮するかを示し、ニースロープ(S)はどの程度圧縮するかを示し、色温度はホワイトバランスの設定値を示す。その他のパラメータとしては、予め設定されたシーンやフレームに関するパラメータをプリセットDB48bに含めてもよい。 Note that the focus indicates the in-focus position, the iris indicates the aperture value (e.g., F-number), the gain indicates the degree of amplification of the electrical signal output from the image pickup device, and the pedestal level indicates the luminance that is the reference for the video signal level. The gamma value indicates the response characteristics of the image gradation, the knee is a parameter used when compressing the high luminance side of the video signal that exceeds the dynamic range, and the knee point (P) is the level from which compression is performed. Knee slope (S) indicates how much to compress, and color temperature indicates the set value of white balance. As other parameters, preset parameters related to scenes and frames may be included in the preset DB 48b.

プリセット実行部46aは、プリセットDB48bの中からオペレータが選択したプリセット情報をユニット制御部41に指示し、ユニット制御部41を介してカメラユニット10a、10bを制御することができる。オペレータは、プリセットDB48bの中からプリセット情報を適宜選択するだけで容易にカメラユニットを操作することができる。 The preset execution section 46a can instruct the unit control section 41 on the preset information selected by the operator from the preset DB 48b, and can control the camera units 10a and 10b via the unit control section 41. FIG. The operator can easily operate the camera unit simply by appropriately selecting preset information from the preset DB 48b.

以下、オペレータがプリセット情報を選択することで撮影を進めることができる動作モードをプリセット撮影モードと呼ぶ場合がある。プリセット撮影モードでは、オペレータによるプリセット情報の選択操作に応じて、プリセット実行部46aがプリセット情報に基づくカメラユニットの制御を実行する。このとき、プリセット実行部46aは、プリセット情報が示すロケーションにカメラユニットを移動させる途中で、メインカメラのポジション、パン・チルト、ズーム、フォーカスなどの各種パラメータの少なくとも一部をプリセット情報に基づいて制御してもよい。これにより、特定のロケーションにカメラユニットを移動させてからポジションなどの制御を実施する場合に比べ、より短時間で制御を完了させることができる。なお、プリセットDB48bに基づくカメラユニットの操作については、後段においてさらに説明する。 Hereinafter, an operation mode in which the operator can proceed with imaging by selecting preset information may be referred to as a preset imaging mode. In the preset photographing mode, the preset executing section 46a executes control of the camera unit based on the preset information in response to the operator's selection operation of the preset information. At this time, while the camera unit is being moved to the location indicated by the preset information, the preset execution unit 46a controls at least some of various parameters such as the position of the main camera, pan/tilt, zoom, and focus based on the preset information. You may As a result, the control can be completed in a shorter period of time than when the camera unit is moved to a specific location and then the position control is performed. Operation of the camera unit based on the preset DB 48b will be further described later.

再び図10を参照する。シナリオ実行部46bは、プリセットDB48bに含まれるプリセット情報を時系列に並べたシナリオを含むシナリオDB48cに基づいてカメラユニット10a、10bの動作を制御する。シナリオDB48cは、図24に示すような内容を含む。図24は、本実施形態に係るシナリオ情報について説明するための図表である。 Refer to FIG. 10 again. The scenario executing section 46b controls the operations of the camera units 10a and 10b based on a scenario DB 48c that includes scenarios in which preset information contained in the preset DB 48b is arranged in chronological order. The scenario DB 48c includes contents as shown in FIG. FIG. 24 is a chart for explaining scenario information according to this embodiment.

図24に示すように、シナリオDB48cには、タイムライン(TIME)と、各カメラユニット(UN1、UN2)の制御に用いるプリセットDB48bのプリセット情報とが含まれる。なお、シナリオDB48cには、複数のシナリオ(図24の例ではSCN1、SCN2、SCN3)が含まれてもよい。 As shown in FIG. 24, the scenario DB 48c includes a timeline (TIME) and preset information of the preset DB 48b used for controlling each camera unit (UN1, UN2). Note that the scenario DB 48c may include a plurality of scenarios (SCN1, SCN2, and SCN3 in the example of FIG. 24).

SCN1の例では、UN1がPS001に基づいて動作を開始し、PS002、PS003、PS006の順にプリセット情報に基づく動作を実行する。UN1の動作時間は、プリセット毎に規定される。図24の例では、説明の都合上、タイムラインの各時刻にプリセット情報を対応付けるかのように記載しているが、これは、タイムライン上での大まかな対応関係を模式的に示すものであり、上記の通り、どの時刻からどの時刻まで、そのプリセットが実行されるかを示す情報が、シナリオDB48cに含まれる。このように、UN1、UN2は、ある時刻になると、シナリオDB48cに設定されたシナリオ情報に基づく動作を実施する。プリセットDB48bに基づくUN1、UN2の状態制御はシナリオ実行部46bが実施する。 In the example of SCN1, UN1 starts operating based on PS001, and performs operations based on preset information in the order of PS002, PS003, and PS006. The operating time of UN1 is defined for each preset. In the example of FIG. 24, for convenience of explanation, it is described as if each time on the timeline is associated with the preset information, but this is a schematic representation of a rough correspondence on the timeline. Yes, and as described above, the scenario DB 48c contains information indicating from what time to what time the preset is executed. In this way, UN1 and UN2 perform actions based on the scenario information set in the scenario DB 48c at a certain time. The scenario executing section 46b performs state control of UN1 and UN2 based on the preset DB 48b.

シナリオDB48cを利用する操作の場合、オペレータは、シナリオDB48cのシナリオを選択するだけで、シナリオ実行部46bがユニット制御部41を介してUN1、UN2を制御し、UN1、UN2からメイン映像が出力される。つまり、シナリオ実行部46bにより、ほぼ自動動作が実現される。以下、シナリオに基づく撮影動作のモードをシナリオ撮影モードと呼ぶ場合がある。シナリオ撮影モードの場合も、各プリセット情報に基づく制御が実行される際、ロケーション間の移動中にメインカメラのポジション、パン・チルト、ズーム、フォーカスなどの各種パラメータの少なくとも一部が制御されてもよい。なお、シナリオDB48cを用いた動作制御及びシナリオの編集に関する操作については、後段においてさらに説明する。 In the case of an operation using the scenario DB 48c, the operator simply selects a scenario in the scenario DB 48c, the scenario executing section 46b controls UN1 and UN2 via the unit control section 41, and the main video is output from UN1 and UN2. be. In other words, the scenario executing section 46b realizes almost automatic operation. Hereinafter, the mode of shooting operation based on a scenario may be called a scenario shooting mode. Even in scenario shooting mode, when control is executed based on each preset information, at least some of the various parameters such as the main camera position, pan/tilt, zoom, and focus are controlled while moving between locations. good. Operations related to operation control and scenario editing using the scenario DB 48c will be further described later.

再び図10を参照する。リアルタイム操作部46cは、オペレータがリアルタイムで行うロケーションやポジションの操作(以下、リアルタイム操作)に応じて、ユニット制御部41を介してカメラユニット10a、10bを制御する。リアルタイム操作は、プリセットDB48bに基づく動作制御の実行中、及びシナリオDB48cに基づく動作制御の実行中に割り込みで実施できるようにしてもよい。また、リアルタイム操作部46cは、リアルタイム操作時にオペレータが行った操作の内容を操作ログ48eとして記憶部48に格納してもよい。なお、リアルタイム操作は、プリセットDB48bのプリセット情報を登録する際も行われる。 Refer to FIG. 10 again. The real-time operation section 46c controls the camera units 10a and 10b via the unit control section 41 in accordance with the operator's real-time location and position operations (hereinafter referred to as real-time operations). The real-time operation may be performed by interruption during execution of operation control based on the preset DB 48b and during execution of operation control based on the scenario DB 48c. Further, the real-time operation unit 46c may store the details of operations performed by the operator during real-time operations in the storage unit 48 as an operation log 48e. The real-time operation is also performed when registering preset information in the preset DB 48b.

権限管理部47は、カメラユニット10a、10bの操作権限を管理する。1つのカメラユニットを操作できるオペレータは1人であり、複数のオペレータが1つのカメラユニットを操作しようとした場合には権限管理部47により排他制御が行われる。例えば、オペレータシステム30aにカメラユニット10aの操作権限が設定されている状態で、オペレータシステム30bがカメラユニット10aを操作しようとした場合、権限管理部47は、オペレータシステム30bによる操作を許否する。 The authority management section 47 manages the operation authority of the camera units 10a and 10b. Only one operator can operate one camera unit, and when a plurality of operators attempt to operate one camera unit, exclusive control is performed by the authority management section 47 . For example, when the operator system 30a has the operation authority for the camera unit 10a and the operator system 30b attempts to operate the camera unit 10a, the authority management unit 47 permits or denies the operation by the operator system 30b.

上記のような場合、権限管理部47は、オペレータシステム30a、30b間での操作権限の移転を円滑に行えるようにするため、オペレータシステム30aに対してカメラユニット10aの操作をオペレータシステム30bが希望している旨を通知してもよい。また、オペレータシステム30aが操作権限の移転を承諾する旨を通知してきた場合、権限管理部47は、オペレータシステム30aの操作権限を解放し、オペレータシステム30bにカメラユニット10aの操作権限を設定してもよい。この場合、権限管理部47は、誤動作を避けるため、カメラユニット10aの動作を一時停止する。 In the above case, the authority management unit 47 requests the operator system 30b to operate the camera unit 10a from the operator system 30a in order to smoothly transfer the operation authority between the operator systems 30a and 30b. You may notify us that you are doing so. Further, when the operator system 30a notifies that it approves the transfer of the operation authority, the authority management unit 47 releases the operation authority of the operator system 30a and sets the operation authority of the camera unit 10a to the operator system 30b. good too. In this case, the authority management section 47 suspends the operation of the camera unit 10a in order to avoid malfunction.

上記の操作権限は、カメラユニット10aの操作を行うための権限である。その他にも、オペレータには、プリセットDB48bへの登録及び削除に関する権限、シナリオDB48cへの登録及び削除に関する権限などが設定されてもよい。操作権限及びその他の権限は、図25に示すような内容を含む操作権限情報48dにより管理される。図25は、本実施形態に係る操作権限情報について説明するための図表である。 The above operation authority is authority for operating the camera unit 10a. In addition, the operator may be set with authority for registration and deletion in the preset DB 48b, authority for registration and deletion in the scenario DB 48c, and the like. Operation authority and other authority are managed by operation authority information 48d including contents as shown in FIG. FIG. 25 is a chart for explaining operation authority information according to this embodiment.

図25の例では、オペレータOP1に権限STDが設定され、オペレータOP2に権限EDITが設定されている。STDは、プリセットの実行、シナリオの実行、及びリアルタイム操作の実行が許可される権限である。EDITは、プリセットの実行、シナリオの実行、及びリアルタイム操作の実行が許可されることに加え、プリセットDB48bの編集及びシナリオDB48cの編集が許可される権限である。 In the example of FIG. 25, the authority STD is set for the operator OP1, and the authority EDIT is set for the operator OP2. STD is a privilege that allows running presets, running scenarios, and running real-time operations. EDIT is an authority that permits the execution of presets, the execution of scenarios, and the execution of real-time operations, as well as the editing of the preset DB 48b and the scenario DB 48c.

また、図25の例では、オペレータOP1が利用しているオペレータシステム30aにUN1に対する操作権限が設定され、オペレータOP2が利用しているオペレータシステム30bにUN2に対する操作権限が設定されている。この場合、権限管理部47による排他制御により、オペレータシステム30aにはUN2の操作権限は設定されず、オペレータシステム30bにはUN1の操作権限は設定されない。このように、操作権限による排他制御を実施することで、ロボットカメラの誤動作や撮影現場での混乱を回避でき、運用の安全性を担保することができる。 Further, in the example of FIG. 25, the operator system 30a used by the operator OP1 has the operation authority for UN1, and the operator system 30b used by the operator OP2 has the operation authority for UN2. In this case, due to exclusive control by the authority management unit 47, the operator system 30a is not set with the UN2 operation authority, and the operator system 30b is not set with the UN1 operation authority. In this way, by performing exclusive control based on operation authority, malfunction of the robot camera and confusion at the shooting site can be avoided, and operational safety can be ensured.

[4.オペレータシステム]
次に、図26を参照しながら、本実施形態に係るオペレータシステムの機能について説明する。図26は、本実施形態に係るオペレータシステムの機能について説明するためのブロック図である。なお、オペレータシステム30a、30bの主な構成は同じであるため、オペレータシステム30aについて詳細に説明し、オペレータシステム30bについては説明を省略する。
[4. operator system]
Next, functions of the operator system according to this embodiment will be described with reference to FIG. FIG. 26 is a block diagram for explaining the functions of the operator system according to this embodiment. Since the main configurations of the operator systems 30a and 30b are the same, the operator system 30a will be described in detail, and the description of the operator system 30b will be omitted.

図26に示すように、オペレータシステム30aは、操作部31と、表示部32と、制御部33と、センサ部34と、記憶部35と、音声入力部36と、音声出力部37とを有する。オペレータシステム30aの要素P1は、例えば、PC(Personal Computer)、タブレット端末、スマートフォン、HMD、スマートグラスなどの情報処理デバイスを利用して実装されうる。また、オペレータシステム30aの要素P2は、要素P1の情報処理デバイス、或いは、インカムなどの音声処理デバイスを利用して実装されうる。 As shown in FIG. 26, the operator system 30a has an operation unit 31, a display unit 32, a control unit 33, a sensor unit 34, a storage unit 35, an audio input unit 36, and an audio output unit 37. . The element P1 of the operator system 30a can be implemented using an information processing device such as a PC (Personal Computer), tablet terminal, smart phone, HMD, smart glasses, or the like. Also, the element P2 of the operator system 30a can be implemented using the information processing device of the element P1 or an audio processing device such as an intercom.

(コントローラの実装形態)
例えば、操作部31は、図27に示すようなジョイパッド型のコントローラ31bであってもよい。コントローラ31bは、オペレータシステム30aのUI(User Interface)を提供する操作手段の一例である。図27は、本実施形態に係るオペレータシステムのUIとして利用可能なコントローラの一例を模式的に示した図である。
(Controller implementation form)
For example, the operation unit 31 may be a joypad type controller 31b as shown in FIG. The controller 31b is an example of operation means that provides a UI (User Interface) of the operator system 30a. FIG. 27 is a diagram schematically showing an example of a controller that can be used as the UI of the operator system according to this embodiment.

図27に示すように、コントローラ31bは、操作手段331、…、338を有する。操作手段331、335、336、337、338は、押下可能なボタン型の操作手段である。操作手段332、334は、任意の方向を指示することが可能なレバー型の操作手段である。操作手段333は、上下左右を独立に指示することが可能な十字キー型の操作手段である。なお、コントローラ31bには、背面などに他の操作手段がさらに設けられていてもよい。コントローラ31bが有する操作手段331、…、338及び他の操作手段には、それぞれ独立の機能を割り当てることができる。 As shown in FIG. 27, the controller 31b has operation means 331, . The operating means 331, 335, 336, 337, and 338 are pushable button-type operating means. The operating means 332 and 334 are lever-type operating means capable of pointing in any direction. The operation means 333 is a cross key type operation means capable of independently instructing up, down, left and right. It should be noted that the controller 31b may be further provided with other operating means on the rear surface or the like. Independent functions can be assigned to the operation means 331, . . . , 338 and other operation means of the controller 31b.

操作手段に割り当て可能な機能としては、例えば、スタジオ座標系でカメラユニットを移動させる機能(ロケーション操作機能)、ユニット座標系でTCPを移動させる機能(ポジション操作機能)、カメラ座標系で光軸方向を移動させる機能(パン・チルト操作機能)がある。その他にも、メインカメラのズーム、フォーカス、アイリス、ゲインなどのカメラパラメータを操作する機能(カメラ操作機能)、現在のロケーションを登録する機能(ロケーション登録機能)、現在のポジションを登録する機能(ポジション登録機能)がある。 Functions that can be assigned to the operation means include, for example, a function to move the camera unit in the studio coordinate system (location operation function), a function to move the TCP in the unit coordinate system (position operation function), and a function to move the camera unit in the optical axis direction in the camera coordinate system. There is a function to move the (pan/tilt operation function). In addition, the function to operate camera parameters such as zoom, focus, iris, and gain of the main camera (camera operation function), the function to register the current location (location registration function), the function to register the current position (position registration function).

上記のポジション操作機能は、図16(b)、図17(b)、図18(b)に示した操作インターフェース301による操作への切り替え機能を含んでよい。この場合、ポジション操作機能は、uZ-uX面内でのポジション操作(第1の操作:図16(a))、uY-uZ面内でのポジション操作(第2の操作:図17(a))、uX-uY面内でのポジション操作(第3の操作:図18(a))を相互に切り替える機能を含んでよい。 The above position operation function may include a function of switching to operation by the operation interface 301 shown in FIGS. 16(b), 17(b), and 18(b). In this case, the position manipulation function includes position manipulation within the uZ-uX plane (first manipulation: FIG. 16(a)), position manipulation within the uY-uZ plane (second manipulation: FIG. 17(a) ) and the position operation (third operation: FIG. 18(a)) in the uX-uY plane.

また、上記の操作手段には、図19に示した固定点(eTCP)基準での移動制御に基づく操作への切り替え機能、eTCPを移動させる機能、eTCPの位置を確定すると共にMCの移動範囲(回転角など)を設定する機能、eTCP基準で図19に示すようにポジション及びパン・チルトの制御を実行する機能が割り当てられてもよい。 In addition, the above operation means include a function of switching to an operation based on movement control based on a fixed point (eTCP) shown in FIG. (rotation angle, etc.), and a function of executing position and pan/tilt control as shown in FIG. 19 based on eTCP.

また、上記の操作手段には、カメラユニットを選択する機能(カメラ選択機能)、リアルタイム操作モードと、プリセット撮影モードとを切り替える機能(モード切替機能)、プリセット撮影モードで利用対象のプリセット情報を選択する機能(プリセット選択機能)が割り当てられてもよい。モード切替機能では、シナリオ撮影モードと他の動作モードとを切り替えられるようにしてもよい。他の動作モードとしては、リアルタイム操作モード又はプリセット撮影モードや、緊急停止モードなどがある。 In addition, the above operation means include a function to select a camera unit (camera selection function), a function to switch between real-time operation mode and preset shooting mode (mode switching function), and selection of preset information to be used in preset shooting mode. A function (preset selection function) may be assigned. The mode switching function may switch between the scenario shooting mode and another operation mode. Other modes of operation include a real-time operation mode or preset capture mode, an emergency stop mode, and the like.

また、表示部32に表示される映像を切り替える機能(映像切替機能)、表示部32に表示されるUIの形態を切り替える機能(UI切替機能)、音声入力部36及び音声出力部37により他のオペレータと通話するための機能(通話機能)などが割り当てられてもよい。 In addition, the function of switching the video displayed on the display unit 32 (video switching function), the function of switching the form of the UI displayed on the display unit 32 (UI switching function), the audio input unit 36 and the audio output unit 37 A function (call function) for talking with an operator or the like may be assigned.

上記の映像切替機能は、表示部32の主表示領域に表示される映像を現在操作中のカメラユニットから出力されるメイン映像から、他のカメラユニットから出力されるメイン映像に切り替える機能であってよい。また、上記の映像切替機能は、表示部32の主表示領域に表示される映像を、メイン映像、アイビュー映像、リアビュー映像の間で相互に切り替える機能であってもよい。また、上記の映像切替機能は、異なるリアビューカメラから出力される複数のリアビュー映像を相互に切り替える機能であってもよい。 The image switching function is a function for switching the image displayed in the main display area of the display unit 32 from the main image output from the currently operated camera unit to the main image output from another camera unit. good. Further, the image switching function may be a function of switching the image displayed in the main display area of the display unit 32 between the main image, the eye-view image, and the rear-view image. Further, the video switching function may be a function of switching between a plurality of rear-view videos output from different rear-view cameras.

上記のUI切替機能は、表示部32に表示される映像の組み合わせ、情報の組み合わせ、そして、映像及び情報の配置が異なる複数のUIを相互に切り替える機能であってよい。上記の通話機能は、他のカメラユニットに対する操作権限を持つ他のオペレータのリストから選択された通話相手のオペレータと通話するための機能であってもよいし、そのリストに含まれる全てのオペレータに対して音声が発信されるようにする機能であってもよい。また、上記の通話機能は、通話を許可するか許否するかを選択する機能、通話ログを記録する機能、通話可能な状態か否かを他のオペレータに通知する機能を含んでもよい。 The above UI switching function may be a function of switching between a plurality of UIs with different combinations of images displayed on the display unit 32, combinations of information, and different arrangements of images and information. The above-mentioned call function may be a function for calling an operator selected from a list of other operators who have operation authority for other camera units, or a function for all operators included in the list. It may also be a function that allows voice to be transmitted to the device. Further, the call function may include a function of selecting whether or not to permit a call, a function of recording a call log, and a function of notifying another operator whether or not a call is possible.

どの操作手段にどの機能を割り当てるかは任意に決めることができる。また、例示した上記の機能を全て割り当てなくてもよいし、上記の機能以外の機能が割り当てられてもよい。また、複数の操作手段を組み合わせた操作に対して、いずれかの機能が割り当てられてもよい。例えば、操作手段332を単独で操る操作に対してポジション操作機能を割り当て、操作手段336を押下しながら操作手段332を操る操作に対してロケーション操作機能を割り当てる割り当て方法などを適用することができる。 It is possible to arbitrarily decide which function is assigned to which operating means. Further, it is not necessary to allocate all the above-mentioned functions illustrated, and functions other than the above-mentioned functions may be allocated. Also, any function may be assigned to an operation that combines a plurality of operation means. For example, a method of assigning a position operation function to an operation of operating the operating means 332 alone and assigning a location operating function to an operation of operating the operating means 332 while pressing the operating means 336 can be applied.

上記のように、どの操作手段にどの機能を割り当てるかは任意に決めることができるため、操作部31の形態は、コントローラ31bのようなジョイパッド型に限定されない。例えば、操作部31の形態は、図28に示したコントローラ31cのようなタイプであってもよい。図28は、本実施形態に係るオペレータシステムのUIとして利用可能なコントローラの他の例を模式的に示した図である。 As described above, since it is possible to arbitrarily decide which function is assigned to which operation means, the form of the operation unit 31 is not limited to a joypad type like the controller 31b. For example, the form of the operation unit 31 may be a type like the controller 31c shown in FIG. FIG. 28 is a diagram schematically showing another example of a controller that can be used as the UI of the operator system according to this embodiment.

図28に例示したコントローラ31cは、操作手段341、342、343、344、345を有する。操作手段341、344は、回転可能な範囲が制限されたダイヤル型の操作手段である。操作手段345は、回転可能な範囲が制限されていないか、操作手段341、344よりも回転可能な範囲が広いダイヤル型の操作手段である。操作手段342は、上下に移動可能なレバー型の操作手段である。操作手段343は、複数のボタンを有するキーボード型の操作手段である。 The controller 31 c illustrated in FIG. 28 has operation means 341 , 342 , 343 , 344 and 345 . The operation means 341 and 344 are dial-type operation means with a limited rotatable range. The operation means 345 is a dial-type operation means whose rotatable range is not restricted or whose rotatable range is wider than that of the operation means 341 and 344 . The operation means 342 is a lever-type operation means that can move up and down. The operation means 343 is a keyboard type operation means having a plurality of buttons.

映像を切り替えるためのスイッチャの操作卓として利用されるインターフェースには、コントローラ31cと似た形態を有するものがある。例えば、このような操作卓が有する一部の操作手段に、カメラユニットを操作するための上述した様々な機能を割り当ててもよい。例えば、操作手段343に含まれる特定のボタンを押下した状態で操作手段341を操る操作にパン角の変更操作を割り当て、操作手段342を操る操作にチルト角の変更操作を割り当てる割り当て方法などを適用することができる。 Some interfaces used as switcher consoles for switching images have a form similar to that of the controller 31c. For example, the various functions described above for operating the camera unit may be assigned to some operating means of such an operator console. For example, an assignment method is applied in which a pan angle changing operation is assigned to an operation of operating the operating means 341 while a specific button included in the operating means 343 is pressed, and a tilt angle changing operation is assigned to an operation of operating the operating means 342. can do.

また、操作部31の形態として、図29(a)及び(b)に示すようなジェスチャー操作型デバイスを利用する形態も適用可能である。図29(a)及び(b)は、本実施形態に係るオペレータシステムのUIとして利用可能なジェスチャー操作型デバイスの例を模式的に示した図である。 Moreover, as a form of the operation unit 31, a form using a gesture operation type device as shown in FIGS. 29(a) and (b) is also applicable. FIGS. 29A and 29B are diagrams schematically showing an example of a gesture operation type device that can be used as the UI of the operator system according to this embodiment.

この形態において、オペレータOPは、図29(a)に示すように、表示部32の一形態であるスマートグラス351を装着し、オペレータシステム30aの要素P2として機能するインカム352を装着し、操作部31としてコントローラ353、354を利用する。例えば、オペレータOPは、コントローラ353を右手で持って操作し、コントローラ354を左手で持って操作する。なお、コントローラ353、354は、バンドなどの固定手段を利用してオペレータOPの身体(腕など)に装着されてもよい。 In this mode, as shown in FIG. 29A, the operator OP wears smart glasses 351 that are one form of the display unit 32, wears an intercom 352 that functions as the element P2 of the operator system 30a, and operates the operation unit. As 31, controllers 353 and 354 are used. For example, the operator OP holds and operates the controller 353 with his right hand, and holds and operates the controller 354 with his left hand. Note that the controllers 353 and 354 may be attached to the operator OP's body (arms, etc.) using fixing means such as bands.

コントローラ353、354は、加速度センサなどのモーションセンサを搭載している。また、図29(b)に示すように、コントローラ353にはボタンRCが設けられ、コントローラ354にはボタンCCが設けられている。上述したロケーション操作機能、ポジション操作機能、パン・チルト操作機能などの各種機能は、コントローラ353、354の動き、ボタンRC、CCの操作、及びその動きと操作との組み合わせに対して割り当てられうる。また、コントローラ353、354による特定のジェスチャーに対して機能が割り当てられてよい。 Controllers 353 and 354 are equipped with motion sensors such as acceleration sensors. Further, as shown in FIG. 29B, the controller 353 is provided with a button RC, and the controller 354 is provided with a button CC. Various functions such as the location operation function, the position operation function, and the pan/tilt operation function described above can be assigned to movements of the controllers 353 and 354, operations of the buttons RC and CC, and combinations of the movements and operations. Also, functions may be assigned to specific gestures by the controllers 353 , 354 .

例えば、オペレータOPがコントローラ353を図29(b)のFw方向に動かすとロケーションが+sY方向に移動し、Bw方向に動かすとロケーションが-sY方向に移動し、R方向に動かすとロケーションが+sX方向に移動し、L方向に動かすとロケーションが-sX方向に移動するように機能を割り当てることができる。また、ボタンRCを一度押下すると現在のロケーションでカメラユニットの動きがロックされ、再度ボタンRCを押下するまでロケーションの移動操作が無効にされるように機能を割り当ててもよい。 For example, when the operator OP moves the controller 353 in the Fw direction of FIG. 29(b), the location moves in the +sY direction, when moved in the Bw direction, the location moves in the −sY direction, and when moved in the R direction, the location moves in the +sX direction. , and a function can be assigned such that moving in the L direction moves the location in the -sX direction. Alternatively, a function may be assigned such that when the button RC is pressed once, movement of the camera unit is locked at the current location, and location movement operations are disabled until the button RC is pressed again.

また、オペレータOPがコントローラ354を図29(b)のFw方向に動かすとポジションが+uY方向に移動し、Bw方向に動かすとポジションが-uY方向に移動し、R方向に動かすとポジションが+uX方向に移動し、L方向に動かすとポジションが-uX方向に移動し、Fw/Bw方向及びR/L方向と垂直な方向(紙面に直交する方向)に動かすとポジションがuZ軸に沿って移動するように機能を割り当てることができる。また、ボタンCCを一度押下すると現在のポジションが固定され、コントローラ354の動きに追従してカメラ座標系における光軸方向が移動するように機能を割り当ててもよい。 Also, when the operator OP moves the controller 354 in the Fw direction of FIG. 29(b), the position moves in the +uY direction, when moved in the Bw direction, the position moves in the -uY direction, and when moved in the R direction, the position moves in the +uX direction. , and moving in the L direction moves the position in the -uX direction, and moving in the direction perpendicular to the Fw/Bw and R/L directions (perpendicular to the paper surface) moves the position along the uZ axis. You can assign functions like Also, a function may be assigned such that when the button CC is pressed once, the current position is fixed and the optical axis direction in the camera coordinate system moves following the movement of the controller 354 .

上記の割り当て例に限らず、上述した各種操作に対して任意の機能を割り当てることができる。例えば、スタジオ座標系におけるロケーションの動きや、上述したユニット座標系におけるポジションの動きをカメラ座標系における撮影方向の動きに置き換えたり、パン角及びチルト角の制御を上記と同様にコントローラ353、354の動きに割り当ててもよい。また、上述した三面独立制御の仕組みをコントローラ353、354の動きに割り当てることも可能である。さらに、円を描くジェスチャー、特定の文字や記号(アルファベット、ギリシャ文字、数学記号など)を描くジェスチャー、模様を描くジェスチャー、そして、これらのジェスチャーとボタンRC、CCの操作との組み合わせに対して任意の機能を割り当ててもよい。これらの変形例も当然に本実施形態の技術的範囲に属する。 Arbitrary functions can be assigned to the various operations described above, without being limited to the example of assignment described above. For example, the location movement in the studio coordinate system and the position movement in the unit coordinate system described above are replaced with the movement in the shooting direction in the camera coordinate system. May be assigned to movement. It is also possible to assign the three-plane independent control mechanism described above to the movements of the controllers 353 and 354 . Furthermore, gestures that draw circles, gestures that draw specific letters and symbols (alphabet, Greek letters, mathematical symbols, etc.), gestures that draw patterns, and combinations of these gestures and button RC and CC operations are optionally selected. function may be assigned. These modifications also naturally belong to the technical scope of this embodiment.

また、操作部31の形態として、図30に示すような着座型オペレーションユニットを利用する形態も適用可能である。図30は、本実施形態に係るオペレータシステムのUIとして利用可能な着座型オペレーションユニットの例を模式的に示した図である。 Further, as the form of the operation unit 31, a form using a seated operation unit as shown in FIG. 30 is also applicable. FIG. 30 is a diagram schematically showing an example of a seated operation unit that can be used as the UI of the operator system according to this embodiment.

この形態において、オペレータOPは、表示部32の一形態であるディスプレイ361a、361b、361cの前に着座し、オペレータシステム30aの要素P2として機能するインカム363を装着し、操作部31としてタッチパネル362、操作手段364、365、366、367を操作する。操作手段366は、フットコントローラである。操作手段365は、レバー型の操作手段である。操作手段364は、ボタン型の操作手段である。操作手段367は、ダイヤル型の操作手段である。 In this form, the operator OP sits in front of displays 361a, 361b, and 361c, which are forms of the display unit 32, and wears an intercom 363 that functions as an element P2 of the operator system 30a. Operating means 364, 365, 366 and 367 are operated. The operating means 366 is a foot controller. The operation means 365 is a lever type operation means. The operation means 364 is a button type operation means. The operation means 367 is a dial type operation means.

上述したジョイパッド型のコントローラ31bと同様に、各操作手段に任意の機能を割り当てることが可能である。ディスプレイ361a、361b、361cには、現在操作中のカメラユニットから出力されるメイン映像、他のカメラユニットから出力されるメイン映像、アイビュー映像、及びリアビュー映像などが表示されうる。これらの映像は、タッチパネル362に表示されてもよい。そのため、上記の操作手段には、ディスプレイ361a、361b、361c、タッチパネル362のうち、どのデバイスにどの映像が表示されるかを切り替える機能が割り当てられてよい。 As with the joypad type controller 31b described above, it is possible to assign any function to each operating means. The displays 361a, 361b, and 361c may display a main image output from the currently operated camera unit, a main image output from another camera unit, an eye-view image, a rear-view image, and the like. These images may be displayed on touch panel 362 . Therefore, a function of switching which image is displayed on which device among the displays 361a, 361b, 361c and the touch panel 362 may be assigned to the operation means.

ところで、オペレータシステム30aとしてPCやタブレット端末などのコンピュータを利用することができる。PCを利用する場合、操作部31はキーボードやマウスであり、表示部32はLCDやELDなどのディスプレイである。この場合、キーボードやマウスの操作に対して上述した各種の機能が割り当てられうる。また、ディスプレイに表示されるGUIオブジェクトの操作に対して上述した各種の機能が割り当てられてもよい。タブレット端末を利用する場合、操作部31及び表示部32はタッチパネルであり、タッチパネル上に表示されるGUIオブジェクトの操作に対して上述した各種の機能が割り当てられる。 By the way, a computer such as a PC or a tablet terminal can be used as the operator system 30a. When using a PC, the operation unit 31 is a keyboard or mouse, and the display unit 32 is a display such as LCD or ELD. In this case, the various functions described above can be assigned to keyboard and mouse operations. Also, the various functions described above may be assigned to the operation of the GUI object displayed on the display. When using a tablet terminal, the operation unit 31 and the display unit 32 are touch panels, and the various functions described above are assigned to operations of GUI objects displayed on the touch panels.

(GUI)
上述したカメラユニットの操作系として表示部32に表示されるGUIの一態様を図31に例示した。図31は、本実施形態に係るオペレータシステムのUI(リアルタイム操作モード)について説明するための模式図である。
(GUI)
FIG. 31 exemplifies one aspect of the GUI displayed on the display unit 32 as the operation system of the camera unit described above. FIG. 31 is a schematic diagram for explaining the UI (real-time operation mode) of the operator system according to this embodiment.

図31の例において、表示部32には、タリー通知領域311a、…、311dと、映像表示領域312a、…、312d、316と、カメラ識別表示領域313a、…、313dと、オペレータ識別表示領域314a、…、314dとが表示されている。また、表示部32には、システム通知領域315と、モード切替ボタン317と、メッセージ領域318と、モード表示領域319とが表示されている。 31, the display unit 32 includes tally notification areas 311a, . . . , 311d, image display areas 312a, . , . . . , 314d are displayed. The display unit 32 also displays a system notification area 315 , a mode switching button 317 , a message area 318 , and a mode display area 319 .

さらに、表示部32には、ボタンオブジェクトBTN1、…、BTN8、UP1、UP2、DN1、DN2と、カーソルオブジェクトCUR1、…、CUR4と、サークルボタンオブジェクトCCL1、…、CCL8と、センターボタンオブジェクトCC1、CC2とが表示されている。これらのオブジェクトは、カメラユニットの操作系を構成するGUIオブジェクトの一例である。上述した各種コントローラと同様に、これらGUIオブジェクトに各種機能を割り当てることができる。 , BTN8, UP1, UP2, DN1, DN2, cursor objects CUR1, . . . , CUR4, circle button objects CCL1, . is displayed. These objects are examples of GUI objects that constitute the operation system of the camera unit. As with the various controllers described above, these GUI objects can be assigned various functions.

タリー通知領域311a、…、311dは、それぞれ映像表示領域312a、…、312dに対応し、対応する映像表示領域がオンタリーの場合に特定の表示形態になる。図31の例では、映像表示領域312bに表示されているメイン映像がオンタリーのため、タリー通知領域311bが、タリー通知領域311a、311c、311dとは異なる表示形態(図中ではハッチング)になっている。なお、リアビュー映像又はアイビュー映像が表示されている映像表示領域がある場合、その映像表示領域に対応するタリー通知領域の表示形態は、オフタリーの表示形態であってよい。 The tally notification areas 311a, . . . , 311d correspond to the video display areas 312a, . In the example of FIG. 31, since the main image displayed in the image display area 312b is on tally, the tally notification area 311b has a different display form (hatched in the drawing) from the tally notification areas 311a, 311c, and 311d. there is When there is an image display area in which a rear-view image or an eye-view image is displayed, the display form of the tally notification area corresponding to the image display area may be the off-tally display form.

映像表示領域312a、…、312dには、メイン映像、リアビュー映像、又はアイビュー映像が表示される。カメラ識別表示領域313a、…、313d及びオペレータ識別表示領域314a、…、314dは、それぞれ映像表示領域312a、…、312dに対応する。カメラ識別表示領域313a、…、313dには、対応する映像表示領域の映像を撮っているカメラの識別情報が表示される。オペレータ識別表示領域314a、…、314dには、対応する映像表示領域の映像を撮っているカメラのオペレータを識別するための識別情報が表示される。なお、対応する映像表示領域の映像がリアビュー映像の場合、オペレータの識別情報は表示されない。 A main image, a rear-view image, or an eye-view image is displayed in the image display areas 312a, . . . , 312d. The camera identification display areas 313a, . . . , 313d and the operator identification display areas 314a, . In the camera identification display areas 313a, . The operator identification display areas 314a, . When the image in the corresponding image display area is the rear view image, the operator's identification information is not displayed.

システム通知領域315には、制御システム40からの通知が表示される。例えば、システム通知領域315には、メッセージの有無、操作権限の移転に関する各種通知、エラー通知などの情報が表示される。映像表示領域316には、現在操作しているカメラユニットから出力されるメイン映像が表示される。また、映像表示領域312a、…、312dに対する操作(タッチ、クリックなど)が行われた場合に、操作された映像表示領域に表示されている映像が映像表示領域316に表示されるようにしてもよい。 Notifications from the control system 40 are displayed in the system notification area 315 . For example, the system notification area 315 displays information such as presence/absence of messages, various notifications regarding transfer of operation authority, and error notifications. The video display area 316 displays the main video output from the currently operated camera unit. Further, when an operation (touch, click, etc.) is performed on the image display areas 312a, . good.

モード切替ボタン317は、サブビューモードへと切り替えるためのボタンオブジェクトである。モード切替ボタン317が押下されると、図32に示すようなサブビューモードへと表示形態が切り替わる。図32は、本実施形態に係るオペレータシステムのUI(サブビューモード)について説明するための模式図である。図32に示すように、サブビューモードでは、ボタンオブジェクトBTN1などの操作系GUIオブジェクトに代えて、第1の映像表示領域321及び第2の映像表示領域322が表示部32に大きく表示される。 A mode switching button 317 is a button object for switching to sub-view mode. When the mode switching button 317 is pressed, the display form is switched to the sub-view mode as shown in FIG. FIG. 32 is a schematic diagram for explaining the UI (sub-view mode) of the operator system according to this embodiment. As shown in FIG. 32, in the sub-view mode, a first image display area 321 and a second image display area 322 are displayed in a large size on the display unit 32 in place of the operating GUI objects such as the button object BTN1.

第1の映像表示領域321には、アイビュー映像又はリアビュー映像(サブビュー映像)が表示される。例えば、第1の映像表示領域321には、映像表示領域312dに表示されている映像が表示される。第2の映像表示領域322には、メイン映像が表示される。例えば、第2の映像表示領域322には、オンタリーのメイン映像、又は現在操作中のカメラユニットから出力されるメイン映像が表示される。なお、第1の映像表示領域321にメイン映像が表示され、第2の映像表示領域322にサブビュー映像が表示されるようにしてもよい。モード切替ボタン323が押下されると、図31の通常表示に戻る。 An eye-view image or a rear-view image (sub-view image) is displayed in the first image display area 321 . For example, the image displayed in the image display area 312 d is displayed in the first image display area 321 . A main image is displayed in the second image display area 322 . For example, the second image display area 322 displays the on-tally main image or the main image output from the currently operated camera unit. Note that the main image may be displayed in the first image display area 321 and the sub-view image may be displayed in the second image display area 322 . When the mode switching button 323 is pressed, the normal display of FIG. 31 is restored.

メッセージ領域318には、他のオペレータから送られてきたメッセージが表示される。また、メッセージ領域318には、オペレータがメッセージを入力できるようにしてもよい。例えば、制御システム40の通信ツール提供部45によりコミュニケーションツールが有効化され、他のオペレータとの間でチャットが可能な状態にある場合、オペレータは、メッセージ領域318に文字を入力することで他のオペレータとチャットを行うことができる。モード表示領域319には、現在の動作モードが表示される。 A message area 318 displays messages sent by other operators. The message area 318 may also allow the operator to enter a message. For example, when a communication tool is activated by the communication tool providing unit 45 of the control system 40 and a chat is possible with another operator, the operator can enter characters in the message area 318 to communicate with the other operator. You can chat with the operator. Mode display area 319 displays the current operating mode.

ここで、ボタンオブジェクトBTN1、…、BTN8、UP1、UP2、DN1、DN2、カーソルオブジェクトCUR1、…、CUR4、サークルボタンオブジェクトCCL1、…、CCL8、センターボタンオブジェクトCC1、CC2に対する機能の割り当て方法について好適な例について述べる。 , BTN8, UP1, UP2, DN1, DN2, cursor objects CUR1, . . . , CUR4, circle button objects CCL1, . An example is given.

この例において、ボタンオブジェクトBTN1には、オペレータがカメラユニットを手動で操作するリアルタイム操作モードへの切り替え機能が割り当てられる。ボタンオブジェクトBTN2には、事前に設定されたユニット座標系のホームポジションにTCPを移動させる機能が割り当てられる。 In this example, the button object BTN1 is assigned the function of switching to the real-time operation mode in which the operator manually operates the camera unit. The button object BTN2 is assigned the function of moving the TCP to the home position of the preset unit coordinate system.

カーソルオブジェクトCUR1には、TCPを+uZ方向へ移動させる機能が割り当てられる。カーソルオブジェクトCUR2には、TCPを-uZ方向へ移動させる機能が割り当てられる。カーソルオブジェクトCUR3には、uZ軸を回転軸としてuX-uY面上でTCPを反時計回りに回転させる機能(左旋回機能)が割り当てられる。カーソルオブジェクトCUR4には、uZ軸を回転軸としてuX-uY面上でTCPを時計回りに回転させる機能(右旋回機能)が割り当てられる。 Cursor object CUR1 is assigned the function of moving TCP in the +uZ direction. Cursor object CUR2 is assigned the function of moving TCP in the -uZ direction. The cursor object CUR3 is assigned a function of rotating TCP counterclockwise on the uX-uY plane with the uZ axis as the rotation axis (left rotation function). The cursor object CUR4 is assigned a function of rotating the TCP clockwise on the uX-uY plane with the uZ axis as the rotation axis (right rotation function).

サークルボタンオブジェクトCCL1には、TCPを+uY方向へ移動させる機能が割り当てられる。サークルボタンオブジェクトCCL2には、TCPを-uY方向へ移動させる機能が割り当てられる。サークルボタンオブジェクトCCL3には、TCPを+uX方向へ移動させる機能が割り当てられる。サークルボタンオブジェクトCCL4には、TCPを-uX方向へ移動させる機能が割り当てられる。また、センターボタンオブジェクトCC1には、現在のポジションを一時的にロックする機能が割り当てられてよい。 The circle button object CCL1 is assigned the function of moving TCP in the +uY direction. Circle button object CCL2 is assigned the function of moving TCP in the -uY direction. Circle button object CCL3 is assigned the function of moving TCP in the +uX direction. Circle button object CCL4 is assigned the function of moving TCP in the -uX direction. Also, the function of temporarily locking the current position may be assigned to the center button object CC1.

サークルボタンオブジェクトCCL1、…、CCL4は、それぞれ独立したボタンオブジェクトとして機能してもよいし、連続したドーナツ状オブジェクトとして機能してもよい。これらの機能は、例えば、ボタンオブジェクトBTN3を押下することで切り替わるようにしてもよい。ドーナツ状オブジェクトの機能は、ドーナツ状オブジェクトの中心を原点とし、かつサークルボタンオブジェクトCCL1の方向をuY方向に対応付けた直交座標系を想定し、ドーナツ状オブジェクト上の操作位置に応じた方向にポジションを移動させる。 The circle button objects CCL1, . These functions may be switched by, for example, pressing the button object BTN3. The function of the donut-shaped object assumes an orthogonal coordinate system in which the center of the donut-shaped object is the origin and the direction of the circle button object CCL1 corresponds to the uY direction. to move.

なお、カーソルオブジェクトCUR1、…、CUR4、及びサークルボタンオブジェクトCCL1、…、CCL4に対する長押し操作を行った場合に、それぞれに対応する移動が連続して行われるようにしてもよい。また、ボタンオブジェクトBTN4を押下した場合に、サークルボタンオブジェクトCCL1、CCL2の操作に対するTCPの動きがそれぞれ+uZ方向、-uZ方向に切り替わるようにしてもよい。 , CUR4 and circle button objects CCL1, . Further, when the button object BTN4 is pressed, the movement of the TCP in response to the operation of the circle button objects CCL1 and CCL2 may be switched in the +uZ direction and the -uZ direction, respectively.

ボタンオブジェクトBTN5には、現在のポジションを登録する機能が割り当てられる。ボタンオブジェクトBTN6には、メインカメラの姿勢を水平に自動調整する機能が割り当てられる。ボタンオブジェクトUP1、DN1には、ズーム機能が割り当てられる。例えば、ボタンオブジェクトUP1を押下している間、テレ端方向にレンズが動き、ボタンオブジェクトDN1を押下している間、ワイド端方向にレンズが動く。ボタンオブジェクトUP2、DN2には、フォーカス機能が割り当てられる。例えば、ボタンオブジェクトUP2を押下している間、合焦位置がカメラに近づくようにレンズを動かし、ボタンオブジェクトDN2を押下している間、合焦位置がカメラから遠ざかるようにレンズを動かす。 Button object BTN5 is assigned the function of registering the current position. Button object BTN6 is assigned a function of automatically adjusting the orientation of the main camera horizontally. A zoom function is assigned to the button objects UP1 and DN1. For example, while the button object UP1 is pressed, the lens moves toward the telephoto end, and while the button object DN1 is pressed, the lens moves toward the wide end. A focus function is assigned to the button objects UP2 and DN2. For example, while the button object UP2 is pressed, the lens is moved so that the focus position approaches the camera, and while the button object DN2 is pressed, the lens is moved so that the focus position moves away from the camera.

サークルボタンオブジェクトCCL5、CCL6には、チルト制御機能が割り当てられる。例えば、サークルボタンオブジェクトCCL5を押下するとチルト角θxが大きくなり、サークルボタンオブジェクトCCL6を押下するとチルト角θxが小さくなる。サークルボタンオブジェクトCCL7、CCL8には、パン制御機能が割り当てられる。例えば、サークルボタンオブジェクトCCL7を押下するとパン角θzが大きくなり、サークルボタンオブジェクトCCL8を押下するとパン角θzが小さくなる。また、センターボタンオブジェクトCC2には、現在のパン・チルト状態を一時的にロックする機能が割り当てられてよい。 A tilt control function is assigned to the circle button objects CCL5 and CCL6. For example, pressing the circle button object CCL5 increases the tilt angle θx, and pressing the circle button object CCL6 decreases the tilt angle θx. A pan control function is assigned to the circle button objects CCL7 and CCL8. For example, pressing the circle button object CCL7 increases the panning angle θz, and pressing the circle button object CCL8 decreases the panning angle θz. Also, the center button object CC2 may be assigned a function of temporarily locking the current pan/tilt state.

なお、サークルボタンオブジェクトCCL1、…、CCL4と同様に、サークルボタンオブジェクトCCL5、…、CCL8も、連続したドーナツ状オブジェクトとして機能するようにしてもよい。例えば、ボタンオブジェクトBTN7を押下することで、独立したボタンオブジェクトとして機能するモードと、ドーナツ状オブジェクトとして機能するモードとが切り替わるようにしてもよい。また、ボタンオブジェクトBTN8を押下した場合に、サークルボタンオブジェクトCCL7、CCL8にロール制御機能が割り当てられるようにしてもよい。また、これらのボタンオブジェクトに長押し操作を行った場合に、それぞれに対応する移動が連続して行われるようにしてもよい。 It should be noted that the circle button objects CCL5, . For example, pressing the button object BTN7 may switch between a mode functioning as an independent button object and a mode functioning as a doughnut-shaped object. Further, the roll control function may be assigned to the circle button objects CCL7 and CCL8 when the button object BTN8 is pressed. Also, when a long press operation is performed on these button objects, the corresponding movements may be performed continuously.

上記のGUIを利用することで、カメラユニットを好適に操作することができる。 By using the above GUI, the camera unit can be suitably operated.

ここで、図33及び図34を参照しながら、プリセット撮影モード及びシナリオ撮影モードでの操作に利用されるGUIについて説明する。図33は、本実施形態に係るオペレータシステムのUI(プリセット撮影モード)について説明するための模式図である。図34は、本実施形態に係るオペレータシステムのUI(シナリオ撮影モード)について説明するための模式図である。 Here, a GUI used for operations in the preset shooting mode and the scenario shooting mode will be described with reference to FIGS. 33 and 34. FIG. FIG. 33 is a schematic diagram for explaining the UI (preset imaging mode) of the operator system according to this embodiment. FIG. 34 is a schematic diagram for explaining the UI (scenario shooting mode) of the operator system according to this embodiment.

プリセット撮影モードでは、図33に示すように、表示部32にプリセット表示領域371が表示される。プリセット表示領域371には、プリセット情報に対応するサムネイルと、そのプリセット情報に含まれるパラメータセットとが表示される。プリセット表示領域371に表示されるプリセット情報は、制御システム40から取得される。図33の例では、PS001、…、PS007のサムネイル及びパラメータセットが表示されている。 In the preset shooting mode, a preset display area 371 is displayed on the display section 32 as shown in FIG. The preset display area 371 displays thumbnails corresponding to preset information and parameter sets included in the preset information. The preset information displayed in preset display area 371 is obtained from control system 40 . In the example of FIG. 33, thumbnails and parameter sets of PS001, . . . , PS007 are displayed.

オペレータは、操作体302により、プリセット表示領域371に表示されているプリセット情報を選択することで、そのプリセット情報に基づくカメラユニットを実行できる。例えば、オペレータがPS006を選択した場合、オペレータシステム30aの制御部33は、PS006の情報を制御システム40に伝える。PS006の情報を受けた制御システム40は、プリセット実行部46aの機能により、オペレータシステム30aに操作権限が設定されているカメラユニットをPS006のパラメータセットに基づいて制御する。 The operator selects the preset information displayed in the preset display area 371 with the operating body 302, thereby executing the camera unit based on the preset information. For example, when the operator selects PS006, the control unit 33 of the operator system 30a notifies the control system 40 of information on PS006. The control system 40 that has received the information of PS006 controls the camera units for which the operator system 30a is authorized to operate based on the parameter set of PS006 by the function of the preset execution section 46a.

シナリオ撮影モードでは、図34に示すようなシナリオ表示領域が表示部32に表示される。シナリオ表示領域は、タイトル表示領域381と、タイムライン表示領域382と、ユニットコントロール領域383a、383b、383cと、状況表示領域384a、384b、384c、384dとを含む。 In scenario shooting mode, a scenario display area as shown in FIG. The scenario display area includes a title display area 381, a timeline display area 382, unit control areas 383a, 383b, 383c, and situation display areas 384a, 384b, 384c, 384d.

タイトル表示領域381には、シナリオを識別するためのシナリオタイトルが表示される。タイムライン表示領域382には、タイムラインが表示される。ユニットコントロール領域383aには、UN1の制御に用いるプリセット情報が表示される。ユニットコントロール領域383bには、UN2の制御に用いるプリセット情報が表示される。ユニットコントロール領域383cには、UN3の制御に用いるプリセット情報が表示される。 A title display area 381 displays a scenario title for identifying a scenario. A timeline is displayed in the timeline display area 382 . Preset information used for controlling UN1 is displayed in the unit control area 383a. Preset information used for controlling UN2 is displayed in the unit control area 383b. Preset information used for controlling UN3 is displayed in the unit control area 383c.

ユニットコントロール領域383a、383b、383cに表示されるプリセット情報は、実行タイミングに対応するタイムライン上の時刻に対応付けて表示される。状況表示領域384a、384b、384c、384dには、対応する時刻における動作の進行状況が表示される。例えば、動作が完了している場合には「DONE」、動作中又は動作を準備している場合には「READY」と表示される。図34の例では、現在、動作を実行している部分を太枠で表示している。 The preset information displayed in the unit control areas 383a, 383b, and 383c is displayed in association with the time on the timeline corresponding to the execution timing. The status display areas 384a, 384b, 384c, and 384d display the progress status of the operation at the corresponding time. For example, "DONE" is displayed when the operation is completed, and "READY" is displayed when the operation is in progress or is being prepared. In the example of FIG. 34, the portion currently executing the action is displayed with a bold frame.

シナリオを実行すると、タイムラインに沿って順番にプリセット情報に基づく動作が実行される。図34の例では、時刻00:00:00枠内の設定時刻になるとUN1がPR0018に基づく動作を開始し、同枠内の設定時刻になるとUN3がPR011に基づく動作を開始する。時刻00:10:00枠内の設定時刻になると、UN1がPR021に基づく動作を開始し、同枠内の設定時刻になるとUN2がPR015に基づく動作を開始する。このように、シナリオ表示領域に並べて表示されているシナリオ情報に基づいて動作が自動的に進められる。なお、各プリセット動作の実行開始時刻は異なっていてもよいし同じであってもよい。また、各プリセット動作の実行時間は異なっていてもよいし同じであってもよい。これらの設定内容についてはプリセット情報を用いて規定することができる。映像出力はUN1、UN2…にて継続的に実行されてよく、映像出力はスイッチャにより制御されてよい。 When the scenario is executed, actions based on the preset information are executed in order along the timeline. In the example of FIG. 34, UN1 starts an operation based on PR0018 at the set time within the time frame of 00:00:00, and UN3 starts an operation based on PR011 at the set time within the same frame. At the set time within the time frame of 00:10:00, UN1 starts operating based on PR021, and at the set time within the same frame, UN2 starts operating based on PR015. In this manner, actions are automatically advanced based on the scenario information displayed side by side in the scenario display area. Note that the execution start time of each preset operation may be different or the same. Also, the execution time of each preset operation may be different or the same. These settings can be defined using preset information. The video output may be performed continuously at UN1, UN2, . . . and the video output may be controlled by a switcher.

上述したGUIを利用することで、オペレータは、プリセット撮影モード及びシナリオ撮影モードでの操作を行うことができる。 By using the GUI described above, the operator can perform operations in the preset shooting mode and the scenario shooting mode.

(視線検知)
再び図26を参照する。制御部33は、操作部31に対する入力に応じてカメラユニットを制御するための制御信号を制御システム40に伝送し、制御システム40と連携してカメラユニットを制御する。また、制御部33は、上述したGUIの表示制御を実行しうる。また、制御部33は、オペレータの操作内容を操作ログとして記憶部35に格納してもよいし、その操作ログを制御システム40に提供してもよい。
(line-of-sight detection)
Refer to FIG. 26 again. The control unit 33 transmits a control signal for controlling the camera unit to the control system 40 in accordance with an input to the operation unit 31 and controls the camera unit in cooperation with the control system 40 . Further, the control unit 33 can execute the display control of the GUI described above. Further, the control unit 33 may store the contents of operations performed by the operator in the storage unit 35 as an operation log, and may provide the operation log to the control system 40 .

センサ部34は、加速度センサ、磁気センサ、ジャイロスコープなどのモーションセンサを含み、モーションセンサの出力に基づいてオペレータの視線方向を検知する。オペレータの視線方向は、オペレータの顔面から表示部32の画面へと向かう方向に設定されてよい。オペレータが直立姿勢のときの視線方向を基準(正面)に設定することで、モーションセンサの出力に基づき、現在の視線方向を正面からのズレ量として求めることができる。 The sensor unit 34 includes a motion sensor such as an acceleration sensor, a magnetic sensor, and a gyroscope, and detects the line-of-sight direction of the operator based on the output of the motion sensor. The line-of-sight direction of the operator may be set in the direction from the operator's face to the screen of the display unit 32 . By setting the line-of-sight direction when the operator is in an upright posture as the reference (front), the current line-of-sight direction can be obtained as the amount of deviation from the front based on the output of the motion sensor.

なお、センサ部34は、オペレータが頭部に装着するセンサデバイスであってもよいし、HMDやスマートグラスに内蔵されたモーションセンサであってもよい。変形例として、センサ部34は、モーションセンサではなく、オペレータの頭部を撮影するカメラであってもよい。この場合、オペレータの頭部を映した画像から画像処理により視線方向を検知することができる。この画像処理は、制御部33が実行してもよい。センサ部34から出力される視線方向の情報は、制御部33を介して制御システム40に伝送される。 The sensor unit 34 may be a sensor device worn on the operator's head, or may be a motion sensor built into an HMD or smart glasses. As a modification, the sensor unit 34 may be a camera that captures an image of the operator's head instead of the motion sensor. In this case, the line-of-sight direction can be detected by image processing from an image of the operator's head. This image processing may be performed by the control unit 33 . The line-of-sight direction information output from the sensor unit 34 is transmitted to the control system 40 via the control unit 33 .

視線方向の情報を受けた制御システム40は、アイビューカメラ12の出力映像から切り出した、オペレータの視界に対応するアイビュー映像をオペレータシステム30aに伝送する。制御部33は、制御システム40から受信したアイビュー映像を表示部32に表示させる。なお、制御システム40から全方位映像を取得し、制御部33が視線方向に対応するアイビュー映像を切り出して表示部32に表示してもよい。 The control system 40 that has received the line-of-sight direction information transmits an eye-view image corresponding to the operator's field of view cut out from the output image of the eye-view camera 12 to the operator system 30a. The control unit 33 causes the display unit 32 to display the eye-view image received from the control system 40 . An omnidirectional image may be obtained from the control system 40 , and the eye-view image corresponding to the line-of-sight direction may be cut out by the control unit 33 and displayed on the display unit 32 .

上述したオペレータシステム30aの機能は、記憶部35に格納されたプログラム35aを制御部33が実行することにより実現されてもよい。プログラム35aは、予め記憶部35に格納されていてもよいし、制御システム40又はネットワーク上の他のサーバ装置(非図示)から取得されてもよい。 The functions of the operator system 30a described above may be realized by the control unit 33 executing the program 35a stored in the storage unit 35. FIG. The program 35a may be stored in advance in the storage unit 35, or may be acquired from the control system 40 or another server device (not shown) on the network.

[5.処理フロー]
次に、本実施形態に係るリモートカメラシステムにおける処理の流れについて説明する。以下、プリセット登録に関する処理フロー、トレース登録に関する処理フロー、シナリオ設定に関する処理フロー、そして、操作権限の設定及び移転に関する処理フローについて順に説明する。
[5. Processing flow]
Next, the flow of processing in the remote camera system according to this embodiment will be described. Hereinafter, a processing flow regarding preset registration, a processing flow regarding trace registration, a processing flow regarding scenario setting, and a processing flow regarding setting and transfer of operation authority will be described in order.

(プリセット登録について)
まず、図35を参照しながら、本実施形態に係るプリセット登録に関する処理の流れについて説明する。図35は、本実施形態に係るプリセット登録に関する処理の流れについて説明するためのフロー図である。以下、オペレータOPがオペレータシステム30aを利用してプリセット登録を行う場合について説明する。
(Regarding preset registration)
First, the flow of processing relating to preset registration according to the present embodiment will be described with reference to FIG. FIG. 35 is a flowchart for explaining the flow of processing relating to preset registration according to this embodiment. A case where the operator OP performs preset registration using the operator system 30a will be described below.

(S101)オペレータOPは、オペレータシステム30aを介して制御システム40にプリセット登録の開始を要求する。この要求を受けた制御システム40は、プリセット登録を許可する権限(EDIT)がオペレータOPに設定されていることを確認する。ここでは、オペレータOPにEDIT権限が設定されているとする。 (S101) The operator OP requests the control system 40 to start preset registration via the operator system 30a. Upon receiving this request, the control system 40 confirms that the authority (EDIT) permitting preset registration is set for the operator OP. Here, it is assumed that the operator OP has the EDIT authority.

(S102-S104)オペレータOPは、登録したいロケーション、ポジション、及びカメラパラメータをオペレータシステム30aに入力する。ロケーションは、カメラユニットを配置するスタジオ座標系の座標値で指定されうる。ポジションは、TCPを配置するユニット座標系の座標値で指定されうる。カメラパラメータは、チルト角θx、パン角θz、ズーム値などを含む。なお、オペレータOPにより入力されないカメラパラメータについては、事前に設定されたデフォルト値が用いられてもよい。オペレータシステム30aは、入力されたロケーション、ポジション、及びカメラパラメータを指示する制御信号を制御システム40に送る。 (S102-S104) The operator OP inputs the location, position and camera parameters to be registered to the operator system 30a. The location can be specified by the coordinate values of the studio coordinate system in which the camera units are arranged. The position can be designated by the coordinate values of the unit coordinate system in which the TCP is arranged. Camera parameters include tilt angle θx, pan angle θz, zoom value, and the like. For camera parameters that are not input by the operator OP, preset default values may be used. Operator system 30a sends control signals to control system 40 indicating the location, position, and camera parameters entered.

(S105)制御システム40は、オペレータシステム30aから受信した制御信号で指示されるロケーションにカメラユニットを移動させる。また、制御システム40は、受信した制御信号で指示されるポジションにTCPを移動する。また、制御システム40は、受信した制御信号で指示されるカメラパラメータに基づき、パン・チルト方向を設定し、ズームなどの設定値をメインカメラに設定する。そして、制御システム40は、設定後のカメラユニットによる動作を開始し、カメラユニットから出力されるメイン映像をオペレータシステム30aに伝送する。 (S105) The control system 40 moves the camera unit to the location indicated by the control signal received from the operator system 30a. Control system 40 also moves the TCP to the position indicated by the received control signal. In addition, the control system 40 sets the pan/tilt direction and sets the set values such as zoom to the main camera based on the camera parameters indicated by the received control signal. Then, the control system 40 starts the operation of the camera unit after setting, and transmits the main image output from the camera unit to the operator system 30a.

(S106、S107)オペレータOPは、制御システム40から伝送されるメイン映像を見ながら、必要に応じてポジション及びカメラパラメータを調整する。ポジション及びカメラパラメータが決まると、オペレータOPは、登録操作を実行する。この登録操作に応じて、オペレータシステム30aは、登録を指示する制御信号を制御システム40に送る。 (S106, S107) The operator OP adjusts the position and camera parameters as necessary while viewing the main image transmitted from the control system 40. FIG. Once the position and camera parameters are determined, the operator OP performs a registration operation. In response to this registration operation, the operator system 30a sends a control signal instructing registration to the control system 40. FIG.

(S108)制御システム40は、登録を指示する制御信号に応じて、現在、カメラユニットから出力されているメイン映像からサムネイルを作成する。例えば、制御システム40は、メイン映像から静止画像を切り出し、静止画像の解像度を調整してサムネイルを生成する。なお、制御システム40は、所定の圧縮・符号化方式に基づいて静止画像を圧縮・符号化してもよい。 (S108) The control system 40 creates a thumbnail from the main video currently output from the camera unit in accordance with the control signal instructing registration. For example, the control system 40 cuts out still images from the main video, adjusts the resolution of the still images, and generates thumbnails. Note that the control system 40 may compress/encode the still image based on a predetermined compression/encoding method.

(S109)制御システム40は、オペレータOPによる登録操作時のロケーション、ポジション、カメラパラメータ、及びS108で生成したサムネイルをプリセット情報としてプリセットDB48bに登録する。 (S109) The control system 40 registers the location, position, camera parameters, and thumbnail generated in S108 at the time of registration operation by the operator OP in the preset DB 48b as preset information.

(S110)プリセット情報の登録を終了する場合(例えば、オペレータOPが終了操作を行った場合)、図35に示した一連の処理は終了する。プリセット情報の登録を継続する場合、処理はS102へと進む。 (S110) When the registration of the preset information ends (for example, when the operator OP performs a termination operation), the series of processes shown in FIG. 35 ends. If the registration of preset information is to be continued, the process proceeds to S102.

(トレース登録について)
次に、図36を参照しながら、本実施形態に係るトレース登録に関する処理の流れについて説明する。図36は、本実施形態に係るトレース登録に関する処理の流れについて説明するためのフロー図である。以下、オペレータOPがオペレータシステム30aを利用してトレース登録を行う場合について説明する。
(Regarding trace registration)
Next, the flow of processing relating to trace registration according to this embodiment will be described with reference to FIG. FIG. 36 is a flowchart for explaining the flow of processing relating to trace registration according to this embodiment. A case where the operator OP performs trace registration using the operator system 30a will be described below.

これまで説明してきたプリセット情報は、カメラユニットの1状態を示すものであった。ここでは、ある状態(状態A)から他の状態(状態B)へのカメラユニットの状態遷移を事前登録するトレース登録について説明する。なお、カメラユニットの状態に関する情報を事前登録するという意味で、トレース登録もプリセット登録の一種である。 The preset information described so far indicates one state of the camera unit. Here, trace registration for pre-registering the state transition of the camera unit from one state (state A) to another state (state B) will be described. Trace registration is also a kind of preset registration in the sense of pre-registering information about the state of the camera unit.

(S121)オペレータOPは、オペレータシステム30aを介して制御システム40にトレース登録の開始を要求する。この要求を受けた制御システム40は、トレース登録を許可する権限(EDIT)がオペレータOPに設定されていることを確認する。ここでは、トレース登録もEDIT権限で許可されるものとし、また、オペレータOPにEDIT権限が設定されているとする。 (S121) The operator OP requests the control system 40 to start trace registration via the operator system 30a. Upon receiving this request, the control system 40 confirms that the authority (EDIT) permitting trace registration is set for the operator OP. Here, it is assumed that trace registration is also permitted with EDIT authority, and that EDIT authority is set for the operator OP.

(S122-S124)オペレータOPは、カメラユニットの制御モードをリアルタイム操作モードに設定し、カメラユニットを所望のロケーションに移動させ、ポジションやカメラパラメータなどの調整を行う。この作業が完了すると、オペレータOPは、トレース登録の開始操作を実行する。そして、オペレータOPは、リアルタイム操作によるカメラワークを開始する。 (S122-S124) The operator OP sets the control mode of the camera unit to the real-time operation mode, moves the camera unit to a desired location, and adjusts the position and camera parameters. When this work is completed, the operator OP executes the start operation of trace registration. Then, the operator OP starts camera work by real-time operation.

(S125)制御システム40は、オペレータOPによるトレース登録の開始操作の後、ロケーション、ポジション、カメラパラメータの時系列記録を実行する。つまり、制御システム40は、カメラユニットの挙動を記録する。これにより、オペレータOPのカメラワークがトレースとして制御システム40内に保存される。 (S125) The control system 40 performs chronological recording of the location, position, and camera parameters after the operator OP performs the trace registration start operation. That is, control system 40 records the behavior of the camera unit. Thereby, the operator OP's camerawork is saved in the control system 40 as a trace.

(S126)オペレータOPは、トレース登録の操作中にプリセット登録を行ってもよい。オペレータOPがプリセット登録の操作を行ったとき、処理はS127へと進む。一方、オペレータOPがプリセット登録の操作を行っていないとき、処理はS129へと進む。 (S126) The operator OP may perform preset registration during the trace registration operation. When the operator OP performs the preset registration operation, the process proceeds to S127. On the other hand, when the operator OP has not performed the preset registration operation, the process proceeds to S129.

(S127、S128)制御システム40は、プリセット登録の操作時におけるメイン映像からサムネイルを作成する。また、制御システム40は、プリセット登録の操作時におけるカメラユニットのロケーション、ポジション、パン・チルト、その他のカメラパラメータと、生成したサムネイルとをプリセットDB48bに登録する。 (S127, S128) The control system 40 creates thumbnails from the main video at the time of preset registration operation. In addition, the control system 40 registers the location, position, pan/tilt, and other camera parameters of the camera unit at the time of preset registration operation, and the generated thumbnail in the preset DB 48b.

(S129)オペレータOPがトレース登録の終了操作を行った場合、制御システム40は、トレース登録の開始操作から終了操作までの間に記録されたカメラユニットの状態を示す時系列の情報をトレース情報として記憶部48に保持する。一方、オペレータOPがトレース登録の終了操作を行っていない場合、処理はS125へと進む。 (S129) When the operator OP performs an operation to end the trace registration, the control system 40 uses time-series information indicating the state of the camera unit recorded between the start operation and the end operation of the trace registration as trace information. It is held in the storage unit 48 . On the other hand, if the operator OP has not performed an operation to end the trace registration, the process proceeds to S125.

上記のトレース情報は、プリセット情報と同様に、シナリオに組み込むことができる。例えば、カメラユニットを安全に移動させる移動経路をトレース情報として用意しておき、シナリオに組み入れることで、より安全なシナリオ撮影が可能になる。また、プリセット撮影時も、トレース情報を利用することで、特定のカメラユニットを先に目的のロケーションに移動させておくなどが可能になる。このように、プリセット情報も、これまで説明してきたプリセット情報と同じように扱うことができ、プリセット撮影及びシナリオ撮影に用いることができる。 The above trace information, like preset information, can be incorporated into scenarios. For example, by preparing a movement route for safely moving the camera unit as trace information and incorporating it into the scenario, safer scenario shooting becomes possible. Also, by using trace information, it is possible to move a specific camera unit to the desired location in advance, even during preset shooting. In this way, the preset information can be handled in the same manner as the preset information described so far, and can be used for preset shooting and scenario shooting.

(シナリオ設定について)
次に、図37を参照しながら、本実施形態に係るシナリオ設定に関する処理の流れについて説明する。図37は、本実施形態に係るシナリオ設定に関する処理の流れについて説明するためのフロー図である。以下、オペレータOPがオペレータシステム30aを利用してシナリオ設定を行う場合について説明する。
(About scenario settings)
Next, with reference to FIG. 37, the flow of processing relating to scenario setting according to this embodiment will be described. FIG. 37 is a flowchart for explaining the flow of processing relating to scenario setting according to this embodiment. A case where the operator OP uses the operator system 30a to set a scenario will be described below.

(S131)オペレータOPは、オペレータシステム30aを介して制御システム40シナリオ設定の開始を要求する。この要求を受けた制御システム40は、シナリオ設定を許可する権限(EDIT)がオペレータOPに設定されていることを確認する。ここでは、シナリオ設定もEDIT権限で許可されるものとし、また、オペレータOPにEDIT権限が設定されているとする。 (S131) The operator OP requests the start of scenario setting for the control system 40 via the operator system 30a. Upon receiving this request, the control system 40 confirms that the authority (EDIT) permitting scenario setting is set for the operator OP. Here, it is assumed that scenario setting is permitted with EDIT authority, and that EDIT authority is set for the operator OP.

(S132)オペレータOPは、新規にシナリオを設定することもできるし、既存のシナリオを編集することもできる。新規にシナリオを設定する場合、処理はS133へと進む。一方、既存のシナリオを編集する場合、処理はS135へと進む。 (S132) The operator OP can set a new scenario or edit an existing scenario. When setting a new scenario, the process proceeds to S133. On the other hand, when editing an existing scenario, the process proceeds to S135.

(S133)オペレータシステム30aは、制御システム40からオペレータOPに権限がある旨の通知を受け、制御システム40から取得したプリセット情報に基づいて、各カメラユニットに対応するタイムライン及びプリセットリストを表示する。例えば、オペレータシステム30aは、図34のようなタイムライン表示領域382及びユニットコントロール領域383a、383b、383cを表示し、さらに、図33のプリセット表示領域371のようなプリセット情報のリスト(プリセットリスト)を表示してもよい。 (S133) The operator system 30a receives notification from the control system 40 that the operator OP has authority, and displays the timeline and preset list corresponding to each camera unit based on the preset information acquired from the control system 40. . For example, the operator system 30a displays a timeline display area 382 and unit control areas 383a, 383b, and 383c as shown in FIG. 34, and a preset information list (preset list) such as the preset display area 371 in FIG. may be displayed.

(S134)オペレータOPは、プリセットリストからプリセット情報を選択し、各カメラユニットに対応するタイムライン上に、選択したプリセット情報を配置する。このように、プリセット情報の選択と配置とを繰り返すことによりシナリオが生成されうる。S134の処理が完了すると、処理はS137へと進む。 (S134) The operator OP selects preset information from the preset list and arranges the selected preset information on the timeline corresponding to each camera unit. In this way, a scenario can be generated by repeating the selection and arrangement of preset information. When the process of S134 is completed, the process proceeds to S137.

(S135、S136)オペレータシステム30aは、制御システム40からオペレータOPに権限がある旨の通知を受け、制御システム40から取得した既存シナリオのシナリオ情報に基づいて、プリセット情報を配置した各カメラユニットに対応するタイムラインを表示する。例えば、オペレータシステム30aは、図34のようなタイムライン表示領域382及びユニットコントロール領域383a、383b、383cを表示する。オペレータOPは、表示されたプリセット情報の配置を変更する。 (S135, S136) The operator system 30a receives a notification from the control system 40 that the operator OP has authority, and based on the scenario information of the existing scenario acquired from the control system 40, the preset information is arranged in each camera unit. View the corresponding timeline. For example, the operator system 30a displays a timeline display area 382 and unit control areas 383a, 383b, 383c as shown in FIG. The operator OP changes the arrangement of the displayed preset information.

(S137)制御システム40は、オペレータシステム30aで設定されたシナリオ情報を取得し、そのシナリオ情報に基づいてスタジオ内でカメラユニットを動かした場合にカメラユニットの動線が干渉しないかどうかを判定する。例えば、制御システム40は、シナリオ情報に基づいて各カメラユニットの移動シミュレーションを実行し、カメラユニット同士が衝突しないかを確認する。カメラユニットの動線が干渉しない場合、処理はS138へと進む。一方、カメラユニットの動線が干渉する場合、処理はS135へと進み、現在のシナリオに対する編集をオペレータOPに要求する。 (S137) The control system 40 acquires the scenario information set by the operator system 30a, and based on the scenario information, determines whether or not the flow lines of the camera units interfere with each other when the camera units are moved in the studio. . For example, the control system 40 executes a movement simulation of each camera unit based on the scenario information and checks whether the camera units will collide with each other. If the flow lines of the camera units do not interfere, the process proceeds to S138. On the other hand, if the flow lines of the camera units interfere, the process advances to S135 to request the operator OP to edit the current scenario.

図37の例ではS137における判定条件を動線の干渉有無としているが、これを他の判定条件に代えてもよいし、動線の干渉有無に他の判定条件を加えてもよい。他の条件としては、例えば、メイン映像に他のカメラユニットなどの余計な対象物が映り込んでいないこと(つまり、見切れがないこと)などがある。もちろん、安全な撮影環境の確保及び安定した映像の取得などを実現するために他の判定条件が設定されてもよい。こうした変形例も当然に本実施形態の技術的範囲に属する。 In the example of FIG. 37, the determination condition in S137 is the presence or absence of interference between flow lines, but this may be replaced with another determination condition, or another determination condition may be added to the presence or absence of interference between flow lines. Other conditions include, for example, that the main image does not include any unnecessary objects such as other camera units (that is, that there is no cut-off). Of course, other determination conditions may be set in order to ensure a safe shooting environment, obtain stable images, and the like. Such modifications naturally belong to the technical scope of the present embodiment.

(S138)制御システム40は、設定されたシナリオ情報を保存する。S138の処理が完了すると、図37に示した一連の処理は終了する。 (S138) The control system 40 saves the set scenario information. When the process of S138 is completed, the series of processes shown in FIG. 37 ends.

(操作権限の設定及び移転について)
次に、図38を参照しながら、本実施形態に係る操作権限の設定及び移転に関する処理の流れについて説明する。図38は、本実施形態に係る操作権限の設定及び移転に関する処理の流れについて説明するためのシーケンス図である。以下、オペレータシステム30aをオペレータOP1が操作し、オペレータシステム30bをオペレータOP2が操作する場合について説明する。
(Regarding setting and transfer of operation authority)
Next, with reference to FIG. 38, the flow of processing regarding setting and transfer of operation authority according to this embodiment will be described. FIG. 38 is a sequence diagram for explaining the flow of processing related to setting and transferring operation authority according to this embodiment. A case where the operator OP1 operates the operator system 30a and the operator OP2 operates the operator system 30b will be described below.

(S141)オペレータOP1は、オペレータシステム30aを操作して、UN1の操作権限を制御システム40に要求する。 (S141) The operator OP1 operates the operator system 30a to request the control system 40 to operate UN1.

(S142)制御システム40は、操作権限情報48dを参照し、UN1に現在設定されている操作権限の有無を確認する。ここではUN1に操作権限が設定されていないとする。この場合、制御システム40は、UN1の操作権限をオペレータシステム30aに設定してよいと判断する。 (S142) The control system 40 refers to the operation authority information 48d and confirms whether UN1 currently has the operation authority. Here, it is assumed that the operation authority is not set for UN1. In this case, the control system 40 determines that the operation authority of UN1 may be set to the operator system 30a.

(S143)制御システム40は、オペレータシステム30aに対してUN1の操作権限を設定し、操作権限情報48dを更新する。 (S143) The control system 40 sets UN1 operation authority for the operator system 30a, and updates the operation authority information 48d.

(S144)制御システム40は、UN1に対する操作権限の設定が済んだ旨の通知をオペレータシステム30aに送信する。 (S144) The control system 40 transmits to the operator system 30a a notification that the operation authority for UN1 has been set.

(S145)オペレータシステム30aは、制御システム40からUN1に対する操作権限の設定が済んだ旨の通知を受信すると、その旨を表示してオペレータOP1に知らせる。オペレータOP1は、オペレータシステム30aを用いてUN1を操作する。 (S145) When the operator system 30a receives the notification from the control system 40 that the operation authority for UN1 has been set, the operator system 30a displays and notifies the operator OP1. An operator OP1 operates UN1 using an operator system 30a.

(S146)オペレータOP1によるUN1の操作中に、オペレータOP2がUN1の操作を希望する場合、オペレータOP2は、オペレータシステム30bを操作して、UN1の操作権限を制御システム40に要求する。 (S146) If the operator OP2 desires to operate UN1 while the operator OP1 is operating UN1, the operator OP2 operates the operator system 30b to request the control system 40 to operate UN1.

(S147)制御システム40は、操作権限情報48dを参照し、UN1に現在設定されている操作権限の有無を確認する。ここでは、オペレータシステム30aに対してUN1の操作権限が設定されている。この場合、制御システム40は、UN1の操作権限がオペレータシステム30aに設定されていると判断する。 (S147) The control system 40 refers to the operation authority information 48d and confirms whether or not UN1 currently has the operation authority. Here, the operation authority of UN1 is set for the operator system 30a. In this case, the control system 40 determines that the operation authority for UN1 is set to the operator system 30a.

(S148)制御システム40は、オペレータシステム30aにUN1の操作権限が設定されている旨(オペレータOP1が使用中である旨)の通知をオペレータシステム30bに送信する。 (S148) The control system 40 transmits to the operator system 30b a notification that the operator system 30a has been granted the UN1 operation authority (that the operator OP1 is in use).

(S149)制御システム40は、オペレータシステム30b(オペレータOP2)からUN1の操作権限の要求があった旨の通知をオペレータシステム30aに送信する。 (S149) The control system 40 transmits to the operator system 30a a notification that the operator system 30b (operator OP2) has requested the operation authority of UN1.

(S150)オペレータOP1、OP2は、UN1の操作権限をオペレータOP1からオペレータOP2に移転することについて交渉する。例えば、制御システム40は、オペレータシステム30a、30bの間でチャットを行うためのコミュニケーションツールを提供し、チャットによりオペレータOP1、OP2が交渉できるようにしてもよい。また、制御システム40は、チャットの内容を通信ログ48fとして記憶部48に格納してもよい。 (S150) Operators OP1 and OP2 negotiate to transfer the operation authority of UN1 from operator OP1 to operator OP2. For example, the control system 40 may provide a communication tool for chatting between the operator systems 30a, 30b so that the operators OP1, OP2 can negotiate. Also, the control system 40 may store the content of the chat in the storage unit 48 as a communication log 48f.

(S151)オペレータOP1がUN1の操作権限を移転することについて同意した場合、オペレータシステム30aは、UN1に対する操作権限の解放を制御システム40に要求する。なお、オペレータシステム30aから制御システム40に、UN1に対する操作権限の解放を承諾する旨の通知が送られてもよい。 (S151) When the operator OP1 agrees to transfer the operation authority of UN1, the operator system 30a requests the control system 40 to release the operation authority of UN1. Note that the operator system 30a may send a notification to the control system 40 to the effect that it approves the release of the operation authority for the UN1.

(S152)オペレータシステム30aからUN1に対する操作権限の解放要求を受けた制御システム40は、UN1の動作を一時停止する。これにより、操作権限の移転作業を行っている間、UN1に対する操作が無効になる。 (S152) The control system 40 that has received the operation authority release request for the UN1 from the operator system 30a suspends the operation of the UN1. As a result, the operation on UN1 is disabled while the operation authority is being transferred.

(S153、S154)制御システム40は、オペレータシステム30aに設定されていたUN1に対する操作権限を解放し、操作権限情報48dを更新する。そして、制御システム40は、UN1に対する操作権限の解放が完了した旨の通知をオペレータシステム30aに送信する。 (S153, S154) The control system 40 releases the operation authority for UN1 set in the operator system 30a, and updates the operation authority information 48d. Then, the control system 40 sends a notification to the operator system 30a that the release of the operation authority for UN1 has been completed.

(S155、S156)制御システム40は、UN1に対する操作権限をオペレータシステム30bに設定し、操作権限情報48dを更新する。そして、制御システム40は、UN1に対する操作権限の設定が済んだ旨の通知をオペレータシステム30bに送信する。 (S155, S156) The control system 40 sets the operation authority for UN1 to the operator system 30b, and updates the operation authority information 48d. The control system 40 then sends a notification to the operator system 30b to the effect that the setting of the operation authority for UN1 has been completed.

(S157)オペレータシステム30bは、制御システム40からUN1に対する操作権限の設定が済んだ旨の通知を受信すると、その旨を表示してオペレータOP2に知らせる。オペレータOP2は、オペレータシステム30bを用いてUN2を操作する。 (S157) When the operator system 30b receives the notification from the control system 40 that the operation authority for UN1 has been set, the operator system 30b displays and notifies the operator OP2. An operator OP2 operates UN2 using an operator system 30b.

上記のように、制御システム40が操作権限を管理し、1つのカメラユニットに対しては1人のオペレータを割り当てる排他制御を実施することで、撮影現場での混乱を回避し、カメラユニットの遠隔操作による安全な撮影を行うことができるようになる。また、操作権限を移転する際にオペレータ同士で適切に交渉を行うことができるようにすることで、オペレータの入れ替えを円滑に行うことができるようになる。 As described above, the control system 40 manages the operation authority and implements exclusive control for assigning one operator to one camera unit, thereby avoiding confusion at the shooting site and controlling the remote control of the camera unit. It becomes possible to perform safe shooting by operation. In addition, by allowing operators to appropriately negotiate with each other when transferring the operation authority, the operator can be replaced smoothly.

[6.3Dシミュレーションへの応用]
これまで、スタジオ内にカメラユニットを実際に設置することを想定して説明してきたが、上述したリモートカメラシステム5を3Dシミュレーションにより仮想空間内に作り出すことも可能である。この場合、上述したカメラユニット10a、10b及びリアビューカメラ20a、20bを仮想空間内の仮想オブジェクトとして構築し、上述したオペレータシステム30a、30bで仮想オブジェクトを操作する仕組みになる。この仕組みでは、仮想オブジェクトの制御は、制御システム40により実行される。このように、3Dシミュレーションによりリモートカメラシステム5を仮想化することもできる。このような応用例も当然に本実施形態の技術的範囲に属する。
[6. Application to 3D simulation]
So far, the explanation has been given on the assumption that the camera unit is actually installed in the studio, but it is also possible to create the remote camera system 5 described above in the virtual space by 3D simulation. In this case, the camera units 10a and 10b and the rear view cameras 20a and 20b described above are constructed as virtual objects in the virtual space, and the virtual objects are operated by the operator systems 30a and 30b described above. In this scheme, control of the virtual object is performed by control system 40 . Thus, the remote camera system 5 can also be virtualized by 3D simulation. Such application examples naturally belong to the technical scope of the present embodiment.

[7.ハードウェア]
次に、図39を参照しながら、本実施形態に係る制御システムの機能を実現可能なハードウェアについて説明する。図39は、本実施形態に係る制御システムの機能を実現可能なハードウェアについて説明するためのブロック図である。
[7. hardware]
Next, hardware capable of realizing the functions of the control system according to this embodiment will be described with reference to FIG. FIG. 39 is a block diagram for explaining hardware capable of realizing the functions of the control system according to this embodiment.

制御システム40が有する機能は、例えば、図39に示すハードウェア資源を用いて実現することが可能である。つまり、制御システム40が有する機能は、コンピュータプログラムを用いて図39に示すハードウェアを制御することにより実現される。 The functions of the control system 40 can be implemented using, for example, hardware resources shown in FIG. That is, the functions of the control system 40 are implemented by controlling the hardware shown in FIG. 39 using a computer program.

図39に示すように、このハードウェアは、主に、プロセッサ40a、メモリ40b、表示I/F(Interface)40c、通信I/F40d及び接続I/F40eを有する。 As shown in FIG. 39, this hardware mainly has a processor 40a, a memory 40b, a display I/F (Interface) 40c, a communication I/F 40d and a connection I/F 40e.

プロセッサ40aは、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、GPU(Graphic Processing Unit)などであってよい。メモリ40bは、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリなどであってよい。 The processor 40a may be a CPU (Central Processing Unit), DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), GPU (Graphic Processing Unit), or the like. The memory 40b may be ROM (Read Only Memory), RAM (Random Access Memory), HDD (Hard Disk Drive), SSD (Solid State Drive), flash memory, or the like.

表示I/F40cは、LCD(Liquid Crystal Display)、ELD(Electro-Luminescence Display)などのディスプレイデバイスを接続するためのインターフェースである。通信I/F40dは、有線及び/又は無線のネットワークに接続するためのインターフェースである。通信I/F40dは、有線LAN(Local Area Network)、無線LAN、光通信ネットワークなどに接続されてよい。 The display I/F 40c is an interface for connecting display devices such as LCD (Liquid Crystal Display) and ELD (Electro-Luminescence Display). The communication I/F 40d is an interface for connecting to a wired and/or wireless network. The communication I/F 40d may be connected to a wired LAN (Local Area Network), a wireless LAN, an optical communication network, or the like.

接続I/F40eは、外部デバイスを接続するためのインターフェースである。接続I/F40eは、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)などであってよい。接続I/F40eには、キーボード、マウス、タッチパネル、タッチパッドなどの入力インターフェースが接続されてよい。また、接続I/F40eには、磁気記録媒体、光ディスク、光磁気ディスク、半導体メモリなどの可搬性の記録媒体40fが接続されてよい。 The connection I/F 40e is an interface for connecting external devices. The connection I/F 40e may be a USB (Universal Serial Bus) port, IEEE1394 port, SCSI (Small Computer System Interface), or the like. An input interface such as a keyboard, mouse, touch panel, or touch pad may be connected to the connection I/F 40e. A portable recording medium 40f such as a magnetic recording medium, an optical disk, a magneto-optical disk, or a semiconductor memory may be connected to the connection I/F 40e.

プロセッサ40aは、記録媒体40fに格納されたプログラムを読み出してメモリ40bに格納し、メモリ40bから読み出したプログラムに従って制御システム40の動作を制御してよい。制御システム40の動作を制御するプログラムは、メモリ40bに予め格納されてもよいし、通信I/F40dを介してネットワークからダウンロードされてもよい。 The processor 40a may read the program stored in the recording medium 40f, store it in the memory 40b, and control the operation of the control system 40 according to the program read from the memory 40b. A program that controls the operation of the control system 40 may be stored in advance in the memory 40b, or may be downloaded from the network via the communication I/F 40d.

既に説明したユニット制御部41、メイン映像出力部42、アイビュー提供部43、リアビュー提供部44、通信ツール提供部45、カメラワーク実行部46、及び権限管理部47が有する機能は、主に、上述したプロセッサ40aを用いて実現可能である。既に説明した記憶部48の機能は、主に、上述したメモリ40bを用いて実現可能である。 The functions of the unit control section 41, the main video output section 42, the eye view providing section 43, the rear view providing section 44, the communication tool providing section 45, the camera work execution section 46, and the authority management section 47, which have already been described, are mainly: It can be implemented using the processor 40a described above. The functions of the storage unit 48 already described can be realized mainly using the memory 40b described above.

ここでは制御システム40の機能を実現可能なハードウェア構成として図39の構成例を示したが、例えば、カメラユニット10a、10bのコントロールボックス14が有する機能の少なくとも一部、及び、オペレータシステム30a、30bが有する機能も図39に例示したハードウェア構成を用いて実現可能である。例えば、コントロールボックス14の機能は、上述したプロセッサ40aにより実現可能である。 Here, the configuration example of FIG. 39 is shown as a hardware configuration capable of realizing the functions of the control system 40. For example, at least part of the functions of the control boxes 14 of the camera units 10a and 10b, the operator system 30a, The functions of 30b can also be implemented using the hardware configuration illustrated in FIG. For example, the functions of the control box 14 can be implemented by the processor 40a described above.

また、オペレータシステム30a、30bに含まれる操作部31の機能は、上述した接続I/F40eに接続される各種の入力インターフェースにより実現されうる。また、表示部32の機能は、上述した表示I/F40cに接続される各種のディスプレイデバイスにより実現されうる。また、制御部33の機能は、上述したプロセッサ40aにより実現されうる。また、記憶部35の機能は、上述したメモリ40bにより実現されうる。また、センサ部34、音声入力部36、及び音声出力部37の機能は、それぞれ、上述した接続I/F40eに接続されうる各種のセンサデバイス(非図示)、及びオーディオデバイスにより実現されうる。 Also, the functions of the operation unit 31 included in the operator systems 30a and 30b can be realized by various input interfaces connected to the connection I/F 40e described above. Moreover, the function of the display unit 32 can be realized by various display devices connected to the display I/F 40c described above. Also, the functions of the control unit 33 can be realized by the above-described processor 40a. Also, the function of the storage unit 35 can be realized by the above-described memory 40b. Also, the functions of the sensor unit 34, the audio input unit 36, and the audio output unit 37 can be implemented by various sensor devices (not shown) and audio devices that can be connected to the connection I/F 40e described above.

以上、添付図面を参照しながら本開示の実施形態について説明したが、本開示は係る例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は応用例に想到しうることは明らかであり、それらについても当然に本開示の技術的範囲に属する。 As described above, the embodiments of the present disclosure have been described with reference to the accompanying drawings, but the present disclosure is not limited to such examples. It is obvious that a person skilled in the art can conceive various modifications or applications within the scope described in the claims, and these naturally belong to the technical scope of the present disclosure.

以下に本開示の実施形態に係る技術事項について付記を開示する。ここで開示する付記の内容は本開示に係る技術的思想を簡潔に示すものであり、本開示に係る技術的事項を制限する意図ではなく、また、上述した本開示の実施形態に係る技術的事項から当業者が各種の変形例及び応用例に想到することを補助すべく開示するものであるから、開示の付記に記載された範疇内及びその範疇内において当業者が想到しうる変形例及び応用例についても当然に本開示の技術的範囲に属する。 Additional remarks about technical matters according to the embodiments of the present disclosure will be disclosed below. The contents of the supplementary notes disclosed here simply indicate the technical idea of the present disclosure, and are not intended to limit the technical matters of the present disclosure. Since the disclosure is made to assist those skilled in the art in devising various modifications and applications from the matter, modifications and Application examples also naturally belong to the technical scope of the present disclosure.

[A.制御権について]
(付記A1)遠隔操作が可能なカメラユニットと、前記カメラユニットを制御するための制御システムと、前記制御システムを介して前記カメラユニットを操作するための第1及び第2のオペレータシステムとを含み、
前記制御システムは、前記第1のオペレータシステムに前記カメラユニットの操作権限が設定されている状態で、前記第2のオペレータシステムから前記操作権限の設定を求める要求を受けたとき、前記第1のオペレータシステムから前記操作権限の移転を許諾する旨の応答を受けた後で、前記第1のオペレータシステムに設定されている前記操作権限を解放し、前記第2のオペレータシステムに対して前記操作権限を設定する
リモートカメラシステム。
[A. About control rights]
(Appendix A1) Including a remotely operable camera unit, a control system for controlling the camera unit, and first and second operator systems for operating the camera unit via the control system ,
When the control system receives a request for setting the operation authority from the second operator system in a state where the operation authority for the camera unit is set for the first operator system, the control system After receiving a response from the operator system to the effect that the transfer of the operation authority is permitted, the operation authority set in the first operator system is released, and the operation authority is given to the second operator system. Configure a remote camera system.

かかる構成によれば、カメラユニットの操作を行うオペレータが入れ替わる際、現在操作中のオペレータが入れ替わりを確実に認識している状態で、操作権限が移転するため、オペレータの入れ替わりに伴う混乱を避けることができる。例えば、インカムを利用してオペレータの入れ替わりを通知しても、現在操作中のオペレータが、その通知を聞き漏らすことがありうる。その場合、現在操作中のオペレータは入れ替わりを認識しておらず、その状態で操作権限を他のオペレータに移転すると、それまで操作していたオペレータは突然操作が効かなくなり混乱を来すだろう。上記の構成を適用することで、このような無用な混乱を避けることができる。また、撮影現場ではオペレータを含むスタッフ間の協調が重要であり、オペレータ間の相互認識を確実にすることは撮影作業の円滑な進行に寄与する。 According to this configuration, when the operator who operates the camera unit is replaced, the operation authority is transferred in a state where the operator who is currently operating is surely aware of the replacement, so that confusion accompanying the replacement of the operator can be avoided. can be done. For example, even if the intercom is used to notify a change of operator, the operator currently operating may fail to hear the notification. In that case, the operator who is currently operating will not be aware of the replacement, and if the operating authority is transferred to another operator in that state, the operator who has been operating up to that point will suddenly lose control and cause confusion. Such unnecessary confusion can be avoided by applying the above configuration. Moreover, cooperation among staff members including operators is important at a shooting site, and ensuring mutual recognition between operators contributes to smooth progress of shooting operations.

(付記A2)前記制御システムは、前記第2のオペレータシステムから前記要求を受けたとき、前記第2のオペレータシステムから前記要求を受けた旨の通知を前記第1のオペレータシステムに送信し、前記通知から所定の時間が経過しても前記第1のオペレータシステムから全く応答がない場合、前記第1のオペレータシステムに設定されている前記操作権限を解放し、前記第2のオペレータシステムに対して前記操作権限を設定する
付記A1に記載のリモートカメラシステム。
(Appendix A2) When the control system receives the request from the second operator system, the control system transmits a notification to the effect that the request has been received from the second operator system to the first operator system, and If there is no response from the first operator system even after a predetermined time has passed since the notification, the operation authority set in the first operator system is released, and the second operator system The remote camera system according to appendix A1, wherein the operation authority is set.

(付記A3)前記制御システムは、前記第1のオペレータシステムから前記第2のオペレータシステムへと前記操作権限を移転する場合、前記第1のオペレータシステムに設定されている前記操作権限を解放する前に前記カメラユニットの動作を停止すると共に前記カメラユニットに対する操作を無効化し、前記第2のオペレータシステムに対する前記操作権限の設定後に前記カメラユニットに対する操作を有効化する
付記A1又はA2に記載のリモートカメラシステム。
(Appendix A3) When transferring the operation authority from the first operator system to the second operator system, the control system, before releasing the operation authority set in the first operator system, The remote camera according to appendix A1 or A2, wherein the operation of the camera unit is stopped and the operation of the camera unit is invalidated at the same time, and the operation of the camera unit is validated after setting the operation authority for the second operator system system.

(付記A4)前記制御システムは、前記第2のオペレータシステムから前記要求を受けたとき、前記第2のオペレータシステムから前記要求を受けた旨の通知を前記第1のオペレータシステムに送信し、前記第1のオペレータシステムと前記第2のオペレータシステムとの間で、テキスト情報をやり取りするためのコミュニケーションツールを有効化する
付記A1~A3のいずれか1つに記載のリモートカメラシステム。
(Appendix A4) When the control system receives the request from the second operator system, the control system transmits a notification to the effect that the request has been received from the second operator system to the first operator system, and The remote camera system of any one of Appendices A1-A3, activating a communication tool for exchanging textual information between a first operator system and said second operator system.

(付記A5)前記制御システムは、前記コミュニケーションツールを介してやり取りされた前記テキスト情報を通信ログとして保存する
付記A4に記載のリモートカメラシステム。
(Appendix A5) The remote camera system according to Appendix A4, wherein the control system stores the text information exchanged via the communication tool as a communication log.

(付記A6)前記制御システムは、撮影現場における前記カメラユニットの位置を示すロケーション情報と、前記メインカメラの位置及び姿勢を規定するためのポジション情報と、前記メインカメラの設定情報とを含むプリセット情報を保持し、前記操作権限が前記第1のオペレータシステムに設定されている場合、前記第1のオペレータシステムからの実行要求に応じて、前記プリセット情報に基づく前記カメラユニットの制御を実行する
付記A1~A5のいずれか1つに記載のリモートカメラシステム。
(Appendix A6) The control system includes preset information including location information indicating the position of the camera unit at the shooting site, position information for defining the position and orientation of the main camera, and setting information of the main camera. and when the operation authority is set to the first operator system, control of the camera unit is executed based on the preset information in response to an execution request from the first operator system. The remote camera system according to any one of A5.

(付記A7)前記制御システムは、前記第1のオペレータシステムからプリセット情報の登録指示を受けたとき、前記第1のオペレータシステムに前記プリセット情報の登録権限が設定されている場合に、前記登録指示の時点で前記メインカメラから出力されている映像のサムネイルと、前記登録指示の時点における前記ロケーション情報、前記ポジション情報、及び前記設定情報とを生成し、生成した前記サムネイル、前記ロケーション情報、前記ポジション情報、及び前記設定情報を前記プリセット情報として保持する
付記A6に記載のリモートカメラシステム。
(Appendix A7) When the control system receives an instruction to register the preset information from the first operator system, if the registration authority of the preset information is set to the first operator system, the registration instruction generating a thumbnail of the video output from the main camera at the time of and the location information, the position information, and the setting information at the time of the registration instruction, and generating the generated thumbnail, the location information, and the position information and the setting information as the preset information.

(付記A8)遠隔操作が可能なカメラユニットと、前記カメラユニットを制御するための制御システムと、前記制御システムを介して前記カメラユニットを操作するための第1及び第2のオペレータシステムとを含むリモートカメラシステムの前記制御システムであって、
前記第1のオペレータシステムに前記カメラユニットの操作権限が設定されている状態で、前記第2のオペレータシステムから前記操作権限の設定を求める要求を受けたとき、前記第1のオペレータシステムから前記操作権限の移転を許諾する旨の応答を受けた後で、前記第1のオペレータシステムに設定されている前記操作権限を解放し、前記第2のオペレータシステムに対して前記操作権限を設定する
制御システム。
(Appendix A8) Including a remotely operable camera unit, a control system for controlling the camera unit, and first and second operator systems for operating the camera unit via the control system The control system of a remote camera system, comprising:
When a request for setting the operation authority is received from the second operator system in a state where the operation authority for the camera unit is set in the first operator system, the operation is performed by the first operator system. After receiving a response to approve the transfer of authority, the control system releases the operation authority set in the first operator system and sets the operation authority in the second operator system. .

(付記A9)遠隔操作が可能なカメラユニットと、前記カメラユニットを制御するための制御システムと、前記制御システムを介して前記カメラユニットを操作するための第1及び第2のオペレータシステムとを含むリモートカメラシステムの前記制御システムが、
前記第1のオペレータシステムに前記カメラユニットの操作権限が設定されている状態で、前記第2のオペレータシステムから前記操作権限の設定を求める要求を受けたとき、前記第1のオペレータシステムから前記操作権限の移転を許諾する旨の応答を受けた後で、前記第1のオペレータシステムに設定されている前記操作権限を解放し、前記第2のオペレータシステムに対して前記操作権限を設定する処理を実行する、
権限管理方法。
(Appendix A9) Including a remotely operable camera unit, a control system for controlling the camera unit, and first and second operator systems for operating the camera unit via the control system the control system of the remote camera system comprising:
When a request for setting the operation authority is received from the second operator system in a state where the operation authority for the camera unit is set in the first operator system, the operation is performed by the first operator system. releasing the operation authority set in the first operator system and setting the operation authority in the second operator system after receiving a response to approve the transfer of authority; Execute,
Permission management method.

(付記A10)遠隔操作が可能なカメラユニットと、前記カメラユニットを制御するための制御システムと、前記制御システムを介して前記カメラユニットを操作するための第1及び第2のオペレータシステムとを含むリモートカメラシステムの前記制御システムに、
前記第1のオペレータシステムに前記カメラユニットの操作権限が設定されている状態で、前記制御システムが、前記第2のオペレータシステムから前記操作権限の設定を求める要求を受けたとき、前記第1のオペレータシステムから前記操作権限の移転を許諾する旨の応答を受けた後で、前記第1のオペレータシステムに設定されている前記操作権限を解放し、前記第2のオペレータシステムに対して前記操作権限を設定する
処理を実行させる、プログラム。
(Appendix A10) Including a remotely operable camera unit, a control system for controlling the camera unit, and first and second operator systems for operating the camera unit via the control system to the control system of the remote camera system;
When the control system receives a request for setting the operation authority from the second operator system in a state where the operation authority for the camera unit is set in the first operator system, the first After receiving a response from the operator system to the effect that the transfer of the operation authority is permitted, the operation authority set in the first operator system is released, and the operation authority is given to the second operator system. Set the program that causes the action to take place.

[B.操作インターフェースについて]
(付記B1)メインカメラと、前記メインカメラの位置を制御するためのモーションユニットとを有するカメラユニット、及び前記カメラユニットの操作に用いるオペレータシステムを含み、前記オペレータシステムは、
前記メインカメラの光軸を含む第1の平面内で前記メインカメラの位置を移動させるための第1の操作インターフェースと、前記第1の平面と交わる第2の平面内で前記メインカメラの位置を移動させるための第2の操作インターフェースとを備える、
リモートカメラシステム。
[B. About the operation interface]
(Appendix B1) A camera unit having a main camera and a motion unit for controlling the position of the main camera, and an operator system used for operating the camera unit, the operator system comprising:
a first operation interface for moving the position of the main camera within a first plane including the optical axis of the main camera; and a position of the main camera within a second plane intersecting the first plane. a second operation interface for moving,
remote camera system.

かかる構成によれば、1つの操作インターフェースによる操作ではメインカメラの動きが2次元平面内に制限されるため、オペレータがメインカメラの動きを把握することが容易になる。また、複数の操作インターフェースを設けることで、複数の2次元平面内での移動を可能にし、メインカメラの位置決め自由度を十分に確保することができる。また、メインカメラの光軸を基準に第1の平面及び第2の平面を規定することで、オペレータがメインカメラの動きを直感的に把握することが容易になり、より自然な撮影操作が可能になる。 According to such a configuration, since the movement of the main camera is restricted within a two-dimensional plane by operating with one operation interface, the operator can easily grasp the movement of the main camera. In addition, by providing a plurality of operation interfaces, it is possible to move within a plurality of two-dimensional planes, and a sufficient degree of freedom in positioning the main camera can be ensured. In addition, by defining the first and second planes based on the optical axis of the main camera, it becomes easier for the operator to intuitively grasp the movement of the main camera, enabling more natural shooting operations. become.

(付記B2)前記オペレータシステムは、前記第1の平面及び前記第2の平面と交わる第3の平面内で前記メインカメラの位置を移動させる第3の操作インターフェースをさらに備える、
付記B1に記載のリモートカメラシステム。
(Appendix B2) The operator system further comprises a third operation interface for moving the position of the main camera within a third plane that intersects the first plane and the second plane.
A remote camera system according to Appendix B1.

(付記B3)前記第2の平面は、前記メインカメラの光軸に直交する
付記B1又はB2に記載のリモートカメラシステム。
(Appendix B3) The remote camera system according to Appendix B1 or B2, wherein the second plane is perpendicular to the optical axis of the main camera.

(付記B4)前記第1の平面、前記第2の平面、及び前記第3の平面は、互いに直交する
付記B1~B3のいずれか1つに記載のリモートカメラシステム。
(Appendix B4) The remote camera system according to any one of Appendices B1 to B3, wherein the first plane, the second plane, and the third plane are orthogonal to each other.

(付記B5)前記オペレータシステムは、タッチパネルと、制御部とを有し、
前記制御部は、
前記タッチパネルの画面上に、前記第1の操作インターフェースとして機能する第1の操作領域を表示させ、前記第2の操作インターフェースとして機能する第2の操作領域を表示させ、前記第3の操作インターフェースとして機能する第3の操作領域を表示させ、
前記第1の操作領域に近接又は接触した操作体の動きに基づいて前記メインカメラの位置を前記第1の平面内で移動させ、前記第2の操作領域に近接又は接触した前記操作体の動きに基づいて前記メインカメラの位置を前記第2の平面内で移動させ、前記第3の操作領域に近接又は接触した前記操作体の動きに基づいて前記メインカメラの位置を前記第3の平面内で移動させる
付記B2に記載のリモートカメラシステム。
(Appendix B5) The operator system has a touch panel and a control unit,
The control unit
On the screen of the touch panel, display a first operation area functioning as the first operation interface, display a second operation area functioning as the second operation interface, and display a second operation area functioning as the third operation interface. Displaying a functioning third operation area,
The position of the main camera is moved within the first plane based on the movement of the operating body that approaches or contacts the first operating area, and the movement of the operating body that approaches or contacts the second operating area. moving the position of the main camera within the second plane based on the above, and moving the position of the main camera within the third plane based on the movement of the operating body that approaches or touches the third operation area The remote camera system of Appendix B2.

(付記B6)前記オペレータシステムは、表示部と、操作キーを有するコントローラと、制御部とを有し、
前記制御部は、
前記表示部に、前記第1の操作インターフェースとして機能する第1の操作領域を表示させ、前記第2の操作インターフェースとして機能する第2の操作領域を表示させ、前記第3の操作インターフェースとして機能する第3の操作領域を表示させ、前記操作キーに対する操作入力に応じて画面上を移動する操作体を表示させ、
前記第1の操作領域における前記操作体の動きに基づいて前記メインカメラの位置を前記第1の平面内で移動させ、前記第2の操作領域における前記操作体の動きに基づいて前記メインカメラの位置を前記第2の平面内で移動させ、前記第3の操作領域における前記操作体の動きに基づいて前記メインカメラの位置を前記第3の平面内で移動させる
付記B2に記載のリモートカメラシステム。
(Appendix B6) The operator system has a display unit, a controller having operation keys, and a control unit,
The control unit
causing the display unit to display a first operation area functioning as the first operation interface, displaying a second operation area functioning as the second operation interface, and functioning as the third operation interface displaying a third operation area and displaying an operation object that moves on the screen in accordance with an operation input to the operation key;
The position of the main camera is moved within the first plane based on the movement of the operating body in the first operation area, and the position of the main camera is moved based on the movement of the operating body in the second operation area. The remote camera system according to appendix B2, wherein the position of the main camera is moved within the third plane based on the movement of the operating body in the third operation area, and the position of the main camera is moved within the second plane. .

(付記B7)前記オペレータシステムは、表示部と、操作キー及び操作ボタンを有するコントローラと、制御部とを有し、
前記制御部は、
前記表示部に、前記第1の操作インターフェース、前記第2の操作インターフェース、及び前記第3の操作インターフェースとして機能する操作領域を表示させ、前記操作キーに対する操作入力に応じて画面上を移動する操作体を表示させ、
前記操作ボタンの操作に応じて前記操作領域の機能を切り替え、
前記操作領域の機能が第1の機能のとき、前記操作領域における前記操作体の動きに基づいて前記メインカメラの位置を前記第1の平面内で移動させ、
前記操作領域の機能が第2の機能のとき、前記操作領域における前記操作体の動きに基づいて前記メインカメラの位置を前記第2の平面内で移動させ、
前記操作領域の機能が第3の機能のとき、前記操作領域における前記操作体の動きに基づいて前記メインカメラの位置を前記第3の平面内で移動させる
付記B2に記載のリモートカメラシステム。
(Appendix B7) The operator system has a display unit, a controller having operation keys and operation buttons, and a control unit,
The control unit
An operation of causing the display unit to display operation areas functioning as the first operation interface, the second operation interface, and the third operation interface, and moving on the screen according to the operation input to the operation keys. show the body
switching the function of the operation area according to the operation of the operation button;
when the function of the operation area is the first function, moving the position of the main camera within the first plane based on the movement of the operating body in the operation area;
when the function of the operation area is the second function, moving the position of the main camera within the second plane based on the movement of the operating body in the operation area;
The remote camera system according to appendix B2, wherein when the function of the operation area is the third function, the position of the main camera is moved within the third plane based on the movement of the operating body in the operation area.

(付記B8)前記オペレータシステムは、モーションセンサ及び操作ボタンを有するコントローラと、制御部とを有し、
前記制御部は、
前記操作ボタンの押下状況に応じて、前記コントローラを前記第1の操作インターフェース、前記第2の操作インターフェース、又は前記第3の操作インターフェースとして機能させる第1のモードと、前記第1のモードとは異なる第2のモードとを切り替え、
前記第1のモードのとき、前記モーションセンサから出力される動き情報のうち、前記コントローラに予め設定された軸に垂直な面内の動きに対応する動き成分を抽出し、抽出した前記動き成分に基づいて前記メインカメラの位置を前記第1の平面内、前記第2の平面内、又は前記第3の平面内で移動させ、
前記第2のモードのとき、前記モーションセンサから出力される動き情報に基づいて前記メインカメラの位置を三次元的に移動させる
付記B2に記載のリモートカメラシステム。
(Appendix B8) The operator system has a controller having a motion sensor and an operation button, and a control unit,
The control unit
A first mode in which the controller functions as the first operation interface, the second operation interface, or the third operation interface according to the pressing state of the operation button, and the first mode switching between different second modes;
In the first mode, a motion component corresponding to motion in a plane perpendicular to an axis preset in the controller is extracted from the motion information output from the motion sensor, and the extracted motion component is moving the position of the main camera within the first plane, within the second plane, or within the third plane based on
The remote camera system according to appendix B2, wherein in the second mode, the position of the main camera is three-dimensionally moved based on motion information output from the motion sensor.

(付記B9)前記制御部は、前記操作ボタンの操作に応じて前記第1のモードにおける機能を切り替える
付記B8に記載のリモートカメラシステム。
(Appendix B9) The remote camera system according to Appendix B8, wherein the control unit switches the function in the first mode according to the operation of the operation button.

(付記B10)メインカメラと、前記メインカメラの位置を制御するためのモーションユニットとを有するカメラユニットの操作に用いるオペレータシステムであって、
前記メインカメラの光軸を含む第1の平面内で前記メインカメラの位置を移動させるための第1の操作インターフェースと、前記第1の平面と交わる第2の平面内で前記メインカメラの位置を移動させるための第2の操作インターフェースとを備える、
オペレータシステム。
(Appendix B10) An operator system used to operate a camera unit having a main camera and a motion unit for controlling the position of the main camera,
a first operation interface for moving the position of the main camera within a first plane including the optical axis of the main camera; and a position of the main camera within a second plane intersecting the first plane. a second operation interface for moving,
operator system.

5 リモートカメラシステム
10a、10b カメラユニット
11 メインカメラ
12 アイビューカメラ
13 モーションユニット
13a ロボットアーム
13b ベース
14 コントロールボックス
20a、20b リアビューカメラ
30a、30b オペレータシステム
31 操作部
32 表示部
33 制御部
34 センサ部
35 記憶部
35a プログラム
36 音声入力部
37 音声出力部
40 制御システム
41 ユニット制御部
42 メイン映像出力部
43 アイビュー提供部
44 リアビュー提供部
45 通信ツール提供部
46 カメラワーク実行部
46a プリセット実行部
46b シナリオ実行部
46c リアルタイム操作部
47 権限管理部
48 記憶部
48a TCP設定情報
48b プリセット情報
48c シナリオ情報
48d 操作権限情報
48e 操作ログ
48f 通信ログ
5 remote camera system 10a, 10b camera unit 11 main camera 12 eye view camera 13 motion unit 13a robot arm 13b base 14 control box 20a, 20b rear view camera 30a, 30b operator system 31 operation section 32 display section 33 control section 34 sensor section 35 Storage unit 35a Program 36 Audio input unit 37 Audio output unit 40 Control system 41 Unit control unit 42 Main video output unit 43 Eye view providing unit 44 Rear view providing unit 45 Communication tool providing unit 46 Camera work execution unit 46a Preset execution unit 46b Scenario execution Unit 46c Real-time operation unit 47 Authority management unit 48 Storage unit 48a TCP setting information 48b Preset information 48c Scenario information 48d Operation authority information 48e Operation log 48f Communication log

Claims (13)

メインカメラと、一端が前記メインカメラに接続され、かつ、前記一端との間の位置関係が既知の参照点を原点とする座標系を回転させる第1の動き、及び前記参照点を移動させる第2の動きが可能なモーションユニットとを有するカメラユニット、及び
前記メインカメラの撮像素子上に設定された代表点と前記参照点とを一致させ、前記モーションユニットを制御して、前記第1の動きにより前記メインカメラの姿勢を変え、前記第2の動きにより前記メインカメラの位置を変える制御システムを含む、
リモートカメラシステム。
a first movement of rotating a coordinate system having a main camera and a reference point connected to the main camera at one end and having a known positional relationship with the one end as an origin; and a second movement of moving the reference point. and a motion unit capable of two movements; and a representative point set on the imaging element of the main camera and the reference point are matched to control the motion unit to perform the first movement. a control system that changes the pose of the main camera by the second movement and changes the position of the main camera by the second movement;
remote camera system.
前記制御システムは、前記メインカメラの種類毎に、前記撮像素子上に設定された前記代表点と前記モーションユニットの前記一端との間の位置関係を示すポイント設定情報を保持する
請求項1に記載のリモートカメラシステム。
2. The control system according to claim 1, wherein the control system holds point setting information indicating a positional relationship between the representative point set on the imaging element and the one end of the motion unit for each type of the main camera. remote camera system.
前記代表点は、前記メインカメラの光軸と前記撮像素子との交点である
請求項1又は2に記載のリモートカメラシステム。
3. The remote camera system according to claim 1, wherein the representative point is an intersection point between the optical axis of the main camera and the imaging device.
前記制御システムは、撮影現場における前記カメラユニットの位置を示すロケーション情報と、前記参照点の位置及び前記座標系の回転角を示すポジション情報と、前記メインカメラの設定情報とを含むプリセット情報を保持し、オペレータによる操作に応じて前記プリセット情報に基づく前記カメラユニットの制御を実行する
請求項1~3のいずれか1項に記載のリモートカメラシステム。
The control system holds preset information including location information indicating the position of the camera unit at the shooting site, position information indicating the position of the reference point and the rotation angle of the coordinate system, and setting information of the main camera. 4. The remote camera system according to any one of claims 1 to 3, wherein the camera unit is controlled based on the preset information according to an operation by an operator.
前記制御システムは、前記オペレータからプリセット情報の登録指示を受けたとき、前記登録指示の時点で前記メインカメラから出力されている映像のサムネイルと、前記登録指示の時点における前記ロケーション情報、前記ポジション情報、及び前記設定情報とを生成し、生成した前記サムネイル、前記ロケーション情報、前記ポジション情報、及び前記設定情報を前記プリセット情報として保持する
請求項4に記載のリモートカメラシステム。
When the control system receives an instruction to register preset information from the operator, the control system outputs a thumbnail of the image output from the main camera at the time of the registration instruction, the location information at the time of the registration instruction, and the position information. , and the setting information, and holds the generated thumbnail, the location information, the position information, and the setting information as the preset information.
前記制御システムは、設定点を中心とする所定半径の円弧に沿って前記参照点を動かすように前記モーションユニットを制御する
請求項1~5のいずれか1項に記載のリモートカメラシステム。
The remote camera system according to any one of claims 1 to 5, wherein the control system controls the motion unit to move the reference point along an arc of predetermined radius centered on a set point.
前記リモートカメラシステムは、前記カメラユニットの操作に利用されるオペレータシステムを含み、
前記オペレータシステムは、前記メインカメラの光軸を含む第1の平面内で前記参照点を移動させるための第1の操作インターフェースと、前記第1の平面と交わる第2の平面内で前記参照点を移動させるための第2の操作インターフェースとを備える
請求項1~6のいずれか1項に記載のリモートカメラシステム。
The remote camera system includes an operator system used to operate the camera unit,
The operator system comprises a first operation interface for moving the reference point within a first plane including the optical axis of the main camera, and a second plane intersecting with the first plane. 7. The remote camera system according to any one of claims 1 to 6, further comprising a second operation interface for moving the .
前記オペレータシステムは、前記第1の平面及び前記第2の平面と交わる第3の平面内で前記参照点を移動させる第3の操作インターフェースをさらに備える
請求項7に記載のリモートカメラシステム。
8. The remote camera system according to claim 7, wherein said operator system further comprises a third operation interface for moving said reference point within a third plane intersecting said first plane and said second plane.
前記カメラユニットは、全方位映像を出力するアイビューカメラをさらに有し、
前記オペレータシステムは、オペレータの視線方向を検知するセンサ部をさらに備え、
前記制御システムは、前記センサ部の出力に基づいて前記アイビューカメラから出力される前記全方位映像から、前記オペレータの視線方向を基準とする所定範囲の映像を切り出し、切り出した映像を前記オペレータシステムに伝送する
請求項7又は8に記載のリモートカメラシステム。
The camera unit further has an eye view camera that outputs an omnidirectional video,
The operator system further includes a sensor unit that detects the line-of-sight direction of the operator,
The control system extracts an image of a predetermined range based on the line-of-sight direction of the operator from the omnidirectional image output from the eye view camera based on the output of the sensor unit, and transmits the extracted image to the operator system. 9. The remote camera system according to claim 7 or 8, wherein the transmission to the
前記リモートカメラシステムは、前記カメラユニットを後方から撮影することが可能な位置に設置された複数のリアビューカメラと、前記カメラユニットの操作に利用されるオペレータシステムとを含み、
前記制御システムは、前記プリセット情報に基づいて前記カメラユニットが制御されているとき、前記プリセット情報の前記ロケーション情報が示す前記カメラユニットの位置に基づいて、前記複数のリアビューカメラのうち前記カメラユニットが画角に含まれるリアビューカメラを選択し、選択された前記リアビューカメラの出力映像を前記オペレータシステムに伝送する
請求項4又は5に記載のリモートカメラシステム。
The remote camera system includes a plurality of rear-view cameras installed at positions where the camera unit can be photographed from behind, and an operator system used to operate the camera unit,
When the camera unit is controlled based on the preset information, the control system determines whether the camera unit among the plurality of rear-view cameras based on the position of the camera unit indicated by the location information in the preset information. 6. The remote camera system according to claim 4 or 5, wherein a rear view camera included in an angle of view is selected and an output image of the selected rear view camera is transmitted to the operator system.
メインカメラと、一端が前記メインカメラに接続され、かつ、前記一端との間の位置関係が既知の参照点を原点とする座標系を回転させる第1の動き、及び前記参照点を移動させる第2の動きが可能なモーションユニットとを有するカメラユニットを制御するユニット制御部を備え、
前記ユニット制御部は、前記メインカメラの撮像素子上に設定された代表点と前記参照点とを一致させ、前記モーションユニットを制御して、前記第1の動きにより前記メインカメラの姿勢を変え、前記第2の動きにより前記メインカメラの位置を変える、
制御システム。
a first movement of rotating a coordinate system having a main camera and a reference point connected to the main camera at one end and having a known positional relationship with the one end as an origin; and a second movement of moving the reference point. a unit control unit that controls a camera unit having a motion unit capable of two movements,
The unit control unit aligns a representative point set on the imaging device of the main camera with the reference point, controls the motion unit, and changes the posture of the main camera by the first movement, changing the position of the main camera with the second movement;
control system.
コンピュータにより、メインカメラと、一端が前記メインカメラに接続され、かつ、前記一端との間の位置関係が既知の参照点を原点とする座標系を回転させる第1の動き、及び前記参照点を移動させる第2の動きが可能なモーションユニットとを有するカメラユニットを制御するステップを含み、
前記制御するステップでは、前記コンピュータが、前記メインカメラの撮像素子上に設定された代表点と前記参照点とを一致させ、前記モーションユニットを制御して、前記第1の動きにより前記メインカメラの姿勢を変え、前記第2の動きにより前記メインカメラの位置を変える、
制御方法。
a first movement of rotating a coordinate system with a main camera and a reference point connected at one end to the main camera and having a known positional relationship with the one end by a computer; controlling a camera unit having a motion unit capable of a second movement to move;
In the controlling step, the computer aligns a representative point set on the imaging device of the main camera with the reference point, controls the motion unit, and moves the main camera by the first movement. changing posture and changing the position of the main camera with the second movement;
control method.
コンピュータに、メインカメラと、一端が前記メインカメラに接続され、かつ、前記一端との間の位置関係が既知の参照点を原点とする座標系を回転させる第1の動き、及び前記参照点を移動させる第2の動きが可能なモーションユニットとを有するカメラユニットを制御する処理を実行させ、
前記処理では、前記コンピュータが、前記メインカメラの撮像素子上に設定された代表点と前記参照点とを一致させ、前記モーションユニットを制御して、前記第1の動きにより前記メインカメラの姿勢を変え、前記第2の動きにより前記メインカメラの位置を変える、
制御プログラム。
a first movement for rotating a coordinate system having a main camera and a reference point connected at one end to the main camera and having a known positional relationship with the one end as an origin; executing a process of controlling a camera unit having a motion unit capable of a second movement to be moved;
In the processing, the computer matches a representative point set on the imaging device of the main camera with the reference point, controls the motion unit, and adjusts the posture of the main camera by the first movement. and changing the position of the main camera with the second movement;
control program.
JP2019107947A 2019-06-10 2019-06-10 Remote camera system, control system, control method, and control program Active JP7262317B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019107947A JP7262317B2 (en) 2019-06-10 2019-06-10 Remote camera system, control system, control method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019107947A JP7262317B2 (en) 2019-06-10 2019-06-10 Remote camera system, control system, control method, and control program

Publications (2)

Publication Number Publication Date
JP2020202481A JP2020202481A (en) 2020-12-17
JP7262317B2 true JP7262317B2 (en) 2023-04-21

Family

ID=73742156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019107947A Active JP7262317B2 (en) 2019-06-10 2019-06-10 Remote camera system, control system, control method, and control program

Country Status (1)

Country Link
JP (1) JP7262317B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006352851A (en) 2005-06-15 2006-12-28 Mitsubishi Electric Research Laboratories Inc Method and device for acquiring image of scene using composite camera
JP2008311804A (en) 2007-06-13 2008-12-25 Sony Corp Imaging apparatus and method
JP2009017480A (en) 2007-07-09 2009-01-22 Nippon Hoso Kyokai <Nhk> Camera calibration device and program thereof
WO2010125994A1 (en) 2009-04-30 2010-11-04 独立行政法人科学技術振興機構 Auxiliary device for full-circle panoramic video imaging
JP2018101930A (en) 2016-12-21 2018-06-28 キヤノン株式会社 Universal head system
JP2018185376A (en) 2017-04-24 2018-11-22 株式会社日本ビデオシステム Imaging crane device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006352851A (en) 2005-06-15 2006-12-28 Mitsubishi Electric Research Laboratories Inc Method and device for acquiring image of scene using composite camera
JP2008311804A (en) 2007-06-13 2008-12-25 Sony Corp Imaging apparatus and method
JP2009017480A (en) 2007-07-09 2009-01-22 Nippon Hoso Kyokai <Nhk> Camera calibration device and program thereof
WO2010125994A1 (en) 2009-04-30 2010-11-04 独立行政法人科学技術振興機構 Auxiliary device for full-circle panoramic video imaging
JP2018101930A (en) 2016-12-21 2018-06-28 キヤノン株式会社 Universal head system
JP2018185376A (en) 2017-04-24 2018-11-22 株式会社日本ビデオシステム Imaging crane device

Also Published As

Publication number Publication date
JP2020202481A (en) 2020-12-17

Similar Documents

Publication Publication Date Title
US11750792B2 (en) Information processing apparatus, image generation method, control method, and storage medium
US20230283757A1 (en) Method for generating virtual viewpoint image and image processing apparatus
US11190673B2 (en) Control device, control method, and program
JP4928275B2 (en) Camera control apparatus and control method thereof
CA3025478A1 (en) Control device, control method, and storage medium
JP2018092491A (en) Information processing apparatus, control method therefor, and program
JP2024050721A (en) Information processing device, information processing method, and computer program
CN110719392A (en) Movable image pickup apparatus, image pickup control method, control apparatus, and storage medium
US11228737B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
KR102475254B1 (en) Systems and methods for acquisition, registration and multimedia management
CN111385669B (en) Electronic device, control method, and computer-readable medium
JP7400882B2 (en) Information processing device, mobile object, remote control system, information processing method and program
JP7346830B2 (en) Communication terminals, programs, display methods, recording media, systems
JP2023164525A (en) Communication terminal, program, display method and recording medium
CN112099529B (en) Virtual reality equipment control system and method
JP7262317B2 (en) Remote camera system, control system, control method, and control program
JP6580624B2 (en) Method for providing virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
JP5847591B2 (en) Information processing apparatus, information processing method and program for information processing apparatus
JP2023140922A (en) Display terminal, information processing system, communication system, display method, information processing method, communication method, and program
CN112870712B (en) Method and device for displaying picture in virtual scene, computer equipment and storage medium
JP7287798B2 (en) Remote camera system, control system, video output method, virtual camera work system, and program
JP2023121636A (en) Information processing system, communication system, image sharing method, and program
CN114143460A (en) Video display method and device and electronic equipment
WO2022220306A1 (en) Video display system, information processing device, information processing method, and program
US20230308705A1 (en) Communication terminal, communication management system, remote operation method, processing method, and communication management method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230411

R150 Certificate of patent or registration of utility model

Ref document number: 7262317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150