JP2020150297A - Remote camera system, control system, video output method, virtual camera work system, and program - Google Patents

Remote camera system, control system, video output method, virtual camera work system, and program Download PDF

Info

Publication number
JP2020150297A
JP2020150297A JP2019043558A JP2019043558A JP2020150297A JP 2020150297 A JP2020150297 A JP 2020150297A JP 2019043558 A JP2019043558 A JP 2019043558A JP 2019043558 A JP2019043558 A JP 2019043558A JP 2020150297 A JP2020150297 A JP 2020150297A
Authority
JP
Japan
Prior art keywords
camera
image
field
view
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019043558A
Other languages
Japanese (ja)
Other versions
JP7287798B2 (en
Inventor
信広 日置
Nobuhiro Hioki
信広 日置
知明 田原
Tomoaki Tahara
知明 田原
康文 渡辺
Yasufumi Watanabe
康文 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ikegami Tsushinki Co Ltd
Original Assignee
Ikegami Tsushinki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ikegami Tsushinki Co Ltd filed Critical Ikegami Tsushinki Co Ltd
Priority to JP2019043558A priority Critical patent/JP7287798B2/en
Publication of JP2020150297A publication Critical patent/JP2020150297A/en
Application granted granted Critical
Publication of JP7287798B2 publication Critical patent/JP7287798B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Accessories Of Cameras (AREA)
  • Studio Devices (AREA)

Abstract

To allow an operator of robot camera for understanding site situation from the photographer's perspective.SOLUTION: Provided is a video output method for executing such a processing as communicating with a robot camera having a robot arm, a main camera for connection with the robot arm, and a field of vision camera connected with the enclosure of the robot arm or the main camera and outputting an omnidirectional video, generating a video of the field of vision range corresponding to the field of vision of the operator, on the basis of the eye line direction of the operator operating the robot camera remotely, and the output video from the field of vision camera, and outputting the video of the field of vision range and the output video from the main camera to a display device, by means of a computing device.SELECTED DRAWING: Figure 1

Description

本発明は、リモートカメラシステム、コントロールシステム、映像出力方法、バーチャルカメラワークシステム、及びプログラムに関する。 The present invention relates to a remote camera system, a control system, a video output method, a virtual camera work system, and a program.

近年、撮影現場でも業務効率化の一環としてロボットカメラの導入が検討されている。ロボットカメラは、撮影用のカメラがアームの先端に取り付けられたロボットアームと、ロボットアームを載置する基台(以下、ベース)とで構成される。ロボットカメラに利用されるベースには、手動式のベースや自走式のベースがある。ロボットカメラの動きは、例えば、副調整室や中継車などにいるオペレータによって遠隔制御されうる。 In recent years, the introduction of robot cameras has been considered as part of improving work efficiency at shooting sites. The robot camera is composed of a robot arm in which a camera for photographing is attached to the tip of the arm, and a base (hereinafter referred to as a base) on which the robot arm is placed. Bases used for robot cameras include manual bases and self-propelled bases. The movement of the robot camera can be remotely controlled by an operator in, for example, a sub-control room or a broadcasting van.

ロボットカメラに関し、ロボットアームの先端に設置された主カメラにスポッタカメラ(監視カメラ)を固定する方法が提案されている(以下、提案方法1)。このスポッタカメラは、主カメラよりワイドな光景を提供し、オペレータが主カメラの視野外の環境を認識できるようにする。他のロボットカメラに関する技術として、ロボットカメラの周囲を撮影して障害物を発見するために、ロボットカメラのベースに全方位カメラを設ける方法が提案されている(以下、提案方法2)。 Regarding the robot camera, a method of fixing a spotter camera (surveillance camera) to a main camera installed at the tip of a robot arm has been proposed (hereinafter, proposed method 1). This spotter camera provides a wider view than the main camera and allows the operator to recognize the environment outside the field of view of the main camera. As another technology related to a robot camera, a method of providing an omnidirectional camera on the base of the robot camera in order to photograph the surroundings of the robot camera and find an obstacle has been proposed (hereinafter, the proposed method 2).

特開2008-099279号公報Japanese Unexamined Patent Publication No. 2008-099279 特開2004-104513号公報Japanese Unexamined Patent Publication No. 2004-104513

実際に現場でカメラを操って撮影を行うカメラマンは、カメラの出力映像を確認するだけでなく、自らの目で周囲の環境、他のカメラの位置、スタジオセットの配置、及び出演者の動きなどの現場状況を確認しながらカメラワークを行っている。このように、カメラマンが自らの目で現場状況を確認することは適切なカメラワークを行う上で重要である。 Photographers who actually operate the camera and shoot at the scene not only check the output image of the camera, but also see the surrounding environment, the position of other cameras, the arrangement of the studio set, the movement of the performers, etc. I am doing camera work while checking the on-site situation. In this way, it is important for the cameraman to check the site situation with his own eyes in order to perform appropriate camera work.

上記の提案方法1のスポッタカメラは主カメラの視野外にある環境の映像をオペレータに提供するが、オペレータに提供される映像が映し出す範囲はオペレータの視線方向とは関係無く主カメラの位置及び向きによって定まる。そのため、提案方法1のスポッタカメラによって提供される映像を用いても、オペレータは、カメラマン目線で現場状況を確認することはできない。 The spotter camera of the above proposed method 1 provides the operator with an image of the environment outside the field of view of the main camera, but the range in which the image provided to the operator is projected is the position of the main camera and the position of the main camera regardless of the line-of-sight direction of the operator. Determined by orientation. Therefore, even if the image provided by the spotter camera of the proposed method 1 is used, the operator cannot confirm the on-site situation from the cameraman's point of view.

上記の提案方法2の全方位カメラは、ロボットカメラのベースに取り付けられ、ロボットカメラの周囲にある障害物の発見に利用される。提案方法2の全方位カメラは、ロボットカメラ周囲の映像をオペレータに提供するが、その映像が映し出す範囲はオペレータの視線方向とは無関係である。そのため、提案方法2の全方位カメラによって提供される映像を用いても、オペレータは、カメラマン目線で現場状況を確認することはできない。 The omnidirectional camera of the above proposed method 2 is attached to the base of the robot camera and is used for finding obstacles around the robot camera. The omnidirectional camera of the proposed method 2 provides the operator with an image around the robot camera, but the range of the image projected is irrelevant to the line-of-sight direction of the operator. Therefore, even if the image provided by the omnidirectional camera of the proposed method 2 is used, the operator cannot confirm the site situation from the cameraman's point of view.

上記課題に鑑みて想到した本開示の1つの観点によれば、本開示の目的は、ロボットカメラのオペレータが現場状況をカメラマン目線で把握することが可能なリモートカメラシステム、コントロールシステム、映像出力方法、バーチャルカメラワークシステム、及びプログラムを提供することにある。 According to one viewpoint of the present disclosure conceived in view of the above problems, the purpose of the present disclosure is a remote camera system, a control system, and a video output method that allow a robot camera operator to grasp the site situation from the cameraman's point of view. , Virtual camera work system, and program.

本開示の一態様によれば、ロボットアームと、ロボットアームに接続されるメインカメラと、ロボットアーム又はメインカメラの筐体に接続された、全方位映像を出力する視界カメラとを有する、ロボットカメラと通信し、ロボットカメラを遠隔操作するオペレータの視線方向及び視界カメラの出力映像に基づいて、オペレータの視界に対応する視界範囲の映像を生成し、視界範囲の映像とメインカメラの出力映像とを表示装置に出力する処理をコンピュータが実行する、映像出力方法が提供される。 According to one aspect of the present disclosure, a robot camera having a robot arm, a main camera connected to the robot arm, and a view camera connected to the robot arm or a housing of the main camera to output an omnidirectional image. Based on the line-of-sight direction of the operator who remotely operates the robot camera and the output image of the view camera, an image of the view range corresponding to the operator's view is generated, and the image of the view range and the output image of the main camera are displayed. A video output method is provided in which a computer executes a process of outputting to a display device.

本開示によれば、ロボットカメラのオペレータが現場状況をカメラマン目線で把握することが可能になる。 According to the present disclosure, the robot camera operator can grasp the on-site situation from the cameraman's point of view.

第1実施形態に係るリモートカメラシステムの例を模式的に示した説明図である。It is explanatory drawing which showed typically the example of the remote camera system which concerns on 1st Embodiment. 第1実施形態に係るリモートカメラシステムに含まれる装置の例について説明するためのブロック図である。It is a block diagram for demonstrating the example of the apparatus included in the remote camera system which concerns on 1st Embodiment. 第1実施形態に係る視界カメラの配置及び接続機構の構造について説明するための模式図である。It is a schematic diagram for demonstrating the arrangement of the field-of-view camera and the structure of the connection mechanism which concerns on 1st Embodiment. 第1実施形態に係る視界カメラの配置及び接続機構の構造について説明するための第4の模式図である。It is a 4th schematic diagram for demonstrating the arrangement of the field-of-view camera and the structure of the connection mechanism which concerns on 1st Embodiment. 第1実施形態に係る視界カメラの配置及び接続機構の構造について説明するための第5の模式図である。It is a 5th schematic diagram for demonstrating the arrangement of the field-of-view camera and the structure of the connection mechanism which concerns on 1st Embodiment. 第1実施形態に係るロボットカメラの設置方法について説明するための模式図である。It is a schematic diagram for demonstrating the installation method of the robot camera which concerns on 1st Embodiment. 第1実施形態に係るベースの変形例について説明するための模式図である。It is a schematic diagram for demonstrating the modification of the base which concerns on 1st Embodiment. 第1実施形態に係るロボットアームの変形例について説明するための模式図である。It is a schematic diagram for demonstrating the modification of the robot arm which concerns on 1st Embodiment. 第1実施形態に係るロボットカメラが配置されるスタジオ内の様子について説明するための模式図である。It is a schematic diagram for demonstrating the state in the studio where the robot camera which concerns on 1st Embodiment is arranged. 第1実施形態に係る視界映像及びメイン映像の表示制御について説明するための第1の説明図である。It is 1st explanatory drawing for demonstrating the display control of the visual field image and the main image which concerns on 1st Embodiment. 第1実施形態に係る視界映像及びメイン映像の表示制御について説明するための第2の説明図である。It is a 2nd explanatory diagram for demonstrating the display control of the visual field image and the main image which concerns on 1st Embodiment. 第1実施形態に係る操作デバイスの例を模式的に示した説明図である。It is explanatory drawing which shows typically the example of the operation device which concerns on 1st Embodiment. 第1実施形態に係る操作デバイスの変形例について説明するための第1の説明図である。It is 1st explanatory drawing for demonstrating the modification of the operation device which concerns on 1st Embodiment. 第1実施形態に係る操作デバイスの変形例について説明するための第2の説明図である。It is a 2nd explanatory diagram for demonstrating the modification of the operation device which concerns on 1st Embodiment. 第1実施形態に係る操作デバイスの変形例について説明するための第3の説明図である。It is a 3rd explanatory diagram for demonstrating the modification of the operation device which concerns on 1st Embodiment. 第1実施形態に係る操作デバイスの変形例について説明するための第4の説明図である。It is a 4th explanatory diagram for demonstrating the modification of the operation device which concerns on 1st Embodiment. 第1実施形態に係る制御コンピュータの機能を実現可能なハードウェアの一例を示したブロック図である。It is a block diagram which showed an example of the hardware which can realize the function of the control computer which concerns on 1st Embodiment. 第1実施形態に係る制御コンピュータが有する機能の例を示したブロック図である。It is a block diagram which showed the example of the function which the control computer which concerns on 1st Embodiment has. 第1実施形態に係るリモートカメラシステムによる撮影時の処理(映像出力方法)について説明するためのフロー図である。It is a flow chart for demonstrating the processing (video output method) at the time of shooting by the remote camera system which concerns on 1st Embodiment. 第1実施形態に係る視界映像の生成方法について説明するための説明図である。It is explanatory drawing for demonstrating the method of generating the visual field image which concerns on 1st Embodiment. 第1実施形態に係るリモートカメラシステムにおいて、操作デバイスによる操作が行われた時に実行される制御について説明するためのフロー図である。It is a flow diagram for demonstrating the control which is executed when the operation by the operation device is performed in the remote camera system which concerns on 1st Embodiment. 第1実施形態に係る視線補正の方法について説明するための説明図である。It is explanatory drawing for demonstrating the method of line-of-sight correction which concerns on 1st Embodiment. 第1実施形態に係る視界映像の生成方法における処理の流れについて説明するためのフロー図である。It is a flow chart for demonstrating the flow of processing in the method of generating a visual field image which concerns on 1st Embodiment. 第1実施形態に係るロボットカメラの変形例について説明するための第1の模式図である。It is 1st schematic diagram for demonstrating the modification of the robot camera which concerns on 1st Embodiment. 第1実施形態に係るロボットカメラの変形例について説明するための第2の模式図である。It is a 2nd schematic diagram for demonstrating the modification of the robot camera which concerns on 1st Embodiment. 第2実施形態に係るバーチャルカメラワークシステムに含まれる装置の例について説明するためのブロック図である。It is a block diagram for demonstrating the example of the apparatus included in the virtual camera work system which concerns on 2nd Embodiment. 第2実施形態に係る制御コンピュータ及び3Dシミュレータが有する機能の例について説明するためのブロック図である。It is a block diagram for demonstrating the example of the function which the control computer and 3D simulator which concerns on 2nd Embodiment have. 第2実施形態に係るバーチャルカメラワークシステムによる撮影時の処理(映像出力方法)について説明するためのフロー図である。It is a flow chart for demonstrating the processing (video output method) at the time of shooting by the virtual camera work system which concerns on 2nd Embodiment.

以下に添付図面を参照しながら、本開示の実施形態について説明する。なお、本明細書及び図面において実質的に同一の機能を有する要素については、同一の符号を付することにより重複説明を省略する場合がある。 An embodiment of the present disclosure will be described below with reference to the accompanying drawings. In the present specification and drawings, elements having substantially the same function may be designated by the same reference numerals to omit duplicate description.

<第1実施形態>
本開示の第1実施形態について説明する。第1実施形態は、スタジオに設置されたロボットカメラをスタジオ外(例えば、副調整室や中継車など)にいるオペレータが遠隔操作することが可能なリモートカメラシステムに関する。特に、第1実施形態は、オペレータがカメラマン目線でスタジオ内の環境を確認しながら撮影を行うことを可能にする仕組みに関する。
<First Embodiment>
The first embodiment of the present disclosure will be described. The first embodiment relates to a remote camera system capable of remotely controlling a robot camera installed in a studio by an operator outside the studio (for example, a sub-control room or a broadcasting van). In particular, the first embodiment relates to a mechanism that enables an operator to take a picture while checking the environment in the studio from the viewpoint of a photographer.

以下の説明では、説明の都合上、スタジオ撮影を想定するが、スタジオ以外の撮影現場で行う撮影についても第1実施形態に係るリモートカメラシステムを適用することができる。また、オペレータがスタジオ外にいることを想定して説明を進めるが、ロボットカメラから離れたスタジオ内の場所でオペレータが遠隔操作を行ってもよい。また、ロボットカメラの遠隔操作は、ロボットカメラが設置されるスタジオから地理的に離れた他のスタジオの副調整室や中継車などにいるオペレータが行ってもよい。こうした変形例についても当然に第1実施形態の技術的範囲に属する。 In the following description, for convenience of explanation, studio shooting is assumed, but the remote camera system according to the first embodiment can also be applied to shooting performed at a shooting site other than the studio. Further, although the explanation is performed on the assumption that the operator is outside the studio, the operator may perform remote control at a place in the studio away from the robot camera. Further, the remote control of the robot camera may be performed by an operator in a sub-control room or a broadcasting van of another studio geographically separated from the studio in which the robot camera is installed. Naturally, such a modification also belongs to the technical scope of the first embodiment.

[1−1.リモートカメラシステム]
図1を参照しながら、第1実施形態に係るリモートカメラシステムについて説明する。図1は、第1実施形態に係るリモートカメラシステムの例を模式的に示した説明図である。
[1-1. Remote camera system]
The remote camera system according to the first embodiment will be described with reference to FIG. FIG. 1 is an explanatory diagram schematically showing an example of a remote camera system according to the first embodiment.

図1に示すように、第1実施形態に係るリモートカメラシステムは、ロボットカメラ10、制御コンピュータ21、及びHMD(Head Mounted Display)22を含む。 As shown in FIG. 1, the remote camera system according to the first embodiment includes a robot camera 10, a control computer 21, and an HMD (Head Mounted Display) 22.

なお、第1実施形態に係るリモートカメラシステムに含まれるロボットカメラの台数及び形状については実施の態様に応じて任意に変形してもよい。また、オペレータOPが映像表示デバイスとしてHMD22を利用する場合を例に説明を進めるが、他の映像表示デバイス(例えば、頭部装着型ではないディスプレイ装置)が利用されてもよい。これらの変形例については、後段において、いくつかの変形例を示しながら、さらに説明する。そのような変形例についても当然に第1実施形態の技術的範囲に属する。 The number and shape of the robot cameras included in the remote camera system according to the first embodiment may be arbitrarily modified according to the embodiment. Further, although the description will be given by taking the case where the operator OP uses the HMD 22 as the image display device as an example, another image display device (for example, a display device that is not a head-mounted type) may be used. These modified examples will be further described later, showing some modified examples. Naturally, such a modification also belongs to the technical scope of the first embodiment.

(ロボットカメラ10について)
ロボットカメラ10は、メインカメラ11、視界カメラ12、ロボットアーム13、及びベース14を有する。また、ロボットカメラ10は、ロボットアーム13及びベース14を動かすための駆動機構(例えば、モータ)を制御する制御デバイス(図2の制御デバイス15)をさらに有する。制御デバイス15は、ロボットアーム13及びベース14を制御する機能に加え、通信経路N1を介して制御コンピュータ21と通信する機能、及びロボットカメラ10への給電を制御する機能をさらに有する。
(About robot camera 10)
The robot camera 10 includes a main camera 11, a field of view camera 12, a robot arm 13, and a base 14. Further, the robot camera 10 further includes a control device (control device 15 in FIG. 2) that controls a drive mechanism (for example, a motor) for moving the robot arm 13 and the base 14. In addition to the function of controlling the robot arm 13 and the base 14, the control device 15 further has a function of communicating with the control computer 21 via the communication path N1 and a function of controlling power supply to the robot camera 10.

メインカメラ11は、放送映像を出力するための撮像装置である。メインカメラ11は、レンズや光学フィルタなどの光学素子、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide-Semiconductor)などの撮像素子、及びDSP(Digital Signal Processor)、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)などのプロセッサを搭載する。メインカメラ11には、マイクが搭載されていてもよい。 The main camera 11 is an imaging device for outputting a broadcast image. The main camera 11 includes optical elements such as lenses and optical filters, imaging elements such as CCD (Charge-Coupled Device) and CMOS (Complementary Metal-Oxide-Semiconductor), DSP (Digital Signal Processor), and CPU (Central Processing Unit). , GPU (Graphic Processing Unit) and other processors are installed. A microphone may be mounted on the main camera 11.

また、メインカメラ11は、制御デバイス15及び制御コンピュータ21の少なくとも一方と有線又は無線で通信するための通信インターフェースを有する。例えば、メインカメラ11と制御コンピュータ21とが直接通信できる場合、制御デバイス15を介さずに制御コンピュータ21からメインカメラ11を制御することが可能になる。また、メインカメラ11は、制御デバイス15を介さずに、メインカメラ11から出力される映像(以下、メイン映像VM)を制御コンピュータ21に伝送することが可能になる。もちろん、メインカメラ11の制御及びメイン映像VMの伝送は、制御デバイス15を介して実行されてもよい。 Further, the main camera 11 has a communication interface for communicating with at least one of the control device 15 and the control computer 21 by wire or wirelessly. For example, when the main camera 11 and the control computer 21 can directly communicate with each other, the main camera 11 can be controlled from the control computer 21 without going through the control device 15. Further, the main camera 11 can transmit the video output from the main camera 11 (hereinafter, the main video VM) to the control computer 21 without going through the control device 15. Of course, the control of the main camera 11 and the transmission of the main video VM may be executed via the control device 15.

ロボットアーム13は、関節部13a、13b、13c、13d、13e、13f、及び関節部13a、13b、13c、13d、13e、13fの間を接続する柱状のアーム部を有する。なお、図1の例では、6つの関節部に回転軸を有する6軸のロボットアームを例示したが、回転軸の数及び形状はこの例に限定されない。関節部の数及び形状が異なるロボットアームの構造については、後段において、いくつかの変形例を示しながら、さらに説明する。そのような変形例についても当然に第1実施形態の技術的範囲に属する。 The robot arm 13 has a columnar arm portion that connects the joint portions 13a, 13b, 13c, 13d, 13e, 13f, and the joint portions 13a, 13b, 13c, 13d, 13e, 13f. In the example of FIG. 1, a 6-axis robot arm having six joints having rotation axes is illustrated, but the number and shape of the rotation axes are not limited to this example. The structure of the robot arm having different numbers and shapes of joints will be further described in the latter stage with some modifications. Naturally, such a modification also belongs to the technical scope of the first embodiment.

メインカメラ11は、ロボットアーム13の先端部に接続される。メインカメラ11は、例えば、関節部13bの回転軸を中心とする回転動作により左右(パン方向)に向きを変えることができる。また、メインカメラ11は、例えば、関節部13aの回転軸を中心とする回転動作により上下(チルト方向)に向きを変えることができる。なお、メインカメラ11のパン・チルト制御は、関節部13a、13bだけでなく、他の関節部の回転動作によって、或いは、他の関節部の回転動作を組み合わせて実現することも可能である。また、メインカメラ11の高さ及び前後(被写体に近づく又は遠ざかる方向)の位置は、関節部13a、13b、13c、13d、13e、13fの少なくとも1つにおける回転動作によるロボットアーム13の変形により制御されうる。 The main camera 11 is connected to the tip of the robot arm 13. The main camera 11 can be turned to the left or right (pan direction) by, for example, a rotational movement about the rotation axis of the joint portion 13b. Further, the main camera 11 can be turned up and down (tilt direction) by, for example, a rotation operation about the rotation axis of the joint portion 13a. The pan / tilt control of the main camera 11 can be realized not only by the rotation motions of the joint portions 13a and 13b but also by the rotation motions of the other joint portions or in combination with the rotation motions of the other joint portions. Further, the height and the front-back (direction approaching or moving away from the subject) position of the main camera 11 are controlled by deformation of the robot arm 13 due to rotational movement in at least one of the joint portions 13a, 13b, 13c, 13d, 13e, 13f. Can be done.

ロボットアーム13を変形させるための駆動機構として、関節部13a、13b、13c、13d、13e、13fのそれぞれにモータ(図示せず)が設けられている。例えば、関節部13aのモータを駆動することでメインカメラ11のチルト動作が実現でき、関節部13bのモータを駆動することでメインカメラ11のパン動作が実現できる。また、関節部13a、13b、13c、13d、13e、13fの動きを組み合わせることで、メインカメラ11を様々なアングルに対応する位置及び向きに移動することができる。モータの動作は、制御コンピュータ21から通信経路N1を介して伝送される制御信号に従って制御デバイス15が制御する。 Motors (not shown) are provided in each of the joint portions 13a, 13b, 13c, 13d, 13e, and 13f as a drive mechanism for deforming the robot arm 13. For example, the tilt operation of the main camera 11 can be realized by driving the motor of the joint portion 13a, and the pan operation of the main camera 11 can be realized by driving the motor of the joint portion 13b. Further, by combining the movements of the joint portions 13a, 13b, 13c, 13d, 13e, and 13f, the main camera 11 can be moved to a position and a direction corresponding to various angles. The operation of the motor is controlled by the control device 15 according to a control signal transmitted from the control computer 21 via the communication path N1.

ロボットアーム13は、ベース14に固定される。ベース14は、オペレータ又は補助スタッフが手動で移動させる手動式のベースであってもよいし、制御コンピュータ21から伝送される制御信号に従って自律的に移動する自走式のベースであってもよい。なお、ベース14の形状、構造及び移動機構については様々な変形が可能であり、これらについて、後段において、いくつかの変形例を示しながら、さらに説明する。そのような変形例についても当然に第1実施形態の技術的範囲に属する。 The robot arm 13 is fixed to the base 14. The base 14 may be a manual base that is manually moved by an operator or an auxiliary staff member, or may be a self-propelled base that is autonomously moved according to a control signal transmitted from the control computer 21. The shape, structure, and movement mechanism of the base 14 can be variously deformed, and these will be further described in the latter part with reference to some deformation examples. Naturally, such a modification also belongs to the technical scope of the first embodiment.

ベース14が自走式の場合、ベース14には、例えば、複数の車輪、一部又は全部の車輪を駆動するためのモータ(図示せず)、及びモータに給電するためのバッテリなどが搭載される。モータの動作は、制御コンピュータ21から通信経路N1を介して伝送される制御信号に従って制御デバイス15が制御する。なお、ベース14に搭載されたバッテリによりロボットカメラ10の電力が賄われてもよい。また、バッテリ以外の給電手段により電力が供給されてもよい。例えば、スタジオ内の電源設備から、電源ケーブルを介して電力が供給されてもよいし、ワイヤレス電力伝送により電力が供給されてもよい。 When the base 14 is self-propelled, the base 14 is equipped with, for example, a motor for driving a plurality of wheels, some or all of the wheels (not shown), a battery for supplying power to the motor, and the like. Wheel. The operation of the motor is controlled by the control device 15 according to a control signal transmitted from the control computer 21 via the communication path N1. The battery mounted on the base 14 may supply the electric power of the robot camera 10. Further, electric power may be supplied by a power supply means other than the battery. For example, power may be supplied from a power supply facility in the studio via a power cable, or power may be supplied by wireless power transmission.

視界カメラ12は、オペレータOPにスタジオ内の様子を提供するための映像を撮る目的で設置される撮像装置である。図1の例において、視界カメラ12は、メインカメラ11に物理的に接続されている。視界カメラ12は、実際にメインカメラ11をカメラマンが操作して撮影する際にカメラマンの目が位置する場所(メインカメラ11の位置を基準に予め設定される場所)の近傍に配置される。視界カメラ12の設置方法については、後段において、図3〜図5を参照しながら、さらに説明する。 The field-of-view camera 12 is an imaging device installed for the purpose of taking an image for providing the operator OP with a state in the studio. In the example of FIG. 1, the field of view camera 12 is physically connected to the main camera 11. The field of view camera 12 is arranged in the vicinity of a place where the cameraman's eyes are located (a place preset with reference to the position of the main camera 11) when the cameraman actually operates the main camera 11 to take a picture. The method of installing the field of view camera 12 will be further described later with reference to FIGS. 3 to 5.

視界カメラ12は、人間の視野より広い画角を有する広角カメラである。例えば、視界カメラ12は、全方位の映像(360°映像)を撮像することが可能な全方位カメラである。以下では、説明の都合上、視界カメラ12が全方位カメラである場合を例に説明するが、視界カメラ12は、ロボットカメラ10の周囲を取り囲む広い画角の映像(例えば、180°映像、270°映像)を撮像可能な広角カメラであってもよい。 The field-of-view camera 12 is a wide-angle camera having an angle of view wider than that of a human field of view. For example, the field-of-view camera 12 is an omnidirectional camera capable of capturing an omnidirectional image (360 ° image). In the following, for convenience of explanation, a case where the field-of-view camera 12 is an omnidirectional camera will be described as an example. However, the field-of-view camera 12 has a wide angle of view image (for example, 180 ° image, 270) surrounding the periphery of the robot camera 10. It may be a wide-angle camera capable of capturing (° video).

また、視界カメラ12は、制御デバイス15及び制御コンピュータ21の少なくとも一方と有線又は無線で通信するための通信インターフェースを有する。例えば、視界カメラ12と制御コンピュータ21とが直接通信できる場合、制御デバイス15を介さずに制御コンピュータ21から視界カメラ12を制御することが可能になる。また、視界カメラ12は、制御デバイス15を介さずに、視界カメラ12から出力される映像(以下、全方位映像VE)を制御コンピュータ21に伝送することが可能になる。もちろん、視界カメラ12の制御及び全方位映像VEの伝送は、制御デバイス15を介して実行されてもよい。 Further, the field of view camera 12 has a communication interface for communicating with at least one of the control device 15 and the control computer 21 by wire or wirelessly. For example, when the field-of-view camera 12 and the control computer 21 can directly communicate with each other, the field-of-view camera 12 can be controlled from the control computer 21 without going through the control device 15. Further, the visual field camera 12 can transmit the image output from the visual field camera 12 (hereinafter, omnidirectional image VE) to the control computer 21 without going through the control device 15. Of course, the control of the field of view camera 12 and the transmission of the omnidirectional video VE may be executed via the control device 15.

通信経路N1は、有線ネットワーク、無線ネットワーク、及び専用回線(光回線など)の少なくとも1つを含む。例えば、メイン映像VM及び全方位映像VEの映像信号は比較的高速な無線ネットワークで制御コンピュータ21に伝送され、制御信号は比較的低速な無線ネットワークで伝送されるように通信経路N1が設計されてもよい。また、メイン映像VM及び全方位映像VEの映像信号が比較的高速な光回線で伝送され、制御信号が比較的低速な無線伝送されるようにしてもよい。通信経路N1の設計については実施の態様に応じて適宜変形されうる。 The communication path N1 includes at least one of a wired network, a wireless network, and a dedicated line (optical line, etc.). For example, the communication path N1 is designed so that the video signals of the main video VM and the omnidirectional video VE are transmitted to the control computer 21 by a relatively high-speed wireless network, and the control signals are transmitted by a relatively low-speed wireless network. May be good. Further, the video signals of the main video VM and the omnidirectional video VE may be transmitted by a relatively high-speed optical line, and the control signal may be wirelessly transmitted at a relatively low speed. The design of the communication path N1 can be appropriately modified depending on the embodiment.

(制御コンピュータ21について)
制御コンピュータ21は、例えば、サーバ、ワークステーション、PC(Personal Computer)、又はベースステーションなどのコンピュータである。
(About control computer 21)
The control computer 21 is, for example, a computer such as a server, a workstation, a PC (Personal Computer), or a base station.

制御コンピュータ21は、オペレータOPによる操作デバイスへの操作入力に応じて、ロボットカメラ10に操作内容を伝えるための制御信号を生成する。そして、制御コンピュータ21は、通信経路N1を介して制御信号をロボットカメラ10の制御デバイス15に伝送する。また、制御コンピュータ21は、通信経路N1を介して、メインカメラ11からメイン映像VMを受信し、視界カメラ12から全方位映像VEを受信する。 The control computer 21 generates a control signal for transmitting the operation content to the robot camera 10 in response to the operation input to the operation device by the operator OP. Then, the control computer 21 transmits a control signal to the control device 15 of the robot camera 10 via the communication path N1. Further, the control computer 21 receives the main video VM from the main camera 11 and the omnidirectional video VE from the visual field camera 12 via the communication path N1.

メイン映像VMを受信した制御コンピュータ21は、通信経路N2を介してオペレータOPのHMD22へとメイン映像VMを伝送する。通信経路N2は、有線ネットワーク、無線ネットワーク、及び専用回線(光回線など)の少なくとも1つを含む。例えば、通信経路N2は、MIMO(Multiple-Input and Multiple-Output)などの高速無線伝送技術を利用した無線通信回線である。 The control computer 21 that has received the main video VM transmits the main video VM to the HMD 22 of the operator OP via the communication path N2. The communication path N2 includes at least one of a wired network, a wireless network, and a dedicated line (optical line, etc.). For example, the communication path N2 is a wireless communication line using a high-speed wireless transmission technology such as MIMO (Multiple-Input and Multiple-Output).

メイン映像VMをHMD22へと伝送するとき、制御コンピュータ21は、メイン映像VMのデータサイズを圧縮し、圧縮後のメイン映像VMをHMD22に伝送してもよい。圧縮の方法としては、例えば、フレームレートを下げる方法、各フレームの解像度を下げる方法、及び、MPEG(Moving Picture Experts Group)などのワーキンググループで策定される標準の動画圧縮方式で映像信号を圧縮する方法などが適用されうる。 When transmitting the main video VM to the HMD 22, the control computer 21 may compress the data size of the main video VM and transmit the compressed main video VM to the HMD 22. As a compression method, for example, a method of lowering the frame rate, a method of lowering the resolution of each frame, and a standard video compression method established by a working group such as MPEG (Moving Picture Experts Group) are used to compress the video signal. Methods etc. may be applied.

全方位映像VEを受信した制御コンピュータ21は、オペレータOPの視線方向及び全方位映像VEに基づいて視界映像を生成する。視界映像は、オペレータOPの視線方向に応じて変化し、カメラマン目線で見たスタジオ内の様子(メインカメラ11をスタジオ内でカメラマンが操作すると仮定した場合にカメラマンの視界に入る範囲)に対応する映像である。視界映像の生成方法については後述する。制御コンピュータ21は、通信経路N2を介して視界映像をHMD22へと伝送する。このとき、制御コンピュータ21は、上述したメイン映像VMの圧縮方法と同様の方法で視界映像を圧縮してもよい。 The control computer 21 that has received the omnidirectional video VE generates a visual field image based on the line-of-sight direction of the operator OP and the omnidirectional video VE. The field of view image changes according to the line-of-sight direction of the operator OP, and corresponds to the state in the studio as seen from the cameraman's point of view (the range within the cameraman's field of view when the cameraman operates the main camera 11 in the studio). It is a video. The method of generating the visual field image will be described later. The control computer 21 transmits the visual field image to the HMD 22 via the communication path N2. At this time, the control computer 21 may compress the visual field image by the same method as the above-described main image VM compression method.

(HMD22について)
図1の例において、ロボットカメラ10を遠隔操作するオペレータOPは、HMD22を頭部に装着している。HMD22は、映像を表示するための映像表示デバイス221を搭載している。なお、頭部装着型デバイスとしては、HMDの他にも、例えば、スマートグラスなどがある。また、変形例として、頭部装着型デバイスではない入力デバイス及び出力デバイスを利用してHMD22の機能を実現することも可能である。これらの変形例については、後段において、いくつかの具体例を示しながら、さらに説明する。
(About HMD22)
In the example of FIG. 1, the operator OP who remotely controls the robot camera 10 wears the HMD 22 on his head. The HMD 22 is equipped with a video display device 221 for displaying video. In addition to the HMD, the head-mounted device includes, for example, smart glasses. Further, as a modification, it is possible to realize the function of the HMD 22 by using an input device and an output device that are not head-mounted devices. These modified examples will be further described later with reference to some specific examples.

映像表示デバイス221は、第1の表示領域221a及び第2の表示領域221bを区画し、第1の表示領域221a及び第2の表示領域221bに互いに異なる映像を表示することができる。図1の例では、映像表示デバイス221の画面全体に第2の表示領域221bが設定され、第2の表示領域221bよりもサイズが小さい第1の表示領域221aが画面中央に配置されている。 The image display device 221 divides the first display area 221a and the second display area 221b, and can display different images in the first display area 221a and the second display area 221b. In the example of FIG. 1, a second display area 221b is set on the entire screen of the video display device 221 and a first display area 221a smaller in size than the second display area 221b is arranged in the center of the screen.

第1の表示領域221a及び第2の表示領域221bの位置及びサイズは変更することができる。例えば、第1の表示領域221aが画面の四隅のいずれか1つに寄せて配置されてもよいし、或いは、映像表示デバイス221の画面全体に第1の表示領域221aが設定され、第2の表示領域221bが第1の表示領域221aの上にオーバーレイ表示されてもよい。また、第1の表示領域221aと第2の表示領域221bとが上下又は左右に並べて配置されてもよいし、第1の表示領域221a及び第2の表示領域221bの一方が一時的に表示されないようにしてもよい。 The positions and sizes of the first display area 221a and the second display area 221b can be changed. For example, the first display area 221a may be arranged close to any one of the four corners of the screen, or the first display area 221a is set on the entire screen of the video display device 221 and the second display area 221a is set. The display area 221b may be overlaid on the first display area 221a. Further, the first display area 221a and the second display area 221b may be arranged side by side vertically or horizontally, and one of the first display area 221a and the second display area 221b is temporarily not displayed. You may do so.

例えば、第1の表示領域221aにはメイン映像VMが表示され、第2の表示領域221bには視界映像が表示される。なお、表示されるメイン映像VM及び視界映像は、同時刻の映像(同じタイミングで出力される映像)である。つまり、映像表示デバイス221に同時に表示されるメイン映像VMの映像フレームと視界映像の映像フレームとは、同じ時刻に対応する映像フレームである。但し、メイン映像VMと全方位映像VEとの間のフレームレートの差や通信状態などによって生じうるタイムラグについては許容されうる。視界映像は、カメラマン目線で見たスタジオ内の様子を映し出す映像である。また、オペレータOPの視線方向に応じて視界映像が変化する。そのため、オペレータOPは、実際にスタジオ内にいるような感覚でロボットカメラ10を操作することが可能になる。 For example, the main image VM is displayed in the first display area 221a, and the field of view image is displayed in the second display area 221b. The displayed main video VM and the visual field video are videos at the same time (videos output at the same timing). That is, the video frame of the main video VM and the video frame of the visual field video simultaneously displayed on the video display device 221 are video frames corresponding to the same time. However, a time lag that may occur due to a difference in frame rate between the main video VM and the omnidirectional video VE, a communication state, or the like can be tolerated. The field of view image is an image that shows the inside of the studio as seen from the cameraman's point of view. In addition, the visual field image changes according to the line-of-sight direction of the operator OP. Therefore, the operator OP can operate the robot camera 10 as if he / she is actually in the studio.

HMD22は、映像表示デバイス221の非透過表示と透過表示とを切り替える機能を搭載していてもよい。また、HMD22は、オペレータOPが下を向いた場合(手元を見た場合)に透過表示に切り替える機能を搭載していてもよい。映像表示デバイス221が透明ディスプレイである場合、透過表示のモードではオペレータOPが外の様子を視認できる程度の透過率(例えば、80%)に透明度が制御され、非透過表示のモードでは透過率0%に透明度が制御される。 The HMD 22 may be equipped with a function of switching between the non-transparent display and the transparent display of the image display device 221. Further, the HMD 22 may be equipped with a function of switching to the transparent display when the operator OP faces downward (when looking at the hand). When the image display device 221 is a transparent display, the transparency is controlled to a transmittance (for example, 80%) that allows the operator OP to visually recognize the outside in the transparent display mode, and the transmittance is 0 in the non-transparent display mode. Transparency is controlled to%.

映像表示デバイス221が非透明ディスプレイである場合、透過表示のモードではHMD22の前面に搭載されたカメラ(図示せず)の映像(以下、手元映像)が画面に表示され、非透過表示のモードでは画面に通常の映像(メイン映像VM、視線映像)が表示されてもよい。例えば、透過表示のモードでは第2の表示領域221bに手元映像が表示され、非透過表示のモードでは第2の表示領域221bに視界映像が表示されるように表示内容が制御されてもよい。また、手元映像は、第1の表示領域221a及び第2の表示領域221bとは異なる第3の表示領域に表示されてもよい。 When the image display device 221 is a non-transparent display, the image of the camera (not shown) mounted on the front of the HMD 22 (hereinafter referred to as the hand image) is displayed on the screen in the transparent display mode, and in the non-transparent display mode. A normal image (main image VM, line-of-sight image) may be displayed on the screen. For example, the display contents may be controlled so that the hand image is displayed in the second display area 221b in the transparent display mode, and the visual field image is displayed in the second display area 221b in the non-transparent display mode. Further, the hand image may be displayed in a third display area different from the first display area 221a and the second display area 221b.

上記の切り替え機能を搭載することで、HMD22を装着した状態で、オペレータOPが操作デバイス(図2の操作デバイス23)を視認することが可能になる。HMD22の表示についての他の変形例として、スタジオ内に他のカメラ(ロボットカメラ以外のカメラを含みうる。)がある場合、他のカメラから出力されるメイン映像(例えば、リターン映像)が画面の一部に表示されてもよい。例えば、メイン映像VMが表示される第1の表示領域221aの一部(例えば、第1の表示領域221aを四分割した区画の1つ)にリターン映像が表示されてもよい。また、リターン映像は、第1の表示領域221a及び第2の表示領域221bとは異なる少なくとも1つの第3の表示領域に表示されてもよい。 By installing the above switching function, the operator OP can visually recognize the operation device (operation device 23 in FIG. 2) with the HMD 22 attached. As another variation on the display of the HMD22, when there are other cameras (which may include cameras other than robot cameras) in the studio, the main image (eg, return image) output from the other camera is on the screen. It may be displayed in part. For example, the return video may be displayed in a part of the first display area 221a on which the main video VM is displayed (for example, one of the sections obtained by dividing the first display area 221a into four parts). Further, the return image may be displayed in at least one third display area different from the first display area 221a and the second display area 221b.

(システム構成について)
次に、図2を参照しながら、第1実施形態に係るリモートカメラシステムについて、さらに説明する。図2は、第1実施形態に係るリモートカメラシステムに含まれる装置の例について説明するためのブロック図である。
(About system configuration)
Next, the remote camera system according to the first embodiment will be further described with reference to FIG. FIG. 2 is a block diagram for explaining an example of the device included in the remote camera system according to the first embodiment.

図1を参照しながら既に説明したように、ロボットカメラ10は、メインカメラ11、視界カメラ12、ロボットアーム13、ベース14、及び制御デバイス15を有する。 As already described with reference to FIG. 1, the robot camera 10 includes a main camera 11, a field of view camera 12, a robot arm 13, a base 14, and a control device 15.

ロボットカメラ10の動作を制御するための制御コンピュータ21は、コントロールシステム20に含まれる。コントロールシステム20は、例えば、副調整室や中継車などのスタジオ外に設置されうる。また、コントロールシステム20は、ロボットカメラ10があるスタジオから地理的に離れた場所(例えば、ロボットカメラ10があるスタジオから地理的に離れた放送局など)に設置されてもよい。 The control computer 21 for controlling the operation of the robot camera 10 is included in the control system 20. The control system 20 may be installed outside the studio, for example, in a sub-control room or a broadcasting van. Further, the control system 20 may be installed at a place geographically separated from the studio where the robot camera 10 is located (for example, a broadcasting station geographically separated from the studio where the robot camera 10 is located).

ロボットカメラ10とコントロールシステム20とは通信経路N1を含むネットワークNWにより接続される。上記のように、互いに地理的に離れた場所にロボットカメラ10とコントロールシステム20とが設置される場合、ネットワークNWには、例えば、光ファイバ通信網などを含む広域ネットワークが含まれうる。一方、同じ放送局内にロボットカメラ10とコントロールシステム20とが設置される場合など、設置場所が距離的に近い場合、ネットワークNWは、無線LAN(Local Area Network)などの無線ネットワークでもよい。 The robot camera 10 and the control system 20 are connected by a network NW including a communication path N1. As described above, when the robot camera 10 and the control system 20 are installed at locations geographically separated from each other, the network NW may include a wide area network including, for example, an optical fiber communication network. On the other hand, when the robot camera 10 and the control system 20 are installed in the same broadcasting station and the installation locations are close to each other, the network NW may be a wireless network such as a wireless LAN (Local Area Network).

図2に示すように、コントロールシステム20は、制御コンピュータ21、HMD22、及び操作デバイス23を含む。 As shown in FIG. 2, the control system 20 includes a control computer 21, an HMD 22, and an operating device 23.

HMD22は、映像表示デバイス221及び視線検知デバイス222を有する。視線検知デバイス222は、HMD22を頭部に装着したオペレータOPの視線方向を検知する。例えば、視線検知デバイス222は、加速度センサ、磁気センサ、ジャイロスコープなどのモーションセンサを含み、モーションセンサの出力に基づいて頭部の動きを検知する。 The HMD 22 has a video display device 221 and a line-of-sight detection device 222. The line-of-sight detection device 222 detects the line-of-sight direction of the operator OP who wears the HMD 22 on his head. For example, the line-of-sight detection device 222 includes a motion sensor such as an acceleration sensor, a magnetic sensor, and a gyroscope, and detects the movement of the head based on the output of the motion sensor.

オペレータOPの視線方向は、例えば、オペレータOPの顔面から映像表示デバイス221の画面へと向かう方向に設定されうる。オペレータOPが直立姿勢のときの視線方向を基準(正面)に設定することで、モーションセンサの出力から、現在の視線方向を正面からのズレ量(例えば、頭部の上下左右の回転角、又は、頭部を基点とする現在の視線方向を示す単位ベクトル)として求めることができる。視線検知デバイス222は、オペレータOPの視線方向を検知し、検知した視線方向の情報を制御コンピュータ21へと出力する。 The line-of-sight direction of the operator OP can be set, for example, in the direction from the face of the operator OP toward the screen of the image display device 221. By setting the line-of-sight direction when the operator OP is in the upright position as the reference (front), the current line-of-sight direction is deviated from the front from the output of the motion sensor (for example, the vertical and horizontal rotation angles of the head, or , A unit vector indicating the current line-of-sight direction with the head as the base point). The line-of-sight detection device 222 detects the line-of-sight direction of the operator OP and outputs the detected line-of-sight direction information to the control computer 21.

操作デバイス23は、ロボットカメラ10を操作するためのコントローラである。操作デバイス23は、例えば、コントローラ(例えば、Kinect(登録商標)コントローラ)、ジョイスティック、ジョイパッド、キーボード、マウス、タッチパネル、ウェアラブル端末、又は、放送用カメラの操作インターフェースを模した専用コントローラなどである。なお、後段において、いくつかの操作デバイスの具体例を示しながら、操作デバイス23の具体的な構成及びその変形例について、さらに説明する。 The operation device 23 is a controller for operating the robot camera 10. The operation device 23 is, for example, a controller (for example, a Kinect (registered trademark) controller), a joystick, a joypad, a keyboard, a mouse, a touch panel, a wearable terminal, or a dedicated controller that imitates the operation interface of a broadcasting camera. In the latter part, a specific configuration of the operation device 23 and a modification thereof will be further described while showing specific examples of some operation devices.

ところで、メインカメラ11から出力されるメイン映像VM及び視界カメラ12から出力される全方位映像VEはネットワークNWを介して制御コンピュータ21に伝送される。制御コンピュータ21は、受信した全方位映像VEから視界映像を生成する。そして、メイン映像VM及び視界映像は、制御コンピュータ21からHMD22へと伝送され、HMD22の映像表示デバイス221に表示される。 By the way, the main video VM output from the main camera 11 and the omnidirectional video VE output from the visual field camera 12 are transmitted to the control computer 21 via the network NW. The control computer 21 generates a visual field image from the received omnidirectional image VE. Then, the main video VM and the visual field video are transmitted from the control computer 21 to the HMD 22 and displayed on the video display device 221 of the HMD 22.

視線検知デバイス222から出力される視線方向の検知結果は、逐次、制御コンピュータ21へと出力される。制御コンピュータ21は、視界映像を生成するとき、視線検知デバイス222から出力される視線方向の検知結果を利用する。例えば、制御コンピュータ21は、カメラマン目線の視界に対応する映像として、現在の視線方向の視界範囲に収まる部分映像を全方位映像VEから切り出し、切り出した部分映像を視界映像として出力する。 The line-of-sight direction detection results output from the line-of-sight detection device 222 are sequentially output to the control computer 21. When the control computer 21 generates the visual field image, the control computer 21 uses the detection result of the visual field direction output from the visual field detection device 222. For example, the control computer 21 cuts out a partial image within the field of view in the current line-of-sight direction from the omnidirectional image VE as an image corresponding to the field of view of the cameraman's line of sight, and outputs the cut out partial image as a field of view image.

オペレータOPは、操作デバイス23を利用して、メインカメラ11に対するカメラ設定の変更や、ロボットアーム13の動き制御及びベース14の動き制御を行う。カメラ設定の変更により、ズーム、フォーカス、露出(F値、ISO感度)などの設定が変更される。ロボットアーム13の動き制御により、各関節部のモータを駆動してメインカメラ11のパン角、チルト角、高さ、前後左右の位置などが調整される。ベース14の動き制御は、スタジオ内におけるロボットカメラ10の移動制御である。 The operator OP uses the operation device 23 to change the camera settings for the main camera 11, control the movement of the robot arm 13, and control the movement of the base 14. By changing the camera settings, settings such as zoom, focus, and exposure (F value, ISO sensitivity) are changed. The movement control of the robot arm 13 drives the motors of each joint to adjust the pan angle, tilt angle, height, front-back, left-right position, and the like of the main camera 11. The movement control of the base 14 is the movement control of the robot camera 10 in the studio.

視界カメラ12から出力される全方位映像VEは、オペレータOPによる操作入力がなくても撮影時には制御コンピュータ21へと出力される。また、視界カメラ12は、カメラマン目線の視界を提供するようにメインカメラ11又はロボットアーム13の適切な位置に設置されているため、制御コンピュータ21により全方位映像VEから好適な視界映像が得られる。なお、操作デバイス23により視界カメラ12のカメラ設定を変更できるようにしてもよい。例えば、明るさや露出補正などの設定変更が可能であってもよい。 The omnidirectional video VE output from the field of view camera 12 is output to the control computer 21 at the time of shooting even if there is no operation input by the operator OP. Further, since the field of view camera 12 is installed at an appropriate position of the main camera 11 or the robot arm 13 so as to provide the field of view of the cameraman's eyes, the control computer 21 can obtain a suitable field of view image from the omnidirectional image VE. .. The camera setting of the field of view camera 12 may be changed by the operation device 23. For example, it may be possible to change settings such as brightness and exposure compensation.

(視界カメラの配置)
ここで、図3〜図5を参照しながら、第1実施形態に係る視界カメラの配置及び接続部の構造について説明する。なお、以下の説明では、表記を簡略化するため、図3の(a)を図3A、(b)を図3B、(c)を図3Cと表記する場合がある。図1に例示した視界カメラ12の配置は図3Bの配置例に対応する。
(Arrangement of field of view camera)
Here, the arrangement of the field-of-view cameras and the structure of the connection portion according to the first embodiment will be described with reference to FIGS. 3 to 5. In the following description, in order to simplify the notation, FIG. 3A may be referred to as FIG. 3A, FIG. 3B may be referred to as FIG. 3B, and FIG. 3C may be referred to as FIG. 3C. The arrangement of the field of view cameras 12 illustrated in FIG. 1 corresponds to the arrangement example of FIG. 3B.

まず、図3Aを参照しながら、視界カメラ12の一配置例(以下、配置例#1)について説明する。図3Aは、第1実施形態に係る視界カメラの配置及び接続部の構造について説明するための第1の模式図である。 First, an arrangement example of the field of view camera 12 (hereinafter, arrangement example # 1) will be described with reference to FIG. 3A. FIG. 3A is a first schematic view for explaining the arrangement of the visual field cameras and the structure of the connection portion according to the first embodiment.

配置例#1では、カメラマンが肩にカメラを担ぐスタイル(以下、肩担ぎスタイル)で撮影するときにカメラマンの目が位置する場所に視界カメラ12のレンズが配置されている。この例では、メインカメラ11の筐体側部に視界カメラ12を取り付けるための接続部12aが設けられ、接続部12aに視界カメラ12が固定されている。接続部12aの構造は、例えば、視界カメラ12の底部及び側部を支持し、視界カメラ12が載置されて取り外し可能な状態で固定される構造である。 In the arrangement example # 1, the lens of the field-of-view camera 12 is arranged at a place where the cameraman's eyes are located when the photographer takes a picture in a style in which the camera is carried on the shoulder (hereinafter referred to as a shoulder-carrying style). In this example, a connecting portion 12a for attaching the visual field camera 12 is provided on the housing side portion of the main camera 11, and the visual field camera 12 is fixed to the connecting portion 12a. The structure of the connecting portion 12a is, for example, a structure that supports the bottom and side portions of the field of view camera 12, and the field of view camera 12 is placed and fixed in a removable state.

なお、接続部12aの構造は図3Aの例に限定されない。例えば、視界カメラ12をバンドで固定する構造、或いは、磁石やネジなどの固定手段により視界カメラ12を固定する構造であってもよい。また、図3Aの例では、メインカメラ11を右肩で担いだカメラマンの顔が位置する場所付近(右側部)に接続部12aが設けられているが、左肩で担いだカメラマンの顔が位置する場所付近(左側部)に接続部12aが設けられてもよい。 The structure of the connecting portion 12a is not limited to the example of FIG. 3A. For example, the view camera 12 may be fixed with a band, or the view camera 12 may be fixed by a fixing means such as a magnet or a screw. Further, in the example of FIG. 3A, the connection portion 12a is provided near the place where the face of the cameraman carrying the main camera 11 on the right shoulder is located (right side portion), but the face of the cameraman carrying the main camera 11 on the left shoulder is located. A connecting portion 12a may be provided near the place (left side portion).

次に、図3Bを参照しながら、視界カメラ12の別の配置例(以下、配置例#2)について説明する。図3Bは、第1実施形態に係る視界カメラの配置及び接続部の構造について説明するための第2の模式図である。 Next, another arrangement example of the field of view camera 12 (hereinafter, arrangement example # 2) will be described with reference to FIG. 3B. FIG. 3B is a second schematic view for explaining the arrangement of the field-of-view camera and the structure of the connection portion according to the first embodiment.

配置例#2では、カメラを三脚又はペデスタルに載せた状態でカメラマンがカメラ背後から操作するスタイル(以下、直立スタイル)で撮影する場合にカメラマンの目が位置する場所に視界カメラ12のレンズが配置されている。この例では、メインカメラ11の筐体背部(レンズマウントがある面と反対側)後方に視界カメラ12を配置するための接続部12bが設けられ、接続部12bに視界カメラ12が固定されている。 In arrangement example # 2, the lens of the field of view camera 12 is arranged at a place where the cameraman's eyes are located when shooting in a style in which the cameraman operates from behind the camera with the camera mounted on a tripod or pedestal (hereinafter, upright style). Has been done. In this example, a connecting portion 12b for arranging the visual field camera 12 is provided behind the back of the housing of the main camera 11 (the side opposite to the surface where the lens mount is located), and the visual field camera 12 is fixed to the connecting portion 12b. ..

また、図3Bの例では、筐体背部の面より後ろに視界カメラ12のレンズが位置するように、メインカメラ11と接続部12bとが接続される部分から、視界カメラ12が載置される部分までの距離が所定の長さ(例えば、15cm)以上に設定されている。 Further, in the example of FIG. 3B, the field of view camera 12 is placed from the portion where the main camera 11 and the connection portion 12b are connected so that the lens of the field of view camera 12 is located behind the surface of the back surface of the housing. The distance to the portion is set to a predetermined length (for example, 15 cm) or more.

接続部12bの構造は、例えば、視界カメラ12の底部及び側部を支持し、視界カメラ12が載置されて取り外し可能な状態で固定される構造である。なお、接続部12bの構造は図3Bの例に限定されない。例えば、視界カメラ12をバンドで固定する構造、或いは、磁石やネジなどの固定手段により視界カメラ12を固定する構造であってもよい。 The structure of the connecting portion 12b is, for example, a structure that supports the bottom and side portions of the field of view camera 12, and the field of view camera 12 is placed and fixed in a removable state. The structure of the connecting portion 12b is not limited to the example of FIG. 3B. For example, the view camera 12 may be fixed with a band, or the view camera 12 may be fixed by a fixing means such as a magnet or a screw.

次に、図3Cを参照しながら、視界カメラ12のさらに別の配置例(以下、配置例#3)について説明する。図3Cは、第1実施形態に係る視界カメラの配置及び接続部の構造について説明するための第3の模式図である。 Next, another arrangement example of the field-of-view camera 12 (hereinafter, arrangement example # 3) will be described with reference to FIG. 3C. FIG. 3C is a third schematic diagram for explaining the arrangement of the visual field cameras and the structure of the connection portion according to the first embodiment.

配置例#3では、上述した配置例#1の接続部12a及び上述した配置例#2の接続部12bがメインカメラ11に設けられており、視界カメラ12の配置を変更することができる。接続部12a、12bは予めメインカメラ11に固定されてもよい。視界カメラ12の配置を変更できるようにすることで、スタジオセットの種類や配置、カメラマンの得意な撮影スタイルなどに応じて肩担ぎスタイルと直立スタイルとを切り替えることが可能になる。 In the arrangement example # 3, the connection portion 12a of the above-mentioned arrangement example # 1 and the connection portion 12b of the above-mentioned arrangement example # 2 are provided in the main camera 11, and the arrangement of the field-of-view camera 12 can be changed. The connecting portions 12a and 12b may be fixed to the main camera 11 in advance. By making it possible to change the arrangement of the field-of-view camera 12, it is possible to switch between the shoulder-carrying style and the upright style according to the type and arrangement of the studio set, the shooting style that the photographer is good at, and the like.

次に、図4を参照しながら、視界カメラ12のさらに別の配置例(以下、配置例#4)について説明する。図4は、第1実施形態に係る視界カメラの配置及び接続機構の構造について説明するための第4の模式図である。 Next, another arrangement example of the field of view camera 12 (hereinafter, arrangement example # 4) will be described with reference to FIG. FIG. 4 is a fourth schematic diagram for explaining the arrangement of the field of view cameras and the structure of the connection mechanism according to the first embodiment.

配置例#4では、接続部12cの一端がロボットアーム13(この例では、メインカメラ11をチルトするための関節部13a付近)に接続されている。また、接続部12cの他端には、視界カメラ12の底部及び側部を支持するための支持機構が設けられ、支持機構に視界カメラ12が固定されている。 In the arrangement example # 4, one end of the connecting portion 12c is connected to the robot arm 13 (in this example, the vicinity of the joint portion 13a for tilting the main camera 11). Further, at the other end of the connecting portion 12c, a support mechanism for supporting the bottom and side portions of the field of view camera 12 is provided, and the field of view camera 12 is fixed to the support mechanism.

また、接続部12cは、ロボットアーム13と接続する部分に回転機構を有し、メインカメラ11の光軸が水平面内からチルト角λTだけチルトしたときに、角度-λTだけ回転して視界カメラ12の正面方向を水平面内に維持する。例えば、前面及び背面のそれぞれにレンズを配置した全方位カメラの場合、各レンズの光軸が水平面内に維持される。 Further, the connecting portion 12c has a rotating mechanism at a portion connected to the robot arm 13, and when the optical axis of the main camera 11 is tilted by a tilt angle λ T from the horizontal plane, the connecting portion 12c is rotated by an angle -λ T to view. The front direction of the camera 12 is maintained in a horizontal plane. For example, in the case of an omnidirectional camera in which lenses are arranged on the front surface and the back surface, the optical axis of each lens is maintained in a horizontal plane.

実際にカメラを操作して撮影を行うカメラマンは、カメラをチルトさせた場合でも、自らの視線をチルト角の分だけ傾けて固定することは多くないだろう。通常、カメラマンは、ある程度、撮影姿勢を維持した状態でファインダやカメラ周囲の環境を見ている。そのため、メインカメラ11のチルトに追従して視界カメラ12の姿勢が変わると、視界カメラ12の正面方向とカメラマン目線との間にズレが生じて違和感の原因になりうる。しかし、上述した接続部12cの構成を適用すれば、このような違和感の低減が期待できる。 Photographers who actually operate the camera to shoot will not often fix their line of sight by tilting it by the tilt angle, even if the camera is tilted. Normally, the photographer looks at the finder and the environment around the camera while maintaining the shooting posture to some extent. Therefore, if the posture of the visual field camera 12 changes following the tilt of the main camera 11, a deviation may occur between the front direction of the visual field camera 12 and the line of sight of the cameraman, which may cause a sense of discomfort. However, if the above-described configuration of the connecting portion 12c is applied, such a feeling of discomfort can be expected to be reduced.

後述するように、上記のような視界カメラ12の正面方向とカメラマン目線とのズレは、全方位映像VEから視線映像を生成するときに補正することができる。他方、配置例#4のように視界カメラ12の姿勢を機械的に補正できると視線映像を生成する際の補正が省略できるため、制御コンピュータ21による映像処理の負担を減らすことができる。 As will be described later, the deviation between the front direction of the field of view camera 12 and the line of sight of the cameraman as described above can be corrected when the line-of-sight image is generated from the omnidirectional image VE. On the other hand, if the posture of the visual field camera 12 can be mechanically corrected as in the arrangement example # 4, the correction at the time of generating the line-of-sight image can be omitted, so that the burden of image processing by the control computer 21 can be reduced.

なお、視界カメラ12が全方位カメラ以外の広角カメラ(例えば、180°映像又は270°映像を出力する広角カメラ)である場合、上方に大きくチルトするメインカメラ11の動きに視界カメラ12の向きが追従すると、視界カメラ12の出力映像にはカメラマンの足下が含まれなくなることがある。この場合、足下の映像が得られず、足下の視界映像が一部欠損する可能性がある。しかし、上述した接続部12cの構成を適用すれば、このような視界映像の欠損を回避することができる。 When the view camera 12 is a wide-angle camera other than the omnidirectional camera (for example, a wide-angle camera that outputs a 180 ° image or a 270 ° image), the direction of the view camera 12 is directed to the movement of the main camera 11 that tilts greatly upward. If it follows, the output image of the view camera 12 may not include the foot of the cameraman. In this case, the image of the feet cannot be obtained, and the visual field image of the feet may be partially lost. However, if the above-described configuration of the connecting portion 12c is applied, such a loss of the visual field image can be avoided.

次に、図5を参照しながら、視界カメラ12のさらに別の配置例(以下、配置例#5)について説明する。図5は、第1実施形態に係る視界カメラの配置及び接続機構の構造について説明するための第5の模式図である。 Next, another arrangement example of the field of view camera 12 (hereinafter, arrangement example # 5) will be described with reference to FIG. FIG. 5 is a fifth schematic diagram for explaining the arrangement of the field of view cameras and the structure of the connection mechanism according to the first embodiment.

配置例#5では、図4に示した接続部12cと同じ構造を有する接続部12dが配置例#4とは異なるロボットアーム13の部位に接続されている。このように、接続部12dがロボットアーム13に接続される位置は実施の態様に応じて適宜変更されうる。図5の例では、最も床に近い位置にある関節部13fの近傍に接続部12dが接続されているが、ベース14に接続部12dが接続されてもよい。この場合、カメラマンの目が位置する高さになるように接続部12dのサイズや形状が設計されうる。 In the arrangement example # 5, the connection portion 12d having the same structure as the connection portion 12c shown in FIG. 4 is connected to a portion of the robot arm 13 different from the arrangement example # 4. In this way, the position where the connecting portion 12d is connected to the robot arm 13 can be appropriately changed depending on the embodiment. In the example of FIG. 5, the connection portion 12d is connected in the vicinity of the joint portion 13f located closest to the floor, but the connection portion 12d may be connected to the base 14. In this case, the size and shape of the connecting portion 12d can be designed so that the height at which the photographer's eyes are located.

上述した配置例#1〜#5及びこれらの変形例のように、実際にカメラを操作するカメラマンの目が位置する場所の近傍に視界カメラ12のレンズを配置することで、視界カメラ12の出力映像から、カメラマン目線で見える光景に近い視界映像を得ることができる。なお、更なる変形例として、スタジオセットなど、ロボットカメラ以外のスタジオ内の機材や構造物に視界カメラ12を配置することも可能である。以下では、説明の都合上、配置例#2を想定して説明を進める。 By arranging the lens of the field of view camera 12 in the vicinity of the place where the eyes of the cameraman who actually operates the camera are located, as in the above-mentioned arrangement examples # 1 to # 5 and these modified examples, the output of the field of view camera 12 is output. From the image, it is possible to obtain a field-of-view image close to the scene seen from the cameraman's point of view. As a further modification, the field-of-view camera 12 can be arranged on equipment or structures in the studio other than the robot camera, such as a studio set. In the following, for convenience of explanation, the explanation will proceed assuming arrangement example # 2.

(ロボットカメラの設置方法)
次に、図6を参照しながら、ロボットカメラ10の設置方法について説明を補足する。図6は、第1実施形態に係るロボットカメラの設置方法について説明するための模式図である。
(How to install the robot camera)
Next, the description of the installation method of the robot camera 10 will be supplemented with reference to FIG. FIG. 6 is a schematic diagram for explaining a method of installing the robot camera according to the first embodiment.

上記の説明において、ロボットカメラ10は、メインカメラ11が接続されているロボットアーム13を、移動可能なベース14に載置する構造を有していた。この構造にした場合、ロボットカメラ10は、スタジオの床上に設置され、スタジオ内を動き回ることができる。但し、第1実施形態に係る技術を適用可能なロボットカメラ10の構造はこれに限定されない。例えば、ロボットカメラ10は、図6に示すように、床面FL、天井CL、壁面WLに、ロボットアーム13の一端(メインカメラ11が接続される端部と反対側の端部)が固定される構造を有していてもよい。 In the above description, the robot camera 10 has a structure in which the robot arm 13 to which the main camera 11 is connected is placed on the movable base 14. With this structure, the robot camera 10 is installed on the floor of the studio and can move around in the studio. However, the structure of the robot camera 10 to which the technique according to the first embodiment can be applied is not limited to this. For example, in the robot camera 10, as shown in FIG. 6, one end of the robot arm 13 (the end opposite to the end to which the main camera 11 is connected) is fixed to the floor FL, the ceiling CL, and the wall surface WL. It may have a structure like this.

スタジオの天井CLや、スタジオセットの壁面WLにロボットアーム13が固定される構造を適用すれば、ペデスタルに乗せたカメラを利用して行う通常のスタジオ撮影では難しい特殊なアングルからの撮影が可能になる。また、ニュース番組の撮影や、クロマキー撮影などの場合には、全てのロボットカメラ10がスタジオ内を動き回れるようにしなくてもよいことがある。この場合、移動可能なベース14を省略して床面FLなどにロボットカメラ10を固定する構造を適用すればコストの低減が期待されうる。 By applying a structure in which the robot arm 13 is fixed to the ceiling CL of the studio or the wall surface WL of the studio set, it is possible to shoot from a special angle, which is difficult with normal studio shooting using a camera mounted on a pedestal. Become. Further, in the case of shooting a news program, chroma key shooting, etc., it may not be necessary to allow all the robot cameras 10 to move around in the studio. In this case, cost reduction can be expected by applying a structure in which the movable base 14 is omitted and the robot camera 10 is fixed to the floor surface FL or the like.

(ベースの変形例)
次に、図7を参照しながら、ベース14の変形例について説明する。図7は、第1実施形態に係るベースの変形例について説明するための模式図である。
(Modification example of base)
Next, a modified example of the base 14 will be described with reference to FIG. 7. FIG. 7 is a schematic diagram for explaining a modified example of the base according to the first embodiment.

上記の説明において、ベース14は、車輪により移動可能な構造を有していた。この構成にした場合、車輪の回転によりベース14がスタジオ内を自由に動き回ることができる。また、上記の説明では、ベース14は、ロボットカメラ10をスタジオ内で移動させる役割を担っていた。但し、第1実施形態に係る技術を適用可能なベース14の構造はこれに限定されない。 In the above description, the base 14 has a structure that can be moved by wheels. With this configuration, the base 14 can move around freely in the studio due to the rotation of the wheels. Further, in the above description, the base 14 has a role of moving the robot camera 10 in the studio. However, the structure of the base 14 to which the technique according to the first embodiment can be applied is not limited to this.

例えば、ベース14は、図7(a)に示すように、メインカメラ11が接続されているロボットアーム13を昇降させる昇降機構142a、及びレール142cに合う幅で配置された複数の車輪を有する移動機構142bを有する構造であってもよい。他の変形例として、ベース14は、図7(b)に示すように、昇降機構143付きのペデスタルであってもよい。さらに、ベース14は、図7(c)に示すように、パン棒144a、及び脚部144bを有する三脚であってもよい。このような変形例についても第1実施形態に係る技術を適用可能である。 For example, as shown in FIG. 7A, the base 14 has an elevating mechanism 142a for raising and lowering the robot arm 13 to which the main camera 11 is connected, and a movement having a plurality of wheels arranged with a width matching the rail 142c. It may have a structure having a mechanism 142b. As another modification, the base 14 may be a pedestal with an elevating mechanism 143 as shown in FIG. 7B. Further, the base 14 may be a tripod having a pan bar 144a and a leg portion 144b, as shown in FIG. 7 (c). The technique according to the first embodiment can be applied to such a modified example.

(ロボットアームの変形例)
次に、図8を参照しながら、ロボットアーム13の変形例について説明する。図8は、第1実施形態に係るロボットアームの変形例について説明するための模式図である。
(Modification example of robot arm)
Next, a modified example of the robot arm 13 will be described with reference to FIG. FIG. 8 is a schematic diagram for explaining a modified example of the robot arm according to the first embodiment.

上記の説明において、6軸のロボットアーム13を例示した。しかし、第1実施形態に係る技術を適用可能なロボットアーム13の構造はこれに限定されない。例えば、図8に例示したような7軸のロボットアーム131を適用することも可能である。ロボットアーム131は、7つの関節部131a、131b、131c、131d、131e、131f、131gを有し、各関節部(図中の鎖線で示した部分)が回転して、例えば、図8(b)に示すような形状に変形することができる。このように関節部の数が増えることで、よりアクロバティックなカメラアングルを実現できるようになる可能性がある。 In the above description, the 6-axis robot arm 13 has been illustrated. However, the structure of the robot arm 13 to which the technique according to the first embodiment can be applied is not limited to this. For example, it is also possible to apply a 7-axis robot arm 131 as illustrated in FIG. The robot arm 131 has seven joints 131a, 131b, 131c, 131d, 131e, 131f, 131g, and each joint (the portion indicated by the chain line in the figure) rotates, for example, FIG. 8 (b). ) Can be transformed into the shape shown in). By increasing the number of joints in this way, it may be possible to realize a more acrobatic camera angle.

(視界映像の表示制御)
次に、図9〜図11を参照しながら、第1実施形態に係る視界映像の表示制御について具体例を挙げて説明する。以下では、説明の都合上、図9に例示するスタジオ内の様子をロボットカメラ10で撮影する場合について説明を行う。図9は、第1実施形態に係るロボットカメラが配置されるスタジオ内の様子について説明するための模式図である。
(Display control of field of view image)
Next, with reference to FIGS. 9 to 11, the display control of the visual field image according to the first embodiment will be described with reference to specific examples. In the following, for convenience of explanation, a case where the state in the studio illustrated in FIG. 9 is photographed by the robot camera 10 will be described. FIG. 9 is a schematic view for explaining a state in the studio where the robot camera according to the first embodiment is arranged.

図9に模式的に示したスタジオ内には、2台のロボットカメラ(CAM#1、CAM#2)、スタジオセットSS、表示モニタM、及び出演者m1、m2、m3が存在する。この例では、CAM#1がロボットカメラ10であるとする。ロボットカメラ10は、出演者m1、m2をメインカメラ11で撮影している。CAM#2は、表示モニタM及び出演者m3を撮影している。 In the studio schematically shown in FIG. 9, there are two robot cameras (CAM # 1 and CAM # 2), a studio set SS, a display monitor M, and performers m1, m2, and m3. In this example, it is assumed that CAM # 1 is the robot camera 10. The robot camera 10 photographs the performers m1 and m2 with the main camera 11. CAM # 2 is photographing the display monitor M and the performer m3.

この例では、HMD22の第1の表示領域221aにはメイン映像VMが表示され、第2の表示領域221bには視界映像が表示される。図10に示すように、オペレータOPが正面を向いている場合(撮影方向にオペレータOPの頭部OPa及びボディOPbが向いている場合)、出演者m1、m2、スタジオセットSSなどを含む視界映像が第2の表示領域221bに表示される。図10は、第1実施形態に係る視界映像及びメイン映像の表示制御について説明するための第1の説明図である。 In this example, the main image VM is displayed in the first display area 221a of the HMD 22, and the field of view image is displayed in the second display area 221b. As shown in FIG. 10, when the operator OP is facing the front (when the head OPa and the body OPb of the operator OP are facing in the shooting direction), the field of view image including the performers m1, m2, the studio set SS, and the like. Is displayed in the second display area 221b. FIG. 10 is a first explanatory diagram for explaining display control of the visual field image and the main image according to the first embodiment.

図10の状態から、オペレータOPが頭部OPaを右側に向けた場合(角度θだけ回転した場合)、図11に示すように、第2の表示領域221bに表示される視界映像は、表示モニタM及び出演者m3を含む映像となる。つまり、カメラマンがスタジオ内で右側を向いたときに見える範囲の映像が第2の表示領域221bに表示される。図11は、第1実施形態に係る視界映像及びメイン映像の表示制御について説明するための第2の説明図である。なお、角度θに応じて視界映像に含まれる光景は連続的に変化する。 From the state of FIG. 10, when the operator OP turns the head OPa to the right side (rotated by the angle θ), as shown in FIG. 11, the visual field image displayed in the second display area 221b is a display monitor. It will be a video including M and performer m3. That is, the image in the range that can be seen when the photographer turns to the right in the studio is displayed in the second display area 221b. FIG. 11 is a second explanatory diagram for explaining the display control of the visual field image and the main image according to the first embodiment. The scene included in the visual field image changes continuously according to the angle θ.

なお、オペレータOPが実際に頭部OPaを回転した角度θと、視界映像の基準となる視線方向の回転角度ηとは一致していてもよいし、異なってもよい。例えば、視線方向の回転角度ηが頭部OPaの回転角度θに比例する場合、回転角度θ、ηの関係は、係数γを用いて以下の式(1)により与えられる。γが1より大きい場合(γ>1)、頭部OPaを少し回転させるだけで、実際に頭部OPaを回転させて見える光景よりも広い範囲の光景を視界映像として見ることができる。例えば、γ=3に設定すると、頭部OPaを正面方向から60°回転させたとき、視界映像には真後ろの光景が映し出される。 The angle θ at which the operator OP actually rotates the head OPa may be the same as or different from the rotation angle η in the line-of-sight direction, which is the reference of the visual field image. For example, when the rotation angle η in the line-of-sight direction is proportional to the rotation angle θ of the head OPa, the relationship between the rotation angles θ and η is given by the following equation (1) using the coefficient γ. When γ is larger than 1 (γ> 1), by rotating the head OPa a little, a scene in a wider range than the scene actually seen by rotating the head OPa can be seen as a visual field image. For example, when γ = 3 is set, when the head OPa is rotated by 60 ° from the front direction, the scene directly behind is projected in the visual field image.

η=γ×θ …(1) η = γ × θ… (1)

上記のように、第1の表示領域221aにメイン映像VMを表示しつつ、第2の表示領域221bに表示される視界映像が変化することで、オペレータOPは、スタジオ内でVF(View Finder)を確認しながら周囲を見渡す感覚でロボットカメラ10を操作することが可能になる。また、係数γを1より大きく設定することで、実際には頭部OPaを回転しても見ることができない背後の光景までも視界映像で見ることが可能になる。なお、変形例として、メイン映像VM及び視界映像の表示をVR(Virtual Reality)表示にしてもよい。VR表示にすることで、オペレータOPは、よりリアルにスタジオ内で撮影している感覚を味わうことができる。 As described above, while displaying the main image VM in the first display area 221a, the view image displayed in the second display area 221b changes, so that the operator OP can perform the VF (View Finder) in the studio. It becomes possible to operate the robot camera 10 as if looking around while checking the above. Further, by setting the coefficient γ to be larger than 1, it becomes possible to see the scene behind the head OPa, which cannot be actually seen even if the head OPa is rotated, in the visual field image. As a modification, the display of the main image VM and the field of view image may be a VR (Virtual Reality) display. By displaying the VR, the operator OP can experience the feeling of shooting in the studio more realistically.

(操作デバイスの例)
次に、図12を参照しながら、操作デバイス23の一例として、GUIを利用する操作デバイスの具体的な構成を例示し、操作デバイス23の構成及び機能について説明する。図12は、第1実施形態に係る操作デバイスの例を模式的に示した説明図である。
(Example of operating device)
Next, with reference to FIG. 12, as an example of the operation device 23, a specific configuration of the operation device using the GUI will be illustrated, and the configuration and function of the operation device 23 will be described. FIG. 12 is an explanatory diagram schematically showing an example of the operation device according to the first embodiment.

図12の例は、タッチパネルを搭載するタブレット端末などのデバイスを利用してGUI(Graphical User Interface)により操作デバイス23の機能を実現する方法を示している。図12に示した操作デバイス23は、操作領域A1、A2、A3、B1、B2、C1、C2、D3及びボタンオブジェクトD1、D2を有する。なお、符号U1、U2はオペレータOPの指を示している。 The example of FIG. 12 shows a method of realizing the function of the operation device 23 by GUI (Graphical User Interface) using a device such as a tablet terminal equipped with a touch panel. The operation device 23 shown in FIG. 12 has operation areas A1, A2, A3, B1, B2, C1, C2, D3 and button objects D1 and D2. Reference numerals U1 and U2 indicate the fingers of the operator OP.

操作領域A1、A2、A3は、ロボットアーム13(ARM)の動き制御に用いられる操作部である。操作領域B1、B2は、ベース14(BASE)の動き制御に用いられる操作部である。操作領域C1、C2は、メインカメラ11のカメラ設定を変更する操作に用いられる操作部である。操作領域D3は、ロボットカメラの乗り換え操作に用いられる操作部である。 The operation areas A1, A2, and A3 are operation units used for motion control of the robot arm 13 (ARM). The operation areas B1 and B2 are operation units used for motion control of the base 14 (BASE). The operation areas C1 and C2 are operation units used for operations for changing the camera settings of the main camera 11. The operation area D3 is an operation unit used for the transfer operation of the robot camera.

ボタンオブジェクトD1は、オペレータOPが「正面」(図10の状態を参照)を向いている状態の視線方向(直立姿勢時の視線方向)を設定する操作に用いられる。ボタンオブジェクトD2は、視界映像として切り出される範囲(オペレータOPの視野に相当する範囲)を一時的に拡張する操作に用いられる。なお、ボタンオブジェクトD2には、上述した係数γを変更する機能(例えば、γを1から2、及び2から1に変更する機能)が割り当てられてもよい。 The button object D1 is used for an operation of setting the line-of-sight direction (line-of-sight direction in an upright posture) when the operator OP is facing the "front" (see the state of FIG. 10). The button object D2 is used for an operation of temporarily expanding the range cut out as the visual field image (the range corresponding to the visual field of the operator OP). The button object D2 may be assigned a function of changing the coefficient γ described above (for example, a function of changing γ from 1 to 2 and 2 to 1).

操作領域A1は、メインカメラ11をパン方向に回転させるためのディスクオブジェクトA1aと、メインカメラ11の向きを表示するためのカメラオブジェクトA1bとを含む。例えば、オペレータOPがディスクオブジェクトA1aに沿って円弧状にスワイプ操作すると、スワイプ操作に応じてカメラオブジェクトA1bが回転し、ロボットアーム13の関節部が動いて、回転角ψの分だけメインカメラ11の向きがパン方向に変化する。なお、操作領域A1の中央を縦断する鎖線はパン角が0°の位置を表している。 The operation area A1 includes a disk object A1a for rotating the main camera 11 in the pan direction and a camera object A1b for displaying the direction of the main camera 11. For example, when the operator OP swipes along the disk object A1a in an arc shape, the camera object A1b rotates in response to the swipe operation, the joint portion of the robot arm 13 moves, and the main camera 11 moves by the rotation angle ψ. The orientation changes in the pan direction. The chain line that traverses the center of the operation area A1 represents the position where the pan angle is 0 °.

操作領域A2は、メインカメラ11をチルト方向に回転させるためのディスクオブジェクトA2aと、メインカメラ11の向きを表示するためのカメラオブジェクトA2bとを含む。例えば、オペレータOPがディスクオブジェクトA2aに沿って円弧状にスワイプ操作すると、スワイプ操作に応じてカメラオブジェクトA2bが回転し、ロボットアーム13の関節部が動いて、回転角λTの分、メインカメラ11の向きがチルト方向に変化する。なお、操作領域A2の中央を横断する鎖線はチルト角が0°の位置を表している。 The operation area A2 includes a disc object A2a for rotating the main camera 11 in the tilt direction and a camera object A2b for displaying the direction of the main camera 11. For example, when the operator OP swipes along the disk object A2a in an arc shape, the camera object A2b rotates in response to the swipe operation, the joint portion of the robot arm 13 moves, and the rotation angle λ T causes the main camera 11 to rotate. The direction of is changed to the tilt direction. The chain line crossing the center of the operation area A2 represents a position where the tilt angle is 0 °.

操作領域A3は、メインカメラ11を上下に移動させるためのボタンオブジェクトUP、DOWNと、メインカメラ11を左右に移動させるためのボタンオブジェクトL、Rと、ロックボタンA3aとを含む。 The operation area A3 includes button objects UP and DOWN for moving the main camera 11 up and down, button objects L and R for moving the main camera 11 left and right, and a lock button A3a.

例えば、オペレータOPがボタンオブジェクトUPをタッチすると、メインカメラ11の位置が光軸に垂直な面内で垂直上方に移動する。一方、オペレータOPがボタンオブジェクトDOWNをタッチすると、メインカメラ11の位置が光軸に垂直な面内で垂直下方に移動する。また、オペレータOPがボタンオブジェクトLをタッチすると、メインカメラ11の位置が光軸に垂直な面内で水平左方に移動する。一方、オペレータOPがボタンオブジェクトRをタッチすると、メインカメラ11の位置が光軸に垂直な面内で水平右方に移動する。 For example, when the operator OP touches the button object UP, the position of the main camera 11 moves vertically upward in a plane perpendicular to the optical axis. On the other hand, when the operator OP touches the button object DOWN, the position of the main camera 11 moves vertically downward in the plane perpendicular to the optical axis. Further, when the operator OP touches the button object L, the position of the main camera 11 moves horizontally to the left in the plane perpendicular to the optical axis. On the other hand, when the operator OP touches the button object R, the position of the main camera 11 moves horizontally to the right in the plane perpendicular to the optical axis.

なお、ボタンオブジェクトUP、DOWN、L、Rを押下している間だけメインカメラ11の移動が継続されるようにしてもよい。ロックボタンA3aが押下されると、現在のメインカメラ11の位置及び向きがロックされる。ロック状態では、操作領域A1、A2による操作、及びボタンオブジェクトUP、DOWN、L、Rによる操作が無視される。ロック状態でもう一度ロックボタンA3aを押下するとロックが解除される。ロックボタンA3aを利用することで、画角を固定した撮影が容易になる。なお、操作領域A1、A2、A3のうち一部の操作だけをロックするようにオペレータOPが設定できるようにしてもよい。 The movement of the main camera 11 may be continued only while the button objects UP, DOWN, L, and R are pressed. When the lock button A3a is pressed, the current position and orientation of the main camera 11 are locked. In the locked state, the operations by the operation areas A1 and A2 and the operations by the button objects UP, DOWN, L, and R are ignored. When the lock button A3a is pressed again in the locked state, the lock is released. By using the lock button A3a, shooting with a fixed angle of view becomes easy. The operator OP may be set to lock only a part of the operation areas A1, A2, and A3.

操作領域B1は、ベース14を前進させるためのボタンオブジェクトFwと、ベース14を後退させるためのボタンオブジェクトBwとを含む。例えば、オペレータOPがボタンオブジェクトFwをタッチすると、タッチしている間だけベース14が前進する。一方、オペレータOPがボタンオブジェクトBwをタッチすると、タッチしている間だけベース14が後退する。なお、ベース14に障害物センサ(図示せず)が搭載されている場合、例えば、ボタンオブジェクトFw、Bwをタッチしている間でも、ベース14が障害物を検知して自律的に停止する。 The operation area B1 includes a button object Fw for moving the base 14 forward and a button object Bw for moving the base 14 backward. For example, when the operator OP touches the button object Fw, the base 14 moves forward only while the operator OP touches the button object Fw. On the other hand, when the operator OP touches the button object Bw, the base 14 retracts only while the operator OP touches it. When an obstacle sensor (not shown) is mounted on the base 14, for example, the base 14 detects an obstacle and autonomously stops even while touching the button objects Fw and Bw.

操作領域B2は、ベース14をその場で回転させるためのディスクオブジェクトB2aを含む。例えば、オペレータOPがディスクオブジェクトB2aに沿って円弧状にスワイプ操作すると、スワイプ操作に応じてベース14が回転し、ベース14の進行方向が変わる。なお、上記の説明では、前進、後退、回転を組み合わせてベース14を移動させる方法について説明したが、ベース14の操作方法はこれに限定されない。例えば、前方、後方、左、右、左前方、右前方、左後方、右後方の移動にそれぞれ対応するボタンオブジェクトを設け、これによりベース14を移動させる方法でもよい。 The operating area B2 includes a disc object B2a for rotating the base 14 in place. For example, when the operator OP swipes along the disc object B2a in an arc shape, the base 14 rotates according to the swipe operation, and the traveling direction of the base 14 changes. In the above description, a method of moving the base 14 by combining forward movement, backward movement, and rotation has been described, but the operation method of the base 14 is not limited to this. For example, a method may be used in which button objects corresponding to the movements of the front, the rear, the left, the right, the left front, the right front, the left rear, and the right rear are provided, and the base 14 is moved by this.

また、操作領域B1、B2についての変形例として、例えば、スタジオを誕生から見下ろす形で見たときの要素を表す平面図、或いは、スタジオ内の様子を表す鳥瞰図を操作領域に表示し、その中にあるロボットカメラ10のオブジェクトをドラッグする操作で、ベース14の移動軌跡を指示できるようにする操作領域が設けられてもよい。このように、ドラッグ操作でロボットカメラ10のスタジオ内における移動を制御できるようにすることで、オペレータOPは直感的にロボットカメラ10を移動できるようになる。 Further, as a modification of the operation areas B1 and B2, for example, a plan view showing the elements when the studio is viewed from the birth or a bird's-eye view showing the state inside the studio is displayed in the operation area. An operation area may be provided so that the movement locus of the base 14 can be instructed by the operation of dragging the object of the robot camera 10 in the above. By making it possible to control the movement of the robot camera 10 in the studio by a drag operation in this way, the operator OP can intuitively move the robot camera 10.

操作領域C1は、メインカメラ11のズーム設定を変更するためのスライダオブジェクトC1aを含む。オペレータOPがスライダオブジェクトC1aをテレ端(T)方向にスライドさせると焦点距離が長くなるようにメインカメラ11のレンズが制御され、ワイド端(W)方向にスライドさせると焦点距離が短くなるようにレンズが制御される。なお、メインカメラ11のレンズが単焦点レンズである場合、操作領域C1の表示は無効化又は省略されうる。 The operation area C1 includes a slider object C1a for changing the zoom setting of the main camera 11. The lens of the main camera 11 is controlled so that the focal length becomes longer when the operator OP slides the slider object C1a toward the telephoto end (T), and the focal length becomes shorter when the operator OP slides the slider object C1a toward the wide end (W). The lens is controlled. When the lens of the main camera 11 is a single focus lens, the display of the operation area C1 can be invalidated or omitted.

操作領域C2には、メイン映像VMが表示される。オペレータOPが操作領域C2をタッチすると、タッチした場所にフォーカスが合うようにメインカメラ11が制御される。なお、操作領域C2に表示されるメイン映像VMは、解像度及びフレームレートの少なくとも一方が低くなるようにダウンコンバートされた映像であってもよい。 The main video VM is displayed in the operation area C2. When the operator OP touches the operation area C2, the main camera 11 is controlled so that the touched place is in focus. The main video VM displayed in the operation area C2 may be a video that has been down-converted so that at least one of the resolution and the frame rate is low.

操作領域D3には、CAM#2のメイン映像が表示される。なお、操作領域D3に表示されるメイン映像は、解像度及びフレームレートの少なくとも一方が低くなるようにダウンコンバートされた映像であってもよい。例えば、オペレータOPが操作領域D3をタッチすると、CAM#2への乗り換え処理が実行される。なお、誤って切り替え処理が実行されることを防止するため、操作領域D3に対するジェスチャー入力により切り替え処理が実行されるようにしてもよい。 The main image of CAM # 2 is displayed in the operation area D3. The main image displayed in the operation area D3 may be an image that has been down-converted so that at least one of the resolution and the frame rate is low. For example, when the operator OP touches the operation area D3, the transfer process to CAM # 2 is executed. In addition, in order to prevent the switching process from being executed by mistake, the switching process may be executed by inputting a gesture to the operation area D3.

CAM#2への切り替え処理が実行されると、HMD22に表示されるメイン映像及び視界映像はCAM#2のメイン映像及び視界映像に切り替えられる。また、操作デバイス23の操作領域A1、A2、A3、B1、B2、C1、C2、D1、D2に対する操作は、CAM#2の制御に対応する操作になる。また、操作領域D3には、CAM#1(ロボットカメラ10)のメイン映像が表示される。 When the switching process to CAM # 2 is executed, the main image and the visual field image displayed on the HMD 22 are switched to the main image and the visual field image of CAM # 2. Further, the operations on the operation areas A1, A2, A3, B1, B2, C1, C2, D1 and D2 of the operation device 23 correspond to the control of CAM # 2. Further, the main image of CAM # 1 (robot camera 10) is displayed in the operation area D3.

なお、スタジオ内に3以上のカメラ(ロボットカメラ以外のカメラを含みうる。)がある場合、操作領域D3はn個(n≧2)の部分領域に分割されてもよく、各部分領域にそれぞれ異なる他のカメラからのメイン映像が表示されてもよい。この場合、オペレータOPによりタッチされた部分領域に対応するカメラへの切り替え処理が実行される。 When there are three or more cameras (including cameras other than robot cameras) in the studio, the operation area D3 may be divided into n (n ≧ 2) subregions, and each subregion may be divided into n (n ≧ 2) subregions. The main image from another different camera may be displayed. In this case, the switching process to the camera corresponding to the partial area touched by the operator OP is executed.

上述した操作デバイス23のGUIは一例であり、第1実施形態に係る技術の適用範囲はこれに限定されない。例えば、各操作領域に表示されるオブジェクトの形状、種類及び数は実施の態様に応じて適宜変形可能である。また、一部の操作領域を省略する変形や、操作領域又はオブジェクトを追加する変形が可能である。このような変形例についても当然に第1実施形態の技術的範囲に属する。 The GUI of the operation device 23 described above is an example, and the scope of application of the technique according to the first embodiment is not limited to this. For example, the shape, type, and number of objects displayed in each operation area can be appropriately modified according to the embodiment. Further, it is possible to perform a modification that omits a part of the operation area or a modification that adds an operation area or an object. Naturally, such a modification also belongs to the technical scope of the first embodiment.

(操作デバイスの変形例)
次に、図13〜図16を参照しながら、操作デバイス23の変形例について説明する。
(Modification example of operation device)
Next, a modification of the operation device 23 will be described with reference to FIGS. 13 to 16.

まず、図13を参照しながら、ゲームコントローラ型の操作デバイス231について説明する。図13は、第1実施形態に係る操作デバイスの変形例について説明するための第1の説明図である。 First, the game controller type operation device 231 will be described with reference to FIG. FIG. 13 is a first explanatory diagram for explaining a modified example of the operation device according to the first embodiment.

図13に示すように、操作デバイス231は、ボタン型の操作部231a、231b、スティック型の操作部231c、231d、及び十字キー型の操作部231eを有する。例えば、操作部231aには、メインカメラ11のズーム制御機能が割り当てられうる。操作部231bには、メインカメラ11のフォーカス制御機能が割り当てられうる。操作部231cにはメインカメラ11のパンチルト制御機能が割り当てられうる。 As shown in FIG. 13, the operation device 231 includes a button-type operation unit 231a and 231b, a stick-type operation unit 231c and 231d, and a cross-key type operation unit 231e. For example, the operation unit 231a may be assigned the zoom control function of the main camera 11. The focus control function of the main camera 11 can be assigned to the operation unit 231b. The pan / tilt control function of the main camera 11 can be assigned to the operation unit 231c.

操作部231dには、ロボットアーム13の動き制御(例えば、メインカメラ11を垂直面内で上下左右に動かす動きに対応する動き制御)が割り当てられうる。操作部231eには、ロボットアーム13の細かな動き制御が割り当てられうる。例えば、操作部231dによる操作ではロボットアーム13の動きが速く、操作部231eの操作では遅い速度でロボットアーム13の動きが制御される。操作部231eをカメラ位置の微調整に使うことで、効率的にメインカメラ11を所望の位置に移動することができるようになる。 The operation unit 231d may be assigned motion control of the robot arm 13 (for example, motion control corresponding to the motion of moving the main camera 11 up / down / left / right in a vertical plane). Fine motion control of the robot arm 13 can be assigned to the operation unit 231e. For example, the operation of the operation unit 231d controls the movement of the robot arm 13 at a high speed, and the operation of the operation unit 231e controls the movement of the robot arm 13 at a slow speed. By using the operation unit 231e for fine adjustment of the camera position, the main camera 11 can be efficiently moved to a desired position.

次に、図14を参照しながら、スタジオカメラのコントロールシステムとして利用される入力インターフェースの一部に操作デバイス23の機能を割り当てた操作デバイス232について説明する。図14は、第1実施形態に係る操作デバイスの変形例について説明するための第2の説明図である。 Next, the operation device 232 to which the function of the operation device 23 is assigned to a part of the input interface used as the control system of the studio camera will be described with reference to FIG. FIG. 14 is a second explanatory view for explaining a modification of the operation device according to the first embodiment.

図14に示すように、操作デバイス232は、任意の回転量で回転可能なダイヤル型の操作部232a、始点と終点との間に回転量が制限されるダイヤル型の操作部232b、232c、レバー型の操作部232d、及び複数のボタンを有する操作部232eを有する。例えば、操作部232aには、メインカメラ11のフォーカス制御機能及びズーム機能が割り当てられうる。フォーカス制御機能及びズーム機能は、例えば、操作部232eの特定のボタンを押下することにより切り替えられる。 As shown in FIG. 14, the operation device 232 includes a dial-type operation unit 232a that can rotate at an arbitrary rotation amount, a dial-type operation unit 232b, 232c that limits the amount of rotation between the start point and the end point, and a lever. It has an operation unit 232d of the mold and an operation unit 232e having a plurality of buttons. For example, the operation unit 232a may be assigned a focus control function and a zoom function of the main camera 11. The focus control function and the zoom function can be switched, for example, by pressing a specific button on the operation unit 232e.

操作部232bには、メインカメラ11のパンチルト制御機能が割り当てられる。パン制御機能及びチルト制御機能は、例えば、操作部232eの特定のボタンを押下することにより切り替えられる。操作部232cには、ベース14の向きを左右に向ける方向制御機能が割り当てられうる。操作部232dには、ベース14の速度制御機能が割り当てられうる。操作部232eには、各操作部に割り当てられる機能の切り替え機能、及び制御対象となるロボットカメラの切り替え機能などが割り当てられうる。 The pan / tilt control function of the main camera 11 is assigned to the operation unit 232b. The pan control function and the tilt control function can be switched, for example, by pressing a specific button on the operation unit 232e. The operation unit 232c may be assigned a direction control function for directing the base 14 to the left or right. The speed control function of the base 14 can be assigned to the operation unit 232d. The operation unit 232e may be assigned a function for switching functions assigned to each operation unit, a function for switching a robot camera to be controlled, and the like.

次に、図15を参照しながら、ウェアラブルデバイス型の操作デバイス233a、233bについて説明する。図15は、第1実施形態に係る操作デバイスの変形例について説明するための第3の説明図である。 Next, the wearable device type operation devices 233a and 233b will be described with reference to FIG. FIG. 15 is a third explanatory diagram for explaining a modified example of the operation device according to the first embodiment.

図15に示すように、操作デバイス233a、233bは、オペレータOPが手に持って、或いは、身体に装着した状態で利用される。例えば、操作デバイス233aは、オペレータOPが右手で操作する。操作デバイス233bは、オペレータOPが左手で操作する。操作デバイス233aは、ロボットアーム13を操作するための操作部RCと、モーションセンサとを搭載している。操作デバイス233bは、メインカメラ11を操作するための操作部CCと、モーションセンサとを搭載している。 As shown in FIG. 15, the operation devices 233a and 233b are used in a state where the operator OP is holding them in their hands or wearing them on their bodies. For example, the operation device 233a is operated by the operator OP with the right hand. The operation device 233b is operated by the operator OP with the left hand. The operation device 233a is equipped with an operation unit RC for operating the robot arm 13 and a motion sensor. The operation device 233b is equipped with an operation unit CC for operating the main camera 11 and a motion sensor.

操作デバイス233aの操作部RCには、例えば、ロボットアーム13を上下左右に動かす動き制御の機能が割り当てられうる。操作デバイス233bの操作部CCには、例えば、メインカメラ11のズーム制御機能及びフォーカス制御機能が割り当てられうる。また、操作デバイス233aを前方Fw、後方Bw、右方向R、左方向Lに動かすジェスチャーにロボットアーム13の動きを割り当てることができる。また、操作デバイス233bを前方Fw、後方Bw、右方向R、左方向Lに動かすジェスチャーにメインカメラ11の制御機能を割り当てることができる。 The operation unit RC of the operation device 233a can be assigned, for example, a motion control function for moving the robot arm 13 up / down / left / right. For example, the zoom control function and the focus control function of the main camera 11 can be assigned to the operation unit CC of the operation device 233b. Further, the movement of the robot arm 13 can be assigned to the gesture of moving the operation device 233a in the front Fw, the rear Bw, the right direction R, and the left direction L. Further, the control function of the main camera 11 can be assigned to the gesture of moving the operation device 233b in the front Fw, the rear Bw, the right direction R, and the left direction L.

次に、図16を参照しながら、操縦席型の操作システム234について説明する。図16は、第1実施形態に係る操作デバイスの変形例について説明するための第4の説明図である。 Next, the cockpit type operation system 234 will be described with reference to FIG. FIG. 16 is a fourth explanatory diagram for explaining a modified example of the operation device according to the first embodiment.

図16に例示した操作システム234は、オペレータOPが着座する座面234a、タッチパネル234b、フットコントローラ234c、レバー型の操作部234d、及びボタン型の操作部234eを有する。操作システム234には、複数のディスプレイデバイスを組み合わせた映像表示デバイス221も含まれる。例えば、オペレータOPから見て中央に位置するディスプレイデバイスにメイン映像VMが表示され、左右に位置するディスプレイデバイスに視界映像が表示されるようにしてもよい。 The operation system 234 illustrated in FIG. 16 has a seat surface 234a on which the operator OP sits, a touch panel 234b, a foot controller 234c, a lever-type operation unit 234d, and a button-type operation unit 234e. The operation system 234 also includes a video display device 221 that combines a plurality of display devices. For example, the main image VM may be displayed on the display device located at the center of the operator OP, and the field of view image may be displayed on the display devices located on the left and right.

タッチパネル234bには、図12に示した操作デバイス23のGUIが表示されてもよい。フットコントローラ234cは、オペレータOPが足で操作する操作デバイスである。フットコントローラ234cには、例えば、左右それぞれの足が置かれる位置にボタンが配置され、足で押し込むことにより、そのボタンに割り当てられた処理が実行される。例えば、ベース14の速度制御、メインカメラ11のズーム及びフォーカス制御、或いは、ロボットアームの制御及びカメラの切り替え制御などが割り当てられうる。 The GUI of the operation device 23 shown in FIG. 12 may be displayed on the touch panel 234b. The foot controller 234c is an operation device operated by the operator OP with his / her foot. In the foot controller 234c, for example, a button is arranged at a position where each of the left and right feet is placed, and by pushing the button with the foot, the process assigned to the button is executed. For example, speed control of the base 14, zoom and focus control of the main camera 11, control of the robot arm, switching control of the camera, and the like can be assigned.

操作部234dには、例えば、ロボットアーム13の動き制御機能又はメインカメラ11のパンチルト制御機能などが割り当てられうる。操作部234eには、例えば、メインカメラ11のズーム制御機能及びフォーカス制御機能、或いは、制御対象のロボットカメラを切り替える機能などが割り当てられうる。なお、各部に対する機能の割り当て方法は上記の例に限定されず、任意に変更することが可能である。また、オペレータOPが機能の割り当てを任意に変更することができるようにしてもよい。 For example, a motion control function of the robot arm 13 or a pan / tilt control function of the main camera 11 can be assigned to the operation unit 234d. The operation unit 234e may be assigned, for example, a zoom control function and a focus control function of the main camera 11, or a function of switching the robot camera to be controlled. The method of assigning functions to each part is not limited to the above example, and can be arbitrarily changed. Further, the operator OP may be able to arbitrarily change the function assignment.

上記のように、第1実施形態に係る技術を適用可能な操作デバイス23は様々に変形することが可能であり、上記の変形例はその一部に過ぎず、これらの変形例から着想可能な操作手段の構成についても第1実施形態の技術的範囲に属する。 As described above, the operation device 23 to which the technique according to the first embodiment can be applied can be variously deformed, and the above-mentioned modification examples are only a part thereof, and can be conceived from these modification examples. The configuration of the operating means also belongs to the technical scope of the first embodiment.

[1−2.ハードウェア]
ここで、図17を参照しながら、上述した制御コンピュータ21が有する機能を実現可能なハードウェアの例について説明する。図17は、第1実施形態に係る制御コンピュータの機能を実現可能なハードウェアの一例を示したブロック図である。制御コンピュータ21の機能は、コンピュータプログラムを用いて図17に示すハードウェアを制御することにより実現される。
[1-2. hardware]
Here, an example of hardware capable of realizing the functions of the control computer 21 described above will be described with reference to FIG. FIG. 17 is a block diagram showing an example of hardware capable of realizing the functions of the control computer according to the first embodiment. The function of the control computer 21 is realized by controlling the hardware shown in FIG. 17 using a computer program.

図17に示すように、このハードウェアは、主に、プロセッサ21a、メモリ21b、表示I/F21c、通信I/F21d、及び接続I/F21eを有する。 As shown in FIG. 17, the hardware mainly includes a processor 21a, a memory 21b, a display I / F21c, a communication I / F21d, and a connection I / F21e.

プロセッサ21aは、例えば、CPU、DSP、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、GPUなどの処理回路である。メモリ21bは、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリなどの記憶装置である。 The processor 21a is a processing circuit such as a CPU, DSP, ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), and GPU. The memory 21b is, for example, a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a flash memory.

表示I/F21cは、LCD(Liquid Crystal Display)、ELD(Electro-Luminescence Display)などのディスプレイデバイスを接続するためのインターフェースである。例えば、表示I/F21cは、プロセッサ21aや表示I/F21cに搭載されたGPUにより表示制御を実施する。 The display I / F 21c is an interface for connecting a display device such as an LCD (Liquid Crystal Display) or an ELD (Electro-Luminescence Display). For example, the display I / F 21c performs display control by the processor 21a or the GPU mounted on the display I / F 21c.

通信I/F21dは、有線及び/又は無線のネットワークに接続するためのインターフェースである。通信I/F21dは、例えば、有線LAN、無線LAN、光回線などに接続されうる。接続I/F21eは、外部デバイスを接続するためのインターフェースである。接続I/F21eは、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)などである。 The communication I / F 21d is an interface for connecting to a wired and / or wireless network. The communication I / F 21d can be connected to, for example, a wired LAN, a wireless LAN, an optical line, or the like. The connection I / F21e is an interface for connecting an external device. The connection I / F21e is, for example, a USB (Universal Serial Bus) port, an IEEE1394 port, a SCSI (Small Computer System Interface), or the like.

接続I/F21eには、例えば、キーボード、マウス、タッチパネル、タッチパッドなどの入力インターフェースが接続されうる。また、接続I/F21eには、スピーカなどのオーディオデバイスなどが接続されうる。また、接続I/F21eには、可搬性の記録媒体21fが接続されうる。記録媒体21fとしては、例えば、磁気記録媒体、光ディスク、光磁気ディスク、半導体メモリなどがある。 An input interface such as a keyboard, a mouse, a touch panel, or a touch pad may be connected to the connection I / F21e. Further, an audio device such as a speaker may be connected to the connection I / F21e. Further, a portable recording medium 21f may be connected to the connection I / F 21e. Examples of the recording medium 21f include a magnetic recording medium, an optical disk, a magneto-optical disk, and a semiconductor memory.

上述したプロセッサ21aは、記録媒体21fに格納されたプログラムを読み出してメモリ21bに格納し、メモリ21bから読み出したプログラムに従って制御コンピュータ21の動作を制御することができる。制御コンピュータ21の動作を制御するためのプログラムは、メモリ21bに予め格納されていてもよいし、通信I/F21dを介してネットワークからダウンロードされてもよい。 The processor 21a described above can read the program stored in the recording medium 21f and store it in the memory 21b, and can control the operation of the control computer 21 according to the program read from the memory 21b. The program for controlling the operation of the control computer 21 may be stored in the memory 21b in advance, or may be downloaded from the network via the communication I / F 21d.

なお、HMD22のハードウェアについては詳細な説明を省略するが、HMD22にも上述したプロセッサ21a及びメモリ21bと同様の要素が搭載される。 Although detailed description of the hardware of the HMD 22 will be omitted, the HMD 22 is also equipped with the same elements as the processor 21a and the memory 21b described above.

[1−3.制御コンピュータの機能]
次に、図18を参照しながら、制御コンピュータ21の機能について、さらに説明する。図18は、第1実施形態に係る制御コンピュータが有する機能の例を示したブロック図である。
[1-3. Control computer function]
Next, the function of the control computer 21 will be further described with reference to FIG. FIG. 18 is a block diagram showing an example of the function of the control computer according to the first embodiment.

図18に示すように、制御コンピュータ21は、ベース制御部211、アーム制御部212、カメラ制御部213、メイン映像処理部214、及び全方位映像処理部215を有する。なお、ベース制御部211、アーム制御部212、カメラ制御部213、メイン映像処理部214、及び全方位映像処理部215の機能は、主に、上述したプロセッサ21a及びメモリ21bにより実現可能である。 As shown in FIG. 18, the control computer 21 includes a base control unit 211, an arm control unit 212, a camera control unit 213, a main video processing unit 214, and an omnidirectional video processing unit 215. The functions of the base control unit 211, the arm control unit 212, the camera control unit 213, the main video processing unit 214, and the omnidirectional video processing unit 215 can be realized mainly by the processor 21a and the memory 21b described above.

ベース制御部211は、操作デバイス23から出力される操作信号に応じてベース14の動きを制御するための制御信号を生成し、生成した制御信号をロボットカメラ10の制御デバイス15へと伝送する。 The base control unit 211 generates a control signal for controlling the movement of the base 14 according to the operation signal output from the operation device 23, and transmits the generated control signal to the control device 15 of the robot camera 10.

例えば、操作デバイス23のボタンオブジェクトFwがタッチされると、ベース14を前進させる旨の命令を含む操作信号が操作デバイス23から制御コンピュータ21へと出力される。この場合、ベース制御部211は、ベース14を前進させるための制御信号を生成し、ロボットカメラ10の制御デバイス15に伝送する。ベース14の後退操作及び回転操作についても同様に、ベース制御部211は、各操作に対応する制御信号をロボットカメラ10の制御デバイス15へと伝送する。これらの制御信号に応じて、制御デバイス15は、ベース14のモータを駆動してベース14を移動させる。 For example, when the button object Fw of the operation device 23 is touched, an operation signal including a command to advance the base 14 is output from the operation device 23 to the control computer 21. In this case, the base control unit 211 generates a control signal for advancing the base 14 and transmits it to the control device 15 of the robot camera 10. Similarly, for the backward operation and the rotation operation of the base 14, the base control unit 211 transmits the control signal corresponding to each operation to the control device 15 of the robot camera 10. In response to these control signals, the control device 15 drives the motor of the base 14 to move the base 14.

アーム制御部212は、操作デバイス23から出力される操作信号に応じてロボットアーム13の動きを制御するための制御信号を生成し、生成した制御信号をロボットカメラ10の制御デバイス15へと伝送する。 The arm control unit 212 generates a control signal for controlling the movement of the robot arm 13 according to the operation signal output from the operation device 23, and transmits the generated control signal to the control device 15 of the robot camera 10. ..

例えば、操作デバイス23のボタンオブジェクトUPがタッチされると、メインカメラ11の位置を垂直上方へ移動させる旨の命令を含む操作信号が操作デバイス23から制御コンピュータ21へと出力される。この場合、アーム制御部212は、ロボットアーム13を垂直上方へ移動させるための制御信号をロボットカメラ10の制御デバイス15へと伝送する。メインカメラ11の垂直下方への移動、水平移動、パン、チルトについても同様に、ベース制御部211は、各操作に対応する制御信号をロボットカメラ10の制御デバイス15へと伝送する。これらの制御信号に応じて、制御デバイス15は、ロボットアーム13のモータを駆動してロボットアーム13を変形させる。 For example, when the button object UP of the operation device 23 is touched, an operation signal including a command to move the position of the main camera 11 vertically upward is output from the operation device 23 to the control computer 21. In this case, the arm control unit 212 transmits a control signal for moving the robot arm 13 vertically upward to the control device 15 of the robot camera 10. Similarly, for vertical downward movement, horizontal movement, pan, and tilt of the main camera 11, the base control unit 211 transmits control signals corresponding to each operation to the control device 15 of the robot camera 10. In response to these control signals, the control device 15 drives the motor of the robot arm 13 to deform the robot arm 13.

カメラ制御部213は、操作デバイス23から出力される操作信号に応じてメインカメラ11のカメラ設定を変更する。 The camera control unit 213 changes the camera setting of the main camera 11 according to the operation signal output from the operation device 23.

例えば、操作デバイス23のスライダオブジェクトC1aがテレ端方向にスライドされると、メインカメラ11のレンズをテレ端方向にズームさせる命令を含む操作信号が操作デバイス23から制御コンピュータ21へと出力される。この場合、カメラ制御部213は、メインカメラ11のレンズをテレ端方向にズームさせるための制御信号を、ロボットカメラ10の制御デバイス15を介して又は直接的にメインカメラ11へと伝送する。ワイド端方向へのズーム、フォーカス位置の指定についても同様に、カメラ制御部213は、各操作に対応する制御信号を、ロボットカメラ10の制御デバイス15を介して又は直接的にメインカメラ11へと伝送する。 For example, when the slider object C1a of the operating device 23 is slid toward the telephoto end, an operating signal including a command to zoom the lens of the main camera 11 toward the telephoto end is output from the operating device 23 to the control computer 21. In this case, the camera control unit 213 transmits a control signal for zooming the lens of the main camera 11 toward the telephoto end direction via the control device 15 of the robot camera 10 or directly to the main camera 11. Similarly, for zooming in the wide end direction and designating the focus position, the camera control unit 213 sends a control signal corresponding to each operation to the main camera 11 via the control device 15 of the robot camera 10 or directly. To transmit.

メイン映像処理部214は、メインカメラ11から出力されるメイン映像VMを受信し、メイン映像VMをHMD22へと出力する。操作デバイス23にメイン映像VMを表示する場合、メイン映像処理部214は、操作デバイス23へとメイン映像VMを出力する。なお、メイン映像処理部214は、メイン映像VMを圧縮し、圧縮後のメイン映像VMをHMD22へと出力してもよい。また、メイン映像処理部214は、メイン映像VMをVR映像に変換し、そのVR映像をHMD22へと出力してもよい。なお、メイン映像処理部214は、メイン映像VMを、メインカメラ11から直接受信してもよいし、ロボットカメラ10の制御デバイス15を介して受信してもよい。 The main video processing unit 214 receives the main video VM output from the main camera 11 and outputs the main video VM to the HMD 22. When displaying the main video VM on the operation device 23, the main video processing unit 214 outputs the main video VM to the operation device 23. The main video processing unit 214 may compress the main video VM and output the compressed main video VM to the HMD 22. Further, the main video processing unit 214 may convert the main video VM into a VR video and output the VR video to the HMD 22. The main video processing unit 214 may receive the main video VM directly from the main camera 11 or may receive it via the control device 15 of the robot camera 10.

全方位映像処理部215は、視界カメラ12から出力される全方位映像VEを受信する。なお、全方位映像処理部215は、全方位映像VEを、視界カメラ12から直接受信してもよいし、ロボットカメラ10の制御デバイス15を介して受信してもよい。また、全方位映像処理部215は、視線検知デバイス222からオペレータOPの視線方向を示す視線情報を受信する。また、全方位映像処理部215は、全方位映像VE及び視線情報に基づいて視界映像を生成する。そして、全方位映像処理部215は、HMD22へと視界映像を出力する。 The omnidirectional video processing unit 215 receives the omnidirectional video VE output from the field of view camera 12. The omnidirectional video processing unit 215 may receive the omnidirectional video VE directly from the visual field camera 12 or may be received via the control device 15 of the robot camera 10. Further, the omnidirectional video processing unit 215 receives the line-of-sight information indicating the line-of-sight direction of the operator OP from the line-of-sight detection device 222. Further, the omnidirectional video processing unit 215 generates a visual field image based on the omnidirectional image VE and the line-of-sight information. Then, the omnidirectional image processing unit 215 outputs the field of view image to the HMD 22.

全方位映像処理部215は、例えば、視線方向を中心に予め設定された視界範囲(例えば、上/下に30°、左/右に60°)の映像を全方位映像VEから切り出し、切り出した映像を視界映像としてHMD22へと出力する。なお、操作デバイス23のボタンオブジェクトD2(ワイド表示)が押下されている場合、全方位映像処理部215は、視界範囲を上下左右に所定割合(例えば、10%)だけ広くなるように変更し、変更後の視界範囲に基づいて視界映像を生成する。 The omnidirectional video processing unit 215 cuts out, for example, an image in a preset field of view (for example, 30 ° up / down and 60 ° left / right) centered on the line-of-sight direction from the omnidirectional image VE. The image is output to the HMD 22 as a field of view image. When the button object D2 (wide display) of the operation device 23 is pressed, the omnidirectional video processing unit 215 changes the field of view to be widened by a predetermined ratio (for example, 10%) in the vertical and horizontal directions. A field of view image is generated based on the changed field of view.

なお、全方位映像処理部215は、視界映像を圧縮し、圧縮後の視界映像をHMD22へと出力してもよい。また、全方位映像処理部215は、視界映像をVR映像に変換し、そのVR映像をHMD22へと出力してもよい。制御コンピュータ21がメイン映像VM及び視界映像をVR映像へと変換する方式に代えて、VR映像への変換をHMD22で実行する方式を適用してもよい。このような変形例についても当然に第1実施形態の技術的範囲に属する。 The omnidirectional video processing unit 215 may compress the visual field image and output the compressed visual field image to the HMD 22. Further, the omnidirectional image processing unit 215 may convert the field of view image into a VR image and output the VR image to the HMD 22. Instead of the method in which the control computer 21 converts the main video VM and the visual field video into the VR video, a method in which the conversion to the VR video is executed by the HMD 22 may be applied. Naturally, such a modification also belongs to the technical scope of the first embodiment.

[1−4.処理フロー]
次に、図19を参照しながら、第1実施形態に係るリモートカメラシステムにより撮影時に実行される処理の流れについて説明する。この説明の中で、視界映像の生成方法、操作デバイス23による操作時の制御方法、視線補正の方法、視界映像の生成方法における処理の流れについて、さらに説明する。図19は、第1実施形態に係るリモートカメラシステムによる撮影時の処理(映像出力方法)について説明するためのフロー図である。
[1-4. Processing flow]
Next, with reference to FIG. 19, the flow of processing executed at the time of shooting by the remote camera system according to the first embodiment will be described. In this description, the process flow in the method of generating the visual field image, the method of controlling the operation by the operating device 23, the method of correcting the visual field, and the method of generating the visual field image will be further described. FIG. 19 is a flow chart for explaining a process (video output method) at the time of shooting by the remote camera system according to the first embodiment.

(S101)撮影が開始されると、ロボットカメラ10のメインカメラ11からメイン映像VMが出力され、メインカメラ11から直接又はロボットカメラ10の制御デバイス15を介して、コントロールシステム20の制御コンピュータ21に入力される。これにより、制御コンピュータ21は、メインカメラ11から出力されるメイン映像VMを取得する。 (S101) When shooting is started, the main video VM is output from the main camera 11 of the robot camera 10 and directly from the main camera 11 or via the control device 15 of the robot camera 10 to the control computer 21 of the control system 20. Entered. As a result, the control computer 21 acquires the main video VM output from the main camera 11.

(S102)撮影が開始されると、ロボットカメラ10の視界カメラ12から全方位映像VEが出力され、視界カメラ12から直接又はロボットカメラ10の制御デバイス15を介して、コントロールシステム20の制御コンピュータ21に入力される。これにより、制御コンピュータ21は、視界カメラ12から出力される全方位映像VEを取得する。S101及びS102の処理は並行して実行されうる。変形例として、撮影開始前から視界カメラ12により全方位映像VEが出力され、全方位映像VEが制御コンピュータ21へと入力されてもよい。 (S102) When shooting is started, the omnidirectional image VE is output from the view camera 12 of the robot camera 10, and the control computer 21 of the control system 20 is output directly from the view camera 12 or via the control device 15 of the robot camera 10. Is entered in. As a result, the control computer 21 acquires the omnidirectional video VE output from the field of view camera 12. The processes of S101 and S102 can be executed in parallel. As a modification, the omnidirectional image VE may be output by the field-of-view camera 12 before the start of shooting, and the omnidirectional image VE may be input to the control computer 21.

(S103)制御コンピュータ21は、視線検知デバイス222から出力される視線情報を取得する。視線情報は、視線検知デバイス222が検知したオペレータOPの視線方向を示す情報である。 (S103) The control computer 21 acquires the line-of-sight information output from the line-of-sight detection device 222. The line-of-sight information is information indicating the line-of-sight direction of the operator OP detected by the line-of-sight detection device 222.

例えば、視線検知デバイス222は、オペレータOPが操作デバイス23のボタンオブジェクトD1を押下したときのHMD22の向きを基準方向(正面)に設定し、モーションセンサの出力に基づいて現在の視線方向を検知する。視線情報は、例えば、現在の視線方向を指す単位ベクトルの情報を含む。視線方向を示す単位ベクトルは、直交座標系の3つの座標値、或いは、極座標表示における回転角のセット(2つの偏角)で表現されうる。 For example, the line-of-sight detection device 222 sets the direction of the HMD 22 when the operator OP presses the button object D1 of the operation device 23 in the reference direction (front), and detects the current line-of-sight direction based on the output of the motion sensor. .. The line-of-sight information includes, for example, information of a unit vector pointing to the current line-of-sight direction. The unit vector indicating the line-of-sight direction can be represented by three coordinate values in the Cartesian coordinate system or a set of rotation angles (two declinations) in polar coordinate display.

視線検知デバイス222は、予め設定された時間間隔(例えば、0.1秒など)でモーションセンサの出力値を取得し、取得した出力値に基づいて視線情報を更新する。また、視線検知デバイス222は、予め設定された時間間隔(例えば、0.2秒など)で視線情報を出力するか、或いは、制御コンピュータ21からの要求に応じて視線情報を出力する。変形例として、視線検知デバイス222は、視線方向の変化量が所定の閾値より大きい場合(例えば、回転角が3°以上)に視線情報を出力してもよい。 The line-of-sight detection device 222 acquires the output value of the motion sensor at a preset time interval (for example, 0.1 second), and updates the line-of-sight information based on the acquired output value. Further, the line-of-sight detection device 222 outputs line-of-sight information at preset time intervals (for example, 0.2 seconds), or outputs line-of-sight information in response to a request from the control computer 21. As a modification, the line-of-sight detection device 222 may output line-of-sight information when the amount of change in the line-of-sight direction is larger than a predetermined threshold value (for example, the rotation angle is 3 ° or more).

なお、視線検知デバイス222から出力される視線情報は、映像表示デバイス221へ入力されてもよい。この場合、映像表示デバイス221は、視線検知デバイス222から出力される視線情報を参照し、所定の角度(例えば、45°)より大きく、下向きにオペレータOPの視線方向が変化した場合に画面表示を透過表示に切り替えてもよい。 The line-of-sight information output from the line-of-sight detection device 222 may be input to the image display device 221. In this case, the image display device 221 refers to the line-of-sight information output from the line-of-sight detection device 222, and displays the screen when the line-of-sight direction of the operator OP changes downward, which is larger than a predetermined angle (for example, 45 °). You may switch to transparent display.

(S104)制御コンピュータ21は、全方位映像処理部215により、全方位映像VE及び視線方向に基づいて視界映像を生成する。このとき、全方位映像処理部215は、視線検知デバイス222から出力される視線情報から、オペレータOPが頭部OPaを回転させた角度θを取得し、上記の式(1)に基づいて、視界映像の生成時に基準となる回転角度ηを求める。そして、全方位映像処理部215は、求めた回転角度ηに対応する視線方向と、全方位映像VEとに基づいて視界映像を生成する。 (S104) The control computer 21 generates a visual field image based on the omnidirectional image VE and the line-of-sight direction by the omnidirectional image processing unit 215. At this time, the omnidirectional video processing unit 215 acquires the angle θ at which the operator OP rotates the head OPa from the line-of-sight information output from the line-of-sight detection device 222, and based on the above equation (1), the field of view Find the reference rotation angle η when generating the image. Then, the omnidirectional video processing unit 215 generates a visual field image based on the line-of-sight direction corresponding to the obtained rotation angle η and the omnidirectional image VE.

例えば、全方位映像処理部215は、図20に示すように、視線方向を基準に予め設定された視界範囲(例えば、視線方向を中心として上下方向に70°(角度φL)、左右方向に90°(角度φH)の範囲)に対応する映像を視界映像として全方位映像VEから切り出す。このとき、視界範囲の基準となる視線方向は回転角度ηに対応する。例えば、係数γが2の場合、オペレータOPが真横を向いているとき、回転角度ηに対応する視線方向は真後ろになり、オペレータOPの真後ろを基準とする視界範囲の視界映像が生成される。なお、視界映像の生成方法については、後段において、さらに説明する。 For example, as shown in FIG. 20, the omnidirectional image processing unit 215 has a viewing range preset with reference to the line-of-sight direction (for example, 70 ° (angle φ L ) in the vertical direction with the line-of-sight direction as the center, and in the horizontal direction. An image corresponding to 90 ° (angle φ H )) is cut out from the omnidirectional image VE as a field image. At this time, the line-of-sight direction, which is the reference of the field of view, corresponds to the rotation angle η. For example, when the coefficient γ is 2, when the operator OP is facing directly to the side, the line-of-sight direction corresponding to the rotation angle η is directly behind, and a field-of-view image in the field of view with reference to directly behind the operator OP is generated. The method of generating the visual field image will be further described later.

(S105)制御コンピュータ21は、視界映像及びメイン映像VMに基づいて出力映像を生成する。例えば、制御コンピュータ21は、全方位映像処理部215により、視界映像のVR映像を出力映像の一部として生成する。また、制御コンピュータ21は、メイン映像処理部214により、メイン映像VMのVR映像を出力映像の一部として生成する。そして、制御コンピュータ21は、出力映像をHMD22へと出力する。 (S105) The control computer 21 generates an output image based on the field of view image and the main image VM. For example, the control computer 21 generates a VR image of the field of view image as a part of the output image by the omnidirectional image processing unit 215. Further, the control computer 21 generates a VR image of the main image VM as a part of the output image by the main image processing unit 214. Then, the control computer 21 outputs the output video to the HMD 22.

なお、制御コンピュータ21は、映像表示デバイス221の第1の表示領域221aにメイン映像VMが表示され、第2の表示領域221bに視界映像が表示されるように、視界映像にメイン映像VMを重畳したPinP(Picture in Picture)映像を生成してもよい。この場合、制御コンピュータ21は、出力映像としてPinP映像のVR映像を生成し、生成したVR映像をHMD22へと出力する。 The control computer 21 superimposes the main image VM on the visual field image so that the main image VM is displayed in the first display area 221a of the image display device 221 and the visual field image is displayed in the second display area 221b. You may generate a PinP (Picture in Picture) image. In this case, the control computer 21 generates a VR image of the PinP image as an output image, and outputs the generated VR image to the HMD 22.

変形例として、制御コンピュータ21は、メイン映像VMを非VR映像のままHMD22へと出力し、一方で、視界映像についてはVR映像に変換してからHMD22へと出力してもよい。また、上述したPinP映像の生成処理や、上述したメイン映像VM、視界映像、PinP映像のVR映像への変換処理は、HMD22が実行してもよい。この場合、メイン映像VM、視界映像、或いは、PinP映像が、そのまま制御コンピュータ21からHMD22へと出力される。 As a modification, the control computer 21 may output the main video VM to the HMD 22 as it is as a non-VR video, while converting the visual field video into a VR video and then outputting it to the HMD 22. Further, the HMD 22 may execute the above-mentioned PinP image generation process and the above-mentioned main image VM, field view image, and PinP image conversion process to VR image. In this case, the main video VM, the field of view video, or the PinP video is output from the control computer 21 to the HMD 22 as it is.

(S106)映像表示デバイス221は、制御コンピュータ21から出力された出力映像を画面に表示する。例えば、映像表示デバイス221は、第1の表示領域221aにメイン映像VMを表示し、第2の表示領域221bに視界映像を表示する。なお、PinP映像が制御コンピュータ21から出力される場合、映像表示デバイス221は、PinP映像を画面に表示する。また、HMD22でVR映像への変換処理を実行する場合、映像表示デバイス221は、出力映像をVR映像に変換して表示する。 (S106) The video display device 221 displays the output video output from the control computer 21 on the screen. For example, the image display device 221 displays the main image VM in the first display area 221a and displays the field of view image in the second display area 221b. When the PinP image is output from the control computer 21, the image display device 221 displays the PinP image on the screen. Further, when the conversion process to the VR image is executed by the HMD 22, the image display device 221 converts the output image into the VR image and displays it.

(S107)オペレータOPにより撮影の終了が指示された場合、図19に示した一連の処理は終了する。一方、撮影が継続される場合、処理はS101へと進む。なお、図19に示した一連の処理のうち、S101〜S103の処理は並列に実行されてもよいし、実行の順番が入れ替えられてもよい。 (S107) When the operator OP instructs the end of shooting, the series of processes shown in FIG. 19 ends. On the other hand, if the shooting is continued, the process proceeds to S101. Of the series of processes shown in FIG. 19, the processes S101 to S103 may be executed in parallel, or the order of execution may be changed.

ここで、図20を参照しながら、上述した視界映像の生成方法(S104の処理)について、さらに説明する。図20は、第1実施形態に係る視界映像の生成方法について説明するための説明図である。 Here, with reference to FIG. 20, the above-described visual field image generation method (processing of S104) will be further described. FIG. 20 is an explanatory diagram for explaining a method of generating a visual field image according to the first embodiment.

上記のように、全方位映像処理部215は、視線検知デバイス222から出力される視線情報に基づいて全方位映像VEから視界映像を切り出す。図20に示すように、全方位映像VEは、視界カメラ12の位置を中心とする天球面30(仮想球面)に投影される映像とみなすことができる。天球面30の中心を原点とするXYZ座標系を設定し、Y軸を視線方向の基準となる正面、Z軸をオペレータOPの頭頂に設定すると、視線方向は、天球面30の一点(視線32)を指す単位ベクトルで表現されうる。 As described above, the omnidirectional video processing unit 215 cuts out the visual field image from the omnidirectional video VE based on the visual field information output from the visual field detection device 222. As shown in FIG. 20, the omnidirectional image VE can be regarded as an image projected on the celestial sphere 30 (virtual sphere) centered on the position of the field of view camera 12. When the XYZ coordinate system with the center of the celestial sphere 30 as the origin is set, the Y axis is set as the front surface as the reference of the line-of-sight direction, and the Z axis is set as the top of the operator OP, the line-of-sight direction is one point of the celestial sphere 30 (line of sight 32). ) Can be represented by a unit vector.

人間の視野は上側に約60°、下側に約70°、耳側に約100°であり、視線32の方向を見ているオペレータOPには、視線32の上側(+Zに向かう方向)に約70°、下側(−Zに向かう方向)に約60°、右側/左側(+X/−Xに向かう方向)に約100°の範囲が見える。そこで、視界範囲31を規定する角度φL、φHは、人間の視野に合わせて設定されうる(例えば、φL=130°、φH=200°)。 The human visual field is about 60 ° on the upper side, about 70 ° on the lower side, and about 100 ° on the ear side, and the operator OP looking in the direction of the line of sight 32 is on the upper side of the line of sight 32 (direction toward + Z). A range of about 70 °, about 60 ° on the lower side (direction toward −Z), and about 100 ° on the right / left side (direction toward + X / −X) can be seen. Therefore, the angles φ L and φ H that define the field of view 31 can be set according to the human visual field (for example, φ L = 130 °, φ H = 200 °).

但し、上記の視野は、中心視野と周辺視野とに大きく分けられる。人間は、中心視野に含まれる対象物については高い解像度で認識できる一方、周辺視野に含まれる対象物については低い解像度でしか認識できない。周辺視野は、何かに焦点を合わせる前に、第一印象や全体像をつかむためにあると言われている。中心視野のうち、左右それぞれに約30°の範囲については色や記号を人が認識できると言われている。 However, the above-mentioned visual field can be roughly divided into a central visual field and a peripheral visual field. Humans can recognize objects in the central visual field at a high resolution, while humans can only recognize objects in the peripheral visual field at a low resolution. Peripheral vision is said to be there to get a first impression or a big picture before focusing on something. It is said that humans can recognize colors and symbols in the range of about 30 ° on each of the left and right sides of the central visual field.

映像表示デバイス221に表示される視界映像は高い解像度で表示される。そのため、上記のような人間の視野特性を考慮すると、視界範囲31は、φH(水平視野の安定注視野に相当)が60°〜90°、φL(垂直視野の安定注視野に相当)が45°〜70°の範囲に設定するのが好適である。例えば、視界範囲31は、φHが90°、φLが70°の範囲に設定される。このように設定することで違和感の低減が期待される。 The field of view image displayed on the image display device 221 is displayed at a high resolution. Therefore, considering the above-mentioned human visual field characteristics, the visual field range 31 has φ H (corresponding to a stable gazing field in a horizontal field of view) of 60 ° to 90 ° and φ L (corresponding to a stable gazing field in a vertical field of view). Is preferably set in the range of 45 ° to 70 °. For example, the field of view 31 is set in a range where φ H is 90 ° and φ L is 70 °. It is expected that the discomfort will be reduced by setting in this way.

(操作時の制御)
次に、図21を参照しながら、操作時の制御方法について、具体的な処理の流れを説明する。図21は、第1実施形態に係るリモートカメラシステムにおいて、操作デバイスによる操作が行われた時に実行される制御について説明するためのフロー図である。以下では、説明の都合上、図12に示した操作デバイス23をオペレータOPが操作することを前提に説明を進める。
(Control during operation)
Next, with reference to FIG. 21, a specific processing flow will be described with respect to the control method at the time of operation. FIG. 21 is a flow chart for explaining the control executed when the operation by the operating device is performed in the remote camera system according to the first embodiment. In the following, for convenience of explanation, the description will proceed on the assumption that the operator OP operates the operation device 23 shown in FIG.

(S111)オペレータOPによる操作デバイス23の操作が行われる(コントローラ入力)。図12に例示した操作デバイス23を利用する場合、コントローラ入力により、メインカメラ11に対する操作(CAM)、ロボットアーム13に対する操作(ARM)、ベース14に対する操作(BASE)、正面の設定(SET)、視界映像のワイドビュー表示(WV)が指示されうる。また、詳細な説明を省略するが、操作領域D3への操作によりカメラの切り替えも指示されうる。 (S111) The operation device 23 is operated by the operator OP (controller input). When the operation device 23 illustrated in FIG. 12 is used, the operation on the main camera 11 (CAM), the operation on the robot arm 13 (ARM), the operation on the base 14 (BASE), and the front setting (SET) are performed by the controller input. Wide view display (WV) of the field of view image can be indicated. Further, although detailed description is omitted, switching of the camera may be instructed by operating the operation area D3.

(S112)ボタンオブジェクトD1が押下されて正面の設定(SET)が指示されると、制御コンピュータ21から視線検知デバイス222へとSET指示を示す指示信号が入力される。この指示信号に応じて、視線検知デバイス222は、現在のオペレータOPの顔の向き(視線方向に相当)を基準方向(正面)に設定する。正面の設定後、視線検知デバイス222は、モーションセンサの出力に基づいて、正面を基準に視線方向を検知し、検知結果を示す視線情報を制御コンピュータ21へと出力する。S112の処理が完了すると、処理はS111へと進む。 (S112) When the button object D1 is pressed and the front setting (SET) is instructed, an instruction signal indicating the SET instruction is input from the control computer 21 to the line-of-sight detection device 222. In response to this instruction signal, the line-of-sight detection device 222 sets the face orientation (corresponding to the line-of-sight direction) of the current operator OP to the reference direction (front). After setting the front surface, the line-of-sight detection device 222 detects the line-of-sight direction with reference to the front surface based on the output of the motion sensor, and outputs the line-of-sight information indicating the detection result to the control computer 21. When the processing of S112 is completed, the processing proceeds to S111.

(S113)ボタンオブジェクトD2が押下されてワイドビュー表示(WV)が指示されると、全方位映像処理部215は視界範囲31を拡大する。例えば、全方位映像処理部215は、視界範囲31が周辺視野まで拡大されるように、φLを130°(上側60°、下側70°)、φHを200°(左右それぞれ100°)に変更する。これにより視界映像に映る範囲が広がり、オペレータOPは、スタジオ内の様子を、より広範囲に見渡すことができるようになる。 (S113) When the button object D2 is pressed and the wide view display (WV) is instructed, the omnidirectional video processing unit 215 expands the field of view 31. For example, the omnidirectional video processing unit 215 sets φ L to 130 ° (upper 60 °, lower 70 °) and φ H to 200 ° (100 ° each on the left and right) so that the field of view 31 is expanded to the peripheral visual field. Change to. As a result, the range reflected in the field of view image is expanded, and the operator OP can see the situation in the studio in a wider range.

なお、視界範囲31が拡大されている状態でボタンオブジェクトD2が押下された場合、全方位映像処理部215は、ワードビュー表示をキャンセルし、視界範囲31を元の範囲に戻す。S113の処理が完了すると、処理はS111へと進む。 When the button object D2 is pressed while the field of view 31 is expanded, the omnidirectional video processing unit 215 cancels the word view display and returns the field of view 31 to the original range. When the process of S113 is completed, the process proceeds to S111.

(S114、S115)操作領域B1、B2のオブジェクトが操作されてベース14の移動が指示されると、ベース制御部211は、指示された移動内容をベース14に伝達するための制御信号を生成し、その制御信号をロボットカメラ10の制御デバイス15へと伝送する。その制御信号を受信した制御デバイス15は、受信した制御信号に従ってベース14を移動させる。S115の処理が完了すると、処理はS111へと進む。 (S114, S115) When the objects in the operation areas B1 and B2 are operated and the movement of the base 14 is instructed, the base control unit 211 generates a control signal for transmitting the instructed movement content to the base 14. , The control signal is transmitted to the control device 15 of the robot camera 10. The control device 15 that has received the control signal moves the base 14 according to the received control signal. When the process of S115 is completed, the process proceeds to S111.

(S116、S117)操作領域C1、C2のオブジェクトが操作されると、カメラ制御部213は、オブジェクトの操作に対応するカメラ設定の変更内容を示す制御信号を生成し、その制御信号を直接又はロボットカメラ10の制御デバイス15を介して、メインカメラ11へと伝送する。その制御信号を受信したメインカメラ11は、受信した制御信号に従ってカメラ設定(例えば、焦点距離、フォーカス位置)を変更する。S117の処理が完了すると、処理はS111へと進む。 (S116, S117) When the objects in the operation areas C1 and C2 are operated, the camera control unit 213 generates a control signal indicating the change contents of the camera settings corresponding to the operation of the objects, and the control signals are directly or robots. It is transmitted to the main camera 11 via the control device 15 of the camera 10. The main camera 11 that has received the control signal changes the camera settings (for example, focal length, focus position) according to the received control signal. When the process of S117 is completed, the process proceeds to S111.

(S118、S119)操作領域A1、A2、A3のオブジェクトが操作されると、アーム制御部212は、オブジェクトの操作に応じたメインカメラ11の位置又は向きを特定し、メインカメラ11の位置又は向きに対応するロボットアーム13の制御内容を決定する。そして、アーム制御部212は、決定した制御内容を示す制御信号を生成する。 (S118, S119) When the objects in the operation areas A1, A2, and A3 are operated, the arm control unit 212 specifies the position or orientation of the main camera 11 according to the operation of the objects, and the position or orientation of the main camera 11. The control content of the robot arm 13 corresponding to the above is determined. Then, the arm control unit 212 generates a control signal indicating the determined control content.

例えば、メインカメラ11をパン又はチルトする制御(パンチルト制御)についての操作が行われると、アーム制御部212は、操作内容に基づいてロボットアーム13の関節部を動かすモータの回転角を求め、求めた回転角のセットを示す制御信号を生成する。 For example, when an operation for controlling panning or tilting the main camera 11 (pan / tilt control) is performed, the arm control unit 212 obtains and obtains the rotation angle of the motor that moves the joint portion of the robot arm 13 based on the operation content. Generates a control signal indicating a set of rotation angles.

また、メインカメラ11の位置を上下左右に移動する制御(本体制御)についての操作が行われると、アーム制御部212は、移動後の位置に基づいて、ロボットアーム13の関節部を動かすモータの回転角を求め、求めた回転角のセットを示す制御信号を生成する。 Further, when an operation for controlling the position of the main camera 11 to move up / down / left / right (main body control) is performed, the arm control unit 212 is a motor that moves the joint portion of the robot arm 13 based on the position after the movement. The rotation angle is obtained, and a control signal indicating the obtained set of rotation angles is generated.

上記のようにしてアーム制御部212により生成された制御信号は、ロボットカメラ10の制御デバイス15へと伝送される。その制御信号を受信した制御デバイス15は、受信した制御信号に従ってロボットアーム13の関節部を動かすモータの回転角を制御してメインカメラ11の位置又は向きを変更する。S119の処理が完了すると、処理はS120へと進む。 The control signal generated by the arm control unit 212 as described above is transmitted to the control device 15 of the robot camera 10. The control device 15 that has received the control signal changes the position or orientation of the main camera 11 by controlling the rotation angle of the motor that moves the joint portion of the robot arm 13 according to the received control signal. When the process of S119 is completed, the process proceeds to S120.

(S120)全方位映像処理部215は、メインカメラ11の高さH及びチルト角λTに基づいて、視界映像の生成に利用する視線方向を補正する。 (S120) The omnidirectional image processing unit 215 corrects the line-of-sight direction used for generating the field-of-view image based on the height H and the tilt angle λ T of the main camera 11.

実際にカメラを操作して撮影を行うカメラマンは、カメラをチルトさせた場合でも、自らの視線をチルト角の分だけ傾けて固定することは多くないだろう。通常、カメラマンは、ある程度、撮影姿勢を維持した状態でファインダやカメラ周囲の環境を見ている。そのため、メインカメラ11のチルトに追従して視界カメラ12の姿勢が変わると、視界カメラ12の正面方向とカメラマン目線との間にズレが生じて違和感の原因になりうる。 Photographers who actually operate the camera to shoot will not often fix their line of sight by tilting it by the tilt angle, even if the camera is tilted. Normally, the photographer looks at the finder and the environment around the camera while maintaining the shooting posture to some extent. Therefore, if the posture of the visual field camera 12 changes following the tilt of the main camera 11, a deviation may occur between the front direction of the visual field camera 12 and the line of sight of the cameraman, which may cause a sense of discomfort.

上記の違和感を取り除くために、全方位映像処理部215は、視線検知デバイス222により検知された視線方向をチルト角λTの分だけ逆方向に補正する(以下、水平補正)。つまり、全方位映像処理部215は、チルトを戻す方向に視線方向を角度−λTだけ傾けて視線方向を水平面内に維持する(図22の視線方向E2を参照)。図22は、第1実施形態に係る視線補正の方法について説明するための説明図である。これにより、オペレータOPが感じる違和感の低減が期待される。 In order to remove the above-mentioned discomfort, the omnidirectional video processing unit 215 corrects the line-of-sight direction detected by the line-of-sight detection device 222 in the opposite direction by the tilt angle λ T (hereinafter, horizontal correction). That is, the omnidirectional video processing unit 215 tilts the line-of-sight direction by an angle −λ T in the direction of returning the tilt to maintain the line-of-sight direction in the horizontal plane (see the line-of-sight direction E 2 in FIG. 22). FIG. 22 is an explanatory diagram for explaining the method of line-of-sight correction according to the first embodiment. This is expected to reduce the discomfort felt by the operator OP.

ロボットカメラ10では、メインカメラ11の位置がオペレータOPの頭部より高い位置にセットされる場合がある。例えば、スタジオの天井に近い位置から俯瞰的な映像を撮影したい場合、アーム部の長さが長いロボットアーム13や、アーム部の数が多いロボットアーム13を搭載するロボットカメラ10を利用するケースが想定されうる。メインカメラ11の位置がスタジオの天井付近にあるときに上記の水平補正を適用すると、オペレータOPがかなり下を向かないと、天井付近の構造物ばかりが見えることになる。 In the robot camera 10, the position of the main camera 11 may be set higher than the head of the operator OP. For example, when it is desired to take a bird's-eye view image from a position close to the ceiling of a studio, there is a case where a robot arm 13 having a long arm portion or a robot camera 10 equipped with a robot arm 13 having a large number of arm portions is used. It can be assumed. If the above horizontal correction is applied when the position of the main camera 11 is near the ceiling of the studio, only the structures near the ceiling can be seen unless the operator OP faces downward considerably.

そのため、全方位映像処理部215は、メインカメラ11の高さHが所定の閾値(Hth)より大きい場合に視線方向を下方に傾ける(以下、下向き補正)。閾値Hthは、例えば、オペレータOPが直立したときの目の高さに設定されてもよく、オペレータOPにより事前に設定されてもよいし、予め制御コンピュータ21に登録された値(例えば、平均身長に基づく目の高さなど)が利用されてもよい。 Therefore, the omnidirectional video processing unit 215 tilts the line-of-sight direction downward when the height H of the main camera 11 is larger than a predetermined threshold value (H th ) (hereinafter, downward correction). The threshold value H th may be set to, for example, the height of the eyes when the operator OP stands upright, may be preset by the operator OP, or may be a value registered in advance in the control computer 21 (for example, the average). (Eye height based on height, etc.) may be used.

メインカメラ11の高さHは、ロボットカメラ10が載置される床面からメインカメラ11までの距離を評価するためのパラメータである。例えば、高さHは、床面からメインカメラ11の中心までの距離(カメラ基準の距離)であってもよいし、床面からロボットアーム13の関節部13aまでの距離(アーム基準の距離)であってもよい。以下の説明では、アーム基準の距離を採用する場合(図22の場合)を例に説明を進める。 The height H of the main camera 11 is a parameter for evaluating the distance from the floor surface on which the robot camera 10 is placed to the main camera 11. For example, the height H may be the distance from the floor surface to the center of the main camera 11 (camera reference distance), or the distance from the floor surface to the joint portion 13a of the robot arm 13 (arm reference distance). It may be. In the following description, a case where the arm-based distance is adopted (in the case of FIG. 22) will be described as an example.

全方位映像処理部215は、高さHと閾値Hthとの差に応じて補正角λMを制御する。例えば、補正角λMは、下記の式(2)により与えられる。但し、αは比例係数であり、実験やシミュレーションの結果に基づいて事前に設定される。全方位映像処理部215は、例えば、高さHが閾値Hth未満の場合に補正角λMを0に維持し、高さHが閾値Hth以上の場合に補正角λMを下記の式(2)に基づいて決定する。 The omnidirectional video processing unit 215 controls the correction angle λ M according to the difference between the height H and the threshold value H th . For example, the correction angle λ M is given by the following equation (2). However, α is a proportional coefficient and is set in advance based on the results of experiments and simulations. Omnidirectional video processing unit 215, for example, to maintain the correct angle lambda M to 0 when the height H is less than the threshold H th, the correction angle lambda M below when the height H is equal to or larger than the threshold H th formula Determined based on (2).

λM=α×|H−Hth| …(2) λ M = α × | H-H th | ... (2)

S120の処理が完了すると、処理はS111へと進む。なお、上記の水平補正及び下向き補正に関するS120の処理は省略されてもよい。この場合、カメラマンがメインカメラ11の向きに追従して視線を向けている状態での視界映像が提供される。 When the processing of S120 is completed, the processing proceeds to S111. The processing of S120 regarding the above horizontal correction and downward correction may be omitted. In this case, a field of view image is provided in a state where the cameraman follows the direction of the main camera 11 and directs the line of sight.

(視界映像の生成方法)
次に、図23を参照しながら、上記の水平補正及び下向き補正を含む視界映像の生成方法における処理の流れについて説明する。図23は、第1実施形態に係る視界映像の生成方法における処理の流れについて説明するためのフロー図である。
(How to generate a visual field image)
Next, with reference to FIG. 23, the flow of processing in the method of generating a visual field image including the above horizontal correction and downward correction will be described. FIG. 23 is a flow chart for explaining the flow of processing in the method of generating the visual field image according to the first embodiment.

(S131)全方位映像処理部215は、現在のチルト角λTを取得する。 (S131) The omnidirectional video processing unit 215 acquires the current tilt angle λ T.

例えば、操作デバイス23によりメインカメラ11をチルトさせる操作(操作領域A2に対する操作)が行われたとき、チルト角λTの情報が操作デバイス23から全方位映像処理部215に入力されてもよい。この場合、全方位映像処理部215は、チルト角λTの情報をメモリ21bに保持し、操作デバイス23から入力されるチルト角λTにより、保持しているチルト角λTの情報を更新する。これにより、全方位映像処理部215は、現在のチルト角λTをメモリ21bから取得することができる。 For example, when the operation device 23 tilts the main camera 11 (operation for the operation area A2), the information of the tilt angle λ T may be input from the operation device 23 to the omnidirectional video processing unit 215. In this case, the omnidirectional image processing unit 215 holds information of the tilt angle lambda T in the memory 21b, the tilt angles lambda T inputted from the operation device 23, and updates the information of the tilt angle lambda T held .. As a result, the omnidirectional video processing unit 215 can acquire the current tilt angle λ T from the memory 21b.

変形例として、操作デバイス23がチルト角λTの情報を保持している場合、全方位映像処理部215は、操作デバイス23から、現在のチルト角λTを取得してもよい。また、アーム制御部212が操作デバイス23から得たチルト角λTの情報をメモリ21bに格納し、全方位映像処理部215がメモリ21bからチルト角λTの情報を読み出すように変形してもよい。 As a modification, when the operating device 23 holds the information of the tilt angle λ T , the omnidirectional video processing unit 215 may acquire the current tilt angle λ T from the operating device 23. Further, even if the arm control unit 212 stores the information of the tilt angle λ T obtained from the operation device 23 in the memory 21b and the omnidirectional video processing unit 215 is deformed to read the information of the tilt angle λ T from the memory 21b. Good.

(S132)全方位映像処理部215は、取得した現在のチルト角λTに基づいて水平補正(図22の視線方向E2を参照)を実施する。例えば、図20に示したように正面をY軸、オペレータOPの頭頂方向をZ軸に設定したとき、水平補正は、X軸を回転軸として回転角−λTだけY−Z平面を回転させる補正に相当する。 (S132) The omnidirectional video processing unit 215 performs horizontal correction (see the line-of-sight direction E 2 in FIG. 22) based on the acquired current tilt angle λ T. For example, when the front surface is set to the Y axis and the crown direction of the operator OP is set to the Z axis as shown in FIG. 20, the horizontal correction rotates the YZ plane by the rotation angle −λ T with the X axis as the rotation axis. Corresponds to correction.

(S133)全方位映像処理部215は、メインカメラ11の高さH(この例ではアーム基準の距離)と閾値Hthとを比較する。そして、全方位映像処理部215は、高さHが閾値Hth以上であるか否かを判定する。高さHが閾値Hth以上である場合、処理はS134へと進む。一方、高さHが閾値Hth未満である場合、処理はS136へと進む。 (S133) The omnidirectional video processing unit 215 compares the height H of the main camera 11 (distance with respect to the arm in this example) and the threshold value H th . Then, the omnidirectional video processing unit 215 determines whether or not the height H is equal to or greater than the threshold value H th . If the height H is equal to or greater than the threshold value H th , the process proceeds to S134. On the other hand, when the height H is less than the threshold value H th , the process proceeds to S136.

(S134、S135)全方位映像処理部215は、高さHと閾値Hthとの差に基づいて補正角λMを計算する。例えば、全方位映像処理部215は、上記の式(2)に基づいて補正角λMを計算する。また、全方位映像処理部215は、補正角λMに基づいて下向き補正(図22の視線方向E1を参照)を実施する。図20の設定に従うと、下向き補正は、X軸を回転軸として補正角λMだけY−Z平面を回転させる補正に相当する。 (S134, S135) The omnidirectional video processing unit 215 calculates the correction angle λ M based on the difference between the height H and the threshold value H th . For example, the omnidirectional video processing unit 215 calculates the correction angle λ M based on the above equation (2). Further, the omnidirectional video processing unit 215 performs downward correction (see the line-of-sight direction E 1 in FIG. 22) based on the correction angle λ M. According to the setting of FIG. 20, the downward correction corresponds to the correction of rotating the YZ plane by the correction angle λ M with the X axis as the rotation axis.

(S136)全方位映像処理部215は、視線方向の視界範囲31を全方位映像VEから切り出し、切り出した映像を視界映像として出力する。上記の水平補正、或いは、上記の水平補正及び下向き補正により正面(図20のY軸方向)が変更されている場合、変更後のY軸を基準とするXYZ空間に対して、視線検知デバイス222から出力される視線方向が適用され、その視線方向を基準に視界映像が切り出される。その結果、上記の補正が適用された視界映像が得られる。 (S136) The omnidirectional video processing unit 215 cuts out the field of view range 31 in the line-of-sight direction from the omnidirectional video VE, and outputs the cut-out video as a field of view video. When the front surface (Y-axis direction in FIG. 20) is changed by the above horizontal correction, or the above horizontal correction and downward correction, the line-of-sight detection device 222 with respect to the XYZ space based on the changed Y axis. The line-of-sight direction output from is applied, and the field-of-view image is cut out based on the line-of-sight direction. As a result, a visual field image to which the above correction is applied is obtained.

S136の処理が完了すると、図23に示した一連の処理は終了する。 When the process of S136 is completed, the series of processes shown in FIG. 23 is completed.

[1−5.その他]
上記の説明では、HMD22に視線検知デバイス222を搭載する方法を示したが、オペレータOPの視線方向を検知するデバイスをHMD22の外部に設けてもよい。例えば、オペレータOPの頭部を撮影する撮像デバイスを設け、その撮像デバイスから出力される映像を解析してオペレータOPの視線方向を検知してもよい。映像の解析には、任意の物体認識技術及び視線トラッキング技術が適用されてもよい。
[1-5. Others]
In the above description, the method of mounting the line-of-sight detection device 222 on the HMD 22 has been shown, but a device that detects the line-of-sight direction of the operator OP may be provided outside the HMD 22. For example, an imaging device for photographing the head of the operator OP may be provided, and the image output from the imaging device may be analyzed to detect the line-of-sight direction of the operator OP. Any object recognition technique and line-of-sight tracking technique may be applied to the analysis of the image.

また、上記の説明では、視界カメラ12をメインカメラ11又はロボットアーム13に設置する方法を示したが、カメラマンが見るであろうスタジオ内の所定領域(例えば、ロボットカメラ10の周囲)又はスタジオ全域を撮影する複数台の撮像デバイスをスタジオ内に設置し、全方位映像VEに相当する映像群を全方位映像VEの代わりに取得するように変形してもよい。この場合、全方位映像処理部215は、スタジオ内の撮像デバイスから出力される映像群の中から、オペレータOPの視線方向を基準に視界範囲の映像(視界映像)を切り出す。 Further, in the above description, the method of installing the view camera 12 on the main camera 11 or the robot arm 13 has been shown, but a predetermined area in the studio (for example, around the robot camera 10) or the entire studio that the photographer will see. A plurality of imaging devices for photographing the image may be installed in the studio and modified so as to acquire a group of images corresponding to the omnidirectional image VE instead of the omnidirectional image VE. In this case, the omnidirectional video processing unit 215 cuts out a video in the field of view (field of view video) from the video group output from the imaging device in the studio with reference to the line-of-sight direction of the operator OP.

また、上記の説明では、HMD22を利用する方法を示したが、映像表示デバイス221、及び視線検知デバイス222をHMD22以外のデバイスで実装してもよい。例えば、映像表示デバイス221をディスプレイ装置、視線検知デバイス222をウェアラブルデバイスのモーションセンサや上記の撮像デバイスで実装してもよい。 Further, in the above description, the method of using the HMD 22 is shown, but the video display device 221 and the line-of-sight detection device 222 may be mounted on a device other than the HMD 22. For example, the image display device 221 may be mounted on a display device, and the line-of-sight detection device 222 may be mounted on a motion sensor of a wearable device or the above-mentioned imaging device.

(ロボットカメラの変形例)
次に、図24及び図25を参照しながら、ロボットカメラ10の変形例について説明する。図24は、第1実施形態に係るロボットカメラの変形例について説明するための第1の模式図である。図25は、第1実施形態に係るロボットカメラの変形例について説明するための第2の模式図である。
(Modification example of robot camera)
Next, a modified example of the robot camera 10 will be described with reference to FIGS. 24 and 25. FIG. 24 is a first schematic diagram for explaining a modified example of the robot camera according to the first embodiment. FIG. 25 is a second schematic diagram for explaining a modified example of the robot camera according to the first embodiment.

上記の説明では、ロボットアーム13を搭載したロボットカメラ10について説明してきたが、例えば、チルト機構132a、パン機構132b、及び昇降機構132cを含む図24に示すようなペデスタル132をロボットカメラ10に適用してもよい。ペデスタル132を適用する場合、チルト機構132a及びパン機構132bによりメインカメラ11のパンチルト制御が行われ、昇降機構132cによりメインカメラ11の高さが制御される。なお、ベース14の動作については上述した通りである。 In the above description, the robot camera 10 equipped with the robot arm 13 has been described. For example, a pedestal 132 as shown in FIG. 24 including a tilt mechanism 132a, a pan mechanism 132b, and an elevating mechanism 132c is applied to the robot camera 10. You may. When the pedestal 132 is applied, the tilt mechanism 132a and the pan mechanism 132b perform pan-tilt control of the main camera 11, and the elevating mechanism 132c controls the height of the main camera 11. The operation of the base 14 is as described above.

また、雲台133a、アーム133b、及びコントローラ133cを含む図25に示すようなクレーン133をロボットカメラ10に適用してもよい。クレーン133を適用する場合、コントローラ133c付近にあるパン棒、及びコントローラ133cによりリモート制御される雲台133aによりメインカメラ11のパンチルト制御が行われる。なお、図25の例では視界カメラ12がコントローラ133cに設置されているが、メインカメラ11、雲台133a、又はアーム133bに設置されてもよい。また、ベース14の動作については上述した通りである。 Further, a crane 133 as shown in FIG. 25 including a pan head 133a, an arm 133b, and a controller 133c may be applied to the robot camera 10. When the crane 133 is applied, the pan / tilt control of the main camera 11 is performed by the pan bar near the controller 133c and the pan head 133a remotely controlled by the controller 133c. In the example of FIG. 25, the field of view camera 12 is installed in the controller 133c, but it may be installed in the main camera 11, the pan head 133a, or the arm 133b. The operation of the base 14 is as described above.

これまで様々な変形例について説明してきたが、それらの変形例についても当然に第1実施形態の技術的範囲に属する。 Although various modifications have been described so far, these modifications also naturally belong to the technical scope of the first embodiment.

<第2実施形態>
次に、本開示の第2実施形態について説明する。第2実施形態は、第1実施形態に係るロボットカメラ10を三次元(3D)シミュレーションにより再現し、仮想空間内に再現されたロボットカメラ10相当の機材をコントロールシステム20で制御するバーチャルカメラワークシステムに関する。
<Second Embodiment>
Next, a second embodiment of the present disclosure will be described. The second embodiment is a virtual camera work system in which the robot camera 10 according to the first embodiment is reproduced by a three-dimensional (3D) simulation, and the equipment equivalent to the robot camera 10 reproduced in the virtual space is controlled by the control system 20. Regarding.

以下の説明では、重複説明を避けるため、第1実施形態と実質的に同じ機能を有する要素については同じ符号を付することにより詳細な説明を省略する場合がある。 In the following description, in order to avoid duplicate description, detailed description may be omitted by assigning the same reference numerals to elements having substantially the same function as that of the first embodiment.

[2−1.バーチャルカメラワークシステム]
図26を参照しながら、第2実施形態に係るバーチャルカメラワークシステムについて説明する。図26は、第2実施形態に係るバーチャルカメラワークシステムに含まれる装置の例について説明するためのブロック図である。
[2-1. Virtual camera work system]
The virtual camera work system according to the second embodiment will be described with reference to FIG. 26. FIG. 26 is a block diagram for explaining an example of the device included in the virtual camera work system according to the second embodiment.

図26に示すように、第2実施形態に係るバーチャルカメラワークシステムは、3Dシミュレータ40と、コントロールシステム20とを含む。なお、コントロールシステム20は、第1実施形態に係るコントロールシステム20と実質的に同じ機能を有する。また、3Dシミュレータ40と、コントロールシステム20の制御コンピュータ21とは同じ1台のコンピュータ又は同じコンピュータシステム(例えば、分散コンピューティングシステム)により実装されうる。 As shown in FIG. 26, the virtual camera work system according to the second embodiment includes a 3D simulator 40 and a control system 20. The control system 20 has substantially the same function as the control system 20 according to the first embodiment. Further, the 3D simulator 40 and the control computer 21 of the control system 20 may be implemented by the same computer or the same computer system (for example, a distributed computing system).

3Dシミュレータ40は、3Dシミュレーションにより、図9に示したようなスタジオ内の環境を仮想空間内に再現し、仮想空間内の3Dオブジェクトとして、メインカメラ41、視界カメラ42、ロボットアーム43、及びベース44を再現する。 The 3D simulator 40 reproduces the environment in the studio as shown in FIG. 9 in the virtual space by 3D simulation, and as 3D objects in the virtual space, the main camera 41, the field of view camera 42, the robot arm 43, and the base. Reproduce 44.

メインカメラ41は、第1実施形態に係るメインカメラ11の構造及び機能を再現した3Dオブジェクトである。視界カメラ42は、第1実施形態に係る視界カメラ12の構造及び機能を再現した3Dオブジェクトである。ロボットアーム43は、第1実施形態に係るロボットアーム13の構造及び機能を再現した3Dオブジェクトである。ベース44は、第1実施形態に係るベース14の構造及び機能を再現した3Dオブジェクトである。 The main camera 41 is a 3D object that reproduces the structure and function of the main camera 11 according to the first embodiment. The field of view camera 42 is a 3D object that reproduces the structure and function of the field of view camera 12 according to the first embodiment. The robot arm 43 is a 3D object that reproduces the structure and function of the robot arm 13 according to the first embodiment. The base 44 is a 3D object that reproduces the structure and function of the base 14 according to the first embodiment.

メインカメラ41、視界カメラ42、ロボットアーム43、及びベース44の動きは、3Dシミュレータ40を介して制御コンピュータ21により制御される。3Dシミュレータ40は、3Dシミュレーションにより、メインカメラ41から出力されるメイン映像VM、及び視界カメラ12から出力される全方位映像VEを生成し、生成したメイン映像VM及び全方位映像VEを制御コンピュータ21へと出力する。 The movements of the main camera 41, the field of view camera 42, the robot arm 43, and the base 44 are controlled by the control computer 21 via the 3D simulator 40. The 3D simulator 40 generates a main video VM output from the main camera 41 and an omnidirectional video VE output from the field of view camera 12 by 3D simulation, and controls the generated main video VM and omnidirectional video VE 21. Output to.

ここで、図27を参照しながら、制御コンピュータ21及び3Dシミュレータ40の機能について、さらに説明する。図27は、第2実施形態に係る制御コンピュータ及び3Dシミュレータが有する機能の例について説明するためのブロック図である。 Here, the functions of the control computer 21 and the 3D simulator 40 will be further described with reference to FIG. 27. FIG. 27 is a block diagram for explaining an example of the functions of the control computer and the 3D simulator according to the second embodiment.

図27に示すように、3Dシミュレータ40は、視界カメラ再現部401、メインカメラ再現部402、アーム再現部403、ベース再現部404、及びスタジオ再現部405を有する。なお、視界カメラ再現部401、メインカメラ再現部402、アーム再現部403、ベース再現部404、及びスタジオ再現部405の機能は、上述したプロセッサ21a及びメモリ21bにより実現可能である。 As shown in FIG. 27, the 3D simulator 40 has a field of view camera reproduction unit 401, a main camera reproduction unit 402, an arm reproduction unit 403, a base reproduction unit 404, and a studio reproduction unit 405. The functions of the field of view camera reproduction unit 401, the main camera reproduction unit 402, the arm reproduction unit 403, the base reproduction unit 404, and the studio reproduction unit 405 can be realized by the processor 21a and the memory 21b described above.

視界カメラ再現部401は、第1実施形態の視界カメラ12を再現した視界カメラ42を仮想空間内に生成し、視界カメラ42の動作を制御し、視界カメラ42から出力される全方位映像VEを生成する。メインカメラ再現部402は、第1実施形態のメインカメラ11を再現したメインカメラ41を仮想空間内に生成し、メインカメラ41の動作を制御し、メインカメラ41から出力されるメイン映像VMを生成する。 The field-of-view camera reproduction unit 401 generates a field-of-view camera 42 that reproduces the field-of-view camera 12 of the first embodiment in a virtual space, controls the operation of the field-of-view camera 42, and generates an omnidirectional image VE output from the field-of-view camera 42. Generate. The main camera reproduction unit 402 generates a main camera 41 that reproduces the main camera 11 of the first embodiment in a virtual space, controls the operation of the main camera 41, and generates a main video VM output from the main camera 41. To do.

アーム再現部403は、第1実施形態のロボットアーム13を再現したロボットアーム43を仮想空間内に生成し、ロボットアーム43の動作を制御する。ベース再現部404は、第1実施形態のベース14を再現したベース44を仮想空間内に生成し、ベース44の動作を制御する。なお、ロボットアーム43及びベース44の動作は、メインカメラ41の位置及び向きの変化としてシミュレーション結果(メインカメラ再現部402で生成されるメイン映像VM、全方位映像VE)に反映される。 The arm reproduction unit 403 generates a robot arm 43 that reproduces the robot arm 13 of the first embodiment in the virtual space, and controls the operation of the robot arm 43. The base reproduction unit 404 generates a base 44 that reproduces the base 14 of the first embodiment in the virtual space, and controls the operation of the base 44. The movements of the robot arm 43 and the base 44 are reflected in the simulation results (main image VM generated by the main camera reproduction unit 402, omnidirectional image VE) as changes in the position and orientation of the main camera 41.

スタジオ再現部405は、仮想空間内にスタジオの環境を再現する。例えば、図9に例示したスタジオの環境を再現する場合、スタジオ再現部405は、仮想空間内にスタジオセットSS、表示モニタM、出演者m1、m2、m3…、ロボットカメラCAM#2を再現する。なお、ロボットカメラCAM#2への切り替え操作(例えば、図12の操作領域D3に対する操作)が行われたとき、視界カメラ再現部401、メインカメラ再現部402、アーム再現部403、ベース再現部404、スタジオ再現部405がロボットカメラCAM#2の動作制御及び出力映像の生成を担当する。 The studio reproduction unit 405 reproduces the studio environment in the virtual space. For example, when reproducing the studio environment illustrated in FIG. 9, the studio reproduction unit 405 reproduces the studio set SS, the display monitor M, the performers m1, m2, m3 ..., The robot camera CAM # 2 in the virtual space. .. When the operation for switching to the robot camera CAM # 2 (for example, the operation for the operation area D3 in FIG. 12) is performed, the field of view camera reproduction unit 401, the main camera reproduction unit 402, the arm reproduction unit 403, and the base reproduction unit 404 , Studio reproduction unit 405 is in charge of operation control of robot camera CAM # 2 and generation of output video.

制御コンピュータ21が有するベース制御部211、アーム制御部212、カメラ制御部213、メイン映像処理部214、及び全方位映像処理部215の機能は、第1実施形態と実質的に同じである。但し、ベース制御部211、アーム制御部212、カメラ制御部213、メイン映像処理部214、及び全方位映像処理部215は、それぞれ、ベース再現部404、アーム再現部403、メインカメラ再現部402、及び視界カメラ再現部401に制御信号を入力する。HMD22及び操作デバイス23が有する機能も第1実施形態と実質的に同じである。 The functions of the base control unit 211, the arm control unit 212, the camera control unit 213, the main video processing unit 214, and the omnidirectional video processing unit 215 included in the control computer 21 are substantially the same as those of the first embodiment. However, the base control unit 211, the arm control unit 212, the camera control unit 213, the main video processing unit 214, and the omnidirectional video processing unit 215 are the base reproduction unit 404, the arm reproduction unit 403, and the main camera reproduction unit 402, respectively. And the control signal is input to the field of view camera reproduction unit 401. The functions of the HMD 22 and the operation device 23 are also substantially the same as those of the first embodiment.

[2−2.処理フロー]
次に、図28を参照しながら、バーチャルカメラワークシステムによる処理の流れについて説明する。図28は、第2実施形態に係るバーチャルカメラワークシステムによる撮影時の処理(映像出力方法)について説明するためのフロー図である。なお、撮影が開始される時点でスタジオ再現部405によりスタジオの環境が仮想空間内に再現されていることを前提に説明を進める。
[2-2. Processing flow]
Next, the flow of processing by the virtual camera work system will be described with reference to FIG. 28. FIG. 28 is a flow chart for explaining a process (video output method) at the time of shooting by the virtual camera work system according to the second embodiment. The explanation will proceed on the assumption that the studio environment is reproduced in the virtual space by the studio reproduction unit 405 when the shooting is started.

(S201)撮影が開始されると、3Dシミュレータ40が再現するメインカメラ41からメイン映像VMが出力され、コントロールシステム20の制御コンピュータ21に入力される。つまり、メインカメラ再現部402によりメイン映像VMが生成され、メインカメラ再現部402から制御コンピュータ21へとメイン映像VMが提供される。これにより、制御コンピュータ21は、メインカメラ41からメイン映像VMを取得する。 (S201) When the shooting is started, the main video VM is output from the main camera 41 reproduced by the 3D simulator 40 and input to the control computer 21 of the control system 20. That is, the main camera reproduction unit 402 generates the main image VM, and the main camera reproduction unit 402 provides the main image VM to the control computer 21. As a result, the control computer 21 acquires the main video VM from the main camera 41.

(S202)撮影が開始されると、3Dシミュレータ40の視界カメラ42から全方位映像VEが出力され、コントロールシステム20の制御コンピュータ21に入力される。つまり、視界カメラ再現部401により全方位映像VEが生成され、視界カメラ再現部401から制御コンピュータ21へと全方位映像VEが提供される。これにより、制御コンピュータ21は、視界カメラ42から全方位映像VEを取得する。 (S202) When shooting is started, the omnidirectional video VE is output from the field-of-view camera 42 of the 3D simulator 40 and input to the control computer 21 of the control system 20. That is, the field-of-view camera reproduction unit 401 generates the omnidirectional video VE, and the field-of-view camera reproduction unit 401 provides the omnidirectional video VE to the control computer 21. As a result, the control computer 21 acquires the omnidirectional image VE from the field of view camera 42.

S201及びS202の処理は並行して実行されうる。変形例として、撮影開始前から全方位映像VEが出力され、視界カメラ42から制御コンピュータ21へと入力され、HMD22の映像表示デバイス221に表示されてもよい。 The processes of S201 and S202 can be executed in parallel. As a modification, the omnidirectional video VE may be output from before the start of shooting, input from the field-of-view camera 42 to the control computer 21, and displayed on the video display device 221 of the HMD 22.

(S203、S204)制御コンピュータ21は、視線検知デバイス222から出力される視線情報を取得する。視線情報の取得方法は、図19のS103と実質的に同じである。また、制御コンピュータ21は、全方位映像処理部215により、全方位映像VE及び視線方向に基づいて視界映像を生成する。視界映像の生成方法については、図19のS104と実質的に同じである。 (S203, S204) The control computer 21 acquires the line-of-sight information output from the line-of-sight detection device 222. The method of acquiring the line-of-sight information is substantially the same as that of S103 in FIG. Further, the control computer 21 generates a visual field image based on the omnidirectional image VE and the line-of-sight direction by the omnidirectional image processing unit 215. The method of generating the visual field image is substantially the same as that of S104 in FIG.

(S205、S206)制御コンピュータ21は、視界映像及びメイン映像VMに基づいて出力映像を生成する。出力映像の生成方法については、図19のS105と実質的に同じである。映像表示デバイス221は、制御コンピュータ21から出力された出力映像を画面に表示する。映像表示デバイス221による出力映像の表示方法については、図19のS106と実質的に同じである。 (S205, S206) The control computer 21 generates an output image based on the field of view image and the main image VM. The method of generating the output video is substantially the same as that of S105 in FIG. The video display device 221 displays the output video output from the control computer 21 on the screen. The method of displaying the output video by the video display device 221 is substantially the same as that of S106 of FIG.

(S207)オペレータOPにより撮影の終了が指示された場合、図28に示した一連の処理は終了する。一方、撮影が継続される場合、処理はS201へと進む。なお、図28に示した一連の処理のうち、S201〜S303の処理は並列に実行されてもよいし、実行の順番が入れ替えられてもよい。 (S207) When the operator OP instructs the end of shooting, the series of processes shown in FIG. 28 ends. On the other hand, if the shooting is continued, the process proceeds to S201. Of the series of processes shown in FIG. 28, the processes S201 to S303 may be executed in parallel, or the order of execution may be changed.

<応用例:カメラワーク教育への応用>
次に、上述した第1実施形態に係るリモートカメラシステム、及び第2実施形態に係るバーチャルカメラワークシステムをカメラマン教育に応用する仕組みについて説明する。
<Application example: Application to camera work education>
Next, a mechanism for applying the remote camera system according to the first embodiment and the virtual camera work system according to the second embodiment described above to cameraman education will be described.

上記の通り、第1実施形態に係るリモートカメラシステム及び第2実施形態に係るバーチャルカメラワークシステム(以下、本システム)では、コントロールシステム20の制御コンピュータ21により、オペレータOPの視線方向に基づいて視界映像が生成される。この視界映像は、撮影時にオペレータOPが視線を向けた方向に見える景色を映し出している。 As described above, in the remote camera system according to the first embodiment and the virtual camera work system according to the second embodiment (hereinafter, this system), the control computer 21 of the control system 20 provides a field of view based on the line-of-sight direction of the operator OP. Video is generated. This field of view image shows the scenery seen in the direction in which the operator OP turned his / her line of sight at the time of shooting.

ベテランカメラマンは、撮影対象となる出演者やスタジオセットの位置だけでなく、出演者の表情や動き、場面展開や番組のストーリなどを考慮してカメラワークを決めることができる。そのため、ベテランカメラマンは、撮影時にスタジオ内の様々な場所を見て、刻々と変化する現場の状況を把握している。このような現場の状況把握が好適なカメラワークを実現する上で重要な要素になっていると考えられる。 A veteran photographer can decide the camera work not only by considering the position of the performer and the studio set to be photographed, but also the facial expressions and movements of the performer, the scene development, and the story of the program. Therefore, veteran photographers look at various places in the studio at the time of shooting to grasp the ever-changing situation of the site. It is considered that grasping the situation at the site like this is an important factor in realizing suitable camera work.

しかし、経験が少ないカメラマンに対し、ベテランカメラマンの経験を伝えるのは容易でない。ベテランカメラマンといえども、撮影の最中、無意識に適切な場所へと視線を移している場合が多く、その経験を伝えるのが難しいためである。結局、経験が少ないカメラマンを教育しようとすれば、本番の撮影に起用して経験を積ませることが必要になる。しかし、本システムを応用すれば、ベテランカメラマンが撮影時に見ている光景と、実際に撮影されたメイン映像VMとを見比べてカメラワークを学ぶことができる。 However, it is not easy to convey the experience of a veteran photographer to an inexperienced photographer. This is because even veteran photographers often unknowingly shift their gaze to the appropriate place during shooting, and it is difficult to convey that experience. After all, if you want to educate an inexperienced photographer, you need to use it for actual shooting and gain experience. However, if this system is applied, it is possible to learn camera work by comparing the scene seen by a veteran photographer at the time of shooting with the main video VM actually shot.

例えば、制御コンピュータ21は、メイン映像VMと視界映像とを対応付けてメモリ21bに保存する。撮影後、制御コンピュータ21は、再生操作に応じて、メイン映像VMと視界映像とをHMD22の映像表示デバイス221で再生する。この仕組みにより、撮影時の視線方向と、撮れたメイン映像VMとを撮影後に確認することができる。ベテランカメラマンが撮影したメイン映像VMと視界映像とを保存しておけば、保存映像を他のカメラマンが再生することでベテランカメラマンの視線の動きを学ぶことができる。 For example, the control computer 21 associates the main video VM with the visual field video and stores them in the memory 21b. After shooting, the control computer 21 reproduces the main video VM and the visual field video on the video display device 221 of the HMD 22 in response to the playback operation. With this mechanism, the direction of the line of sight at the time of shooting and the captured main image VM can be confirmed after shooting. If the main image VM and the field of view image taken by the veteran photographer are saved, the movement of the line of sight of the veteran photographer can be learned by playing back the saved image by another photographer.

変形例として、制御コンピュータ21は、操作デバイス23に対する操作の内容を示す操作情報を視界映像に対応付けてメモリ21bに保存し、再生時に操作内容を示す情報(例えば、カメラ設定値やチルト角など)を再生画面に表示してもよい。また、制御コンピュータ21は、操作内容の情報に基づいてスタジオ内のロボットカメラ10を実際に動かし、或いは、仮想空間内で各3Dオブジェクトを動かして撮影時の状況を再現してもよい。これにより、ロボットカメラ10の操作についての学習も行うことができる。 As a modification, the control computer 21 stores the operation information indicating the operation content for the operation device 23 in the memory 21b in association with the visual field image, and the information indicating the operation content during playback (for example, the camera setting value, the tilt angle, etc.) ) May be displayed on the playback screen. Further, the control computer 21 may actually move the robot camera 10 in the studio based on the information of the operation content, or move each 3D object in the virtual space to reproduce the situation at the time of shooting. As a result, it is possible to learn about the operation of the robot camera 10.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属する。 Although preferred embodiments of the present invention have been described above with reference to the accompanying drawings, the present invention is not limited to such examples. It is clear that a person skilled in the art can come up with various modifications or modifications within the scope of the claims, which naturally belong to the technical scope of the present invention.

10 ロボットカメラ
11 メインカメラ
12 視界カメラ
12a、12b、12c、12d 接続部
13 ロボットアーム
13a、13b、13c、13d、13e 関節部
14 ベース
14a 車輪部
15 制御デバイス
20 コントロールシステム
21 制御コンピュータ
211 ベース制御部
212 アーム制御部
213 カメラ制御部
214 メイン映像処理部
215 全方位映像処理部
22 HMD
221 映像表示デバイス
221a 第1の表示領域
221b 第2の表示領域
222 視線検知デバイス
23 操作デバイス
30 天球面
31 視界範囲
32 視線
40 3Dシミュレータ
401 視界カメラ再現部
402 メインカメラ再現部
403 アーム再現部
404 ベース再現部
405 スタジオ再現部
41 メインカメラ
42 視界カメラ
43 ロボットアーム
44 ベース
N1、N2、NW ネットワーク
OP オペレータ
OPa 頭部
OPb ボディ
VM メイン映像
VE 全方位映像
10 Robot camera 11 Main camera 12 Field of view camera 12a, 12b, 12c, 12d Connection part 13 Robot arm 13a, 13b, 13c, 13d, 13e Joint part 14 Base 14a Wheel part 15 Control device 20 Control system 21 Control computer 211 Base control part 212 Arm control unit 213 Camera control unit 214 Main video processing unit 215 Omnidirectional video processing unit 22 HMD
221 Video display device 221a First display area 221b Second display area 222 Line-of-sight detection device 23 Operation device 30 Heavenly sphere 31 Field of view range 32 Line of view 40 3D simulator 401 Field of view camera reproduction unit 402 Main camera reproduction unit 403 Arm reproduction unit 404 Reproduction unit 405 Studio reproduction unit 41 Main camera 42 Field of view camera 43 Robot arm 44 Base N1, N2, NW Network OP Operator OPa Head OPb Body VM Main image VE Omnidirectional image

Claims (15)

ロボットアームと、前記ロボットアームに接続されるメインカメラと、前記ロボットアーム又は前記メインカメラの筐体に接続された、全方位映像を出力する視界カメラとを有する、ロボットカメラと、
前記ロボットカメラを遠隔操作するオペレータの視線方向を検知する視線検知部と、
前記視線方向及び前記視界カメラの出力映像に基づいて、前記オペレータの視界に対応する視界範囲の映像を生成し、前記視界範囲の映像と前記メインカメラの出力映像とを表示装置に出力する映像処理部と
を含む、リモートカメラシステム。
A robot camera having a robot arm, a main camera connected to the robot arm, and a view camera connected to the robot arm or the housing of the main camera to output an omnidirectional image.
A line-of-sight detection unit that detects the line-of-sight direction of an operator who remotely controls the robot camera,
Image processing that generates an image of the field of view corresponding to the operator's field of view based on the line-of-sight direction and the output image of the field of view camera, and outputs the image of the field of view and the output image of the main camera to the display device. Remote camera system, including the department.
前記メインカメラの筐体には、前記視界カメラを設置可能な第1及び第2の接続部が設けられ、前記第1の接続部は前記メインカメラの側部に配置され、前記第2の接続部は前記メインカメラの背部に配置される
請求項1に記載のリモートカメラシステム。
The housing of the main camera is provided with first and second connection portions on which the field of view camera can be installed, and the first connection portion is arranged on the side portion of the main camera and the second connection portion is provided. The remote camera system according to claim 1, wherein the unit is arranged on the back of the main camera.
前記ロボットアームには、前記視界カメラを設置可能な第3の接続部が設けられ、
前記第3の接続部は、前記メインカメラがチルトしても前記視界カメラの水平が維持されるように制御する水平維持機構を有する
請求項1又は2に記載のリモートカメラシステム。
The robot arm is provided with a third connection portion on which the field of view camera can be installed.
The remote camera system according to claim 1 or 2, wherein the third connection portion has a horizontal maintenance mechanism for controlling the horizontality of the field of view camera even when the main camera is tilted.
前記リモートカメラシステムは、前記オペレータの頭部に装着されるヘッドマウント型ディスプレイ装置を含み、
前記ヘッドマウント型ディスプレイ装置は、前記視線検知部と前記表示装置とを含む
請求項1に記載のリモートカメラシステム。
The remote camera system includes a head-mounted display device mounted on the operator's head.
The remote camera system according to claim 1, wherein the head-mounted display device includes the line-of-sight detection unit and the display device.
前記視線検知部は、前記ヘッドマウント型ディスプレイ装置に搭載されたモーションセンサの出力に基づいて前記頭部の動きを検知し、検知した前記頭部の向きに基づいて前記視線方向を判定する
請求項4に記載のリモートカメラシステム。
The line-of-sight detection unit detects the movement of the head based on the output of a motion sensor mounted on the head-mounted display device, and determines the line-of-sight direction based on the detected orientation of the head. The remote camera system according to 4.
前記映像処理部は、前記視界範囲の映像をバーチャルリアリティ映像に変換し、
前記表示装置は、第1の表示領域に前記バーチャルリアリティ映像を表示し、第2の表示領域に前記メインカメラの出力映像を表示する
請求項4又は5に記載のリモートカメラシステム。
The video processing unit converts the video in the field of view into a virtual reality video.
The remote camera system according to claim 4 or 5, wherein the display device displays the virtual reality image in a first display area and displays an output image of the main camera in a second display area.
前記第1の表示領域は、前記表示装置の画面全体に配置され、
前記第2の表示領域は、前記第1の表示領域よりサイズが小さく、前記第1の表示領域の中央に重ねて配置される
請求項6に記載のリモートカメラシステム。
The first display area is arranged on the entire screen of the display device.
The remote camera system according to claim 6, wherein the second display area is smaller in size than the first display area and is arranged so as to be overlapped with the center of the first display area.
ロボットアームと前記ロボットアームに接続されるメインカメラとを有する、ロボットカメラと、
前記ロボットカメラが配置されるスタジオ内に設置され、前記ロボットカメラの位置から見渡せるスタジオ全体の様子を映像として出力可能な少なくとも1台の視界カメラと、
前記ロボットカメラを遠隔操作するオペレータの視線方向を検知する視線検知部と、
前記視線方向及び前記少なくとも1台の視界カメラの映像に基づいて、前記オペレータの視界に対応する視界範囲の映像を生成し、前記視界範囲の映像と前記メインカメラの映像とを表示装置に出力する映像処理部と
を含む、リモートカメラシステム。
A robot camera having a robot arm and a main camera connected to the robot arm, and
At least one field-of-view camera that is installed in the studio where the robot camera is placed and can output the state of the entire studio as seen from the position of the robot camera as an image.
A line-of-sight detection unit that detects the line-of-sight direction of an operator who remotely controls the robot camera,
Based on the line-of-sight direction and the image of the at least one field-of-view camera, an image of the field of view corresponding to the operator's field of view is generated, and the image of the field of view and the image of the main camera are output to the display device. A remote camera system that includes a video processing unit.
前記視線検知部及び前記映像処理部を含むコントロールシステムと、前記ロボットカメラが設置されるスタジオとは地理的に離れた場所に設置され、前記コントロールシステムと前記ロボットカメラとは広域ネットワークを介して通信する
請求項1〜8のいずれか1項に記載のリモートカメラシステム。
The control system including the line-of-sight detection unit and the image processing unit is installed at a geographically distant place from the studio where the robot camera is installed, and the control system and the robot camera communicate with each other via a wide area network. The remote camera system according to any one of claims 1 to 8.
ロボットアームと、前記ロボットアームに接続されるメインカメラと、前記ロボットアーム又は前記メインカメラの筐体に接続された、全方位映像を出力する視界カメラとを有する、ロボットカメラと通信する通信部と、
前記ロボットカメラを遠隔操作するオペレータの視線方向及び前記視界カメラの出力映像に基づいて、前記オペレータの視界に対応する視界範囲の映像を生成し、前記視界範囲の映像と前記メインカメラの出力映像とを表示装置に出力する映像処理部と
を含む、コントロールシステム。
A communication unit that communicates with the robot camera, which has a robot arm, a main camera connected to the robot arm, and a view camera connected to the robot arm or the housing of the main camera to output an omnidirectional image. ,
Based on the line-of-sight direction of the operator who remotely operates the robot camera and the output image of the field-of-view camera, an image of the field of view range corresponding to the field of view of the operator is generated, and the image of the field of view range and the output image of the main camera are used. A control system that includes a video processing unit that outputs to the display device.
ロボットアームと、前記ロボットアームに接続されるメインカメラと、前記ロボットアーム又は前記メインカメラの筐体に接続された、全方位映像を出力する視界カメラとを有する、ロボットカメラと通信し、
前記ロボットカメラを遠隔操作するオペレータの視線方向及び前記視界カメラの出力映像に基づいて、前記オペレータの視界に対応する視界範囲の映像を生成し、前記視界範囲の映像と前記メインカメラの出力映像とを表示装置に出力する
処理をコンピュータが実行する、映像出力方法。
Communicates with a robot camera, which has a robot arm, a main camera connected to the robot arm, and a view camera connected to the robot arm or the housing of the main camera to output an omnidirectional image.
Based on the line-of-sight direction of the operator who remotely operates the robot camera and the output image of the field-of-view camera, an image of the field of view corresponding to the operator's field of view is generated, and the image of the field of view and the output image of the main camera are used. A video output method in which the computer executes the process of outputting the image to the display device.
ロボットアームと、前記ロボットアームに接続されるメインカメラと、前記ロボットアーム又は前記メインカメラの筐体に接続された、全方位映像を出力する視界カメラとを有する、ロボットカメラを仮想空間に再現し、前記メインカメラの出力映像及び前記視界カメラの出力映像を生成するシミュレータと、
前記ロボットカメラを操作するオペレータの視線方向及び前記視界カメラの出力映像に基づいて、前記オペレータの視界に対応する視界範囲の映像を生成し、前記視界範囲の映像と前記メインカメラの出力映像とを表示装置に出力する映像処理部と
を含む、バーチャルカメラワークシステム。
A robot camera having a robot arm, a main camera connected to the robot arm, and a field-of-view camera connected to the robot arm or the housing of the main camera to output an omnidirectional image is reproduced in a virtual space. , A simulator that generates the output image of the main camera and the output image of the field of view camera,
Based on the line-of-sight direction of the operator who operates the robot camera and the output image of the field-of-view camera, an image of the field of view range corresponding to the field of view of the operator is generated, and the image of the field of view range and the output image of the main camera are combined. A virtual camera work system that includes a video processing unit that outputs to the display device.
前記映像処理部は、前記オペレータの操作内容を示す操作データ、前記視界範囲の映像、及び前記メインカメラの出力映像を対応付けて記憶装置に格納し、再生操作に応じて前記視界範囲の映像及び前記メインカメラの出力映像を再生する
請求項12に記載のバーチャルカメラワークシステム。
The video processing unit stores the operation data indicating the operation contents of the operator, the video in the field of view, and the output video of the main camera in association with each other in the storage device, and the video in the field of view and the video in the field of view according to the playback operation. The virtual camera work system according to claim 12, which reproduces the output video of the main camera.
ロボットアームと、前記ロボットアームに接続されるメインカメラと、前記ロボットアーム又は前記メインカメラの筐体に接続された、全方位映像を出力する視界カメラとを有する、ロボットカメラを仮想空間に再現し、前記メインカメラの出力映像及び前記視界カメラの出力映像を生成するシミュレーションを実行し、
前記ロボットカメラを操作するオペレータの視線方向及び前記視界カメラの出力映像に基づいて、前記オペレータの視界に対応する視界範囲の映像を生成し、前記視界範囲の映像と前記メインカメラの出力映像とを表示装置に出力する
処理をコンピュータが実行する、映像出力方法。
A robot camera having a robot arm, a main camera connected to the robot arm, and a field-of-view camera connected to the robot arm or the housing of the main camera to output an omnidirectional image is reproduced in a virtual space. , Execute a simulation to generate the output image of the main camera and the output image of the field of view camera.
Based on the line-of-sight direction of the operator who operates the robot camera and the output image of the field-of-view camera, an image of the field of view corresponding to the operator's field of view is generated, and the image of the field of view and the output image of the main camera are combined. A video output method in which a computer executes the process of outputting to a display device.
ロボットアームと、前記ロボットアームに接続されるメインカメラと、前記ロボットアーム又は前記メインカメラの筐体に接続された、全方位映像を出力する視界カメラとを有する、ロボットカメラを仮想空間に再現し、前記メインカメラの出力映像及び前記視界カメラの出力映像を生成するシミュレーションを実行し、
前記ロボットカメラを操作するオペレータの視線方向及び前記視界カメラの出力映像に基づいて、前記オペレータの視界に対応する視界範囲の映像を生成し、前記視界範囲の映像と前記メインカメラの出力映像とを表示装置に出力する
処理をコンピュータに実行させる、プログラム。
A robot camera having a robot arm, a main camera connected to the robot arm, and a field-of-view camera connected to the robot arm or the housing of the main camera to output an omnidirectional image is reproduced in a virtual space. , Execute a simulation to generate the output image of the main camera and the output image of the field of view camera.
Based on the line-of-sight direction of the operator who operates the robot camera and the output image of the field-of-view camera, an image of the field of view range corresponding to the field of view of the operator is generated, and the image of the field of view range and the output image of the main camera are combined. A program that causes a computer to perform processing that is output to a display device.
JP2019043558A 2019-03-11 2019-03-11 Remote camera system, control system, video output method, virtual camera work system, and program Active JP7287798B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019043558A JP7287798B2 (en) 2019-03-11 2019-03-11 Remote camera system, control system, video output method, virtual camera work system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019043558A JP7287798B2 (en) 2019-03-11 2019-03-11 Remote camera system, control system, video output method, virtual camera work system, and program

Publications (2)

Publication Number Publication Date
JP2020150297A true JP2020150297A (en) 2020-09-17
JP7287798B2 JP7287798B2 (en) 2023-06-06

Family

ID=72429946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019043558A Active JP7287798B2 (en) 2019-03-11 2019-03-11 Remote camera system, control system, video output method, virtual camera work system, and program

Country Status (1)

Country Link
JP (1) JP7287798B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022158255A1 (en) * 2021-01-21 2022-07-28 ソニーグループ株式会社 Information processing device, movement device, and information processing system
WO2024096671A1 (en) * 2022-11-04 2024-05-10 삼성전자 주식회사 Method for acquiring image related to virtual reality content and electronic device supporting same

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104513A (en) * 2002-09-10 2004-04-02 Nippon Hoso Kyokai <Nhk> Method, device and program for remotely operating camera equipped with moving mechanism
JP2008099279A (en) * 2006-10-06 2008-04-24 Vitec Group Plc Camera control system
JP2009010728A (en) * 2007-06-28 2009-01-15 Olympus Corp Camera setting support device
JP2017063276A (en) * 2015-09-24 2017-03-30 カシオ計算機株式会社 Video display device, video display method and program
JP2018078422A (en) * 2016-11-08 2018-05-17 富士通株式会社 Imaging apparatus
WO2018101227A1 (en) * 2016-11-29 2018-06-07 シャープ株式会社 Display control device, head-mounted display, control method for display control device, and control program
JP2018169601A (en) * 2017-03-30 2018-11-01 株式会社リコー Cooperation device, imaging system, imaging method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104513A (en) * 2002-09-10 2004-04-02 Nippon Hoso Kyokai <Nhk> Method, device and program for remotely operating camera equipped with moving mechanism
JP2008099279A (en) * 2006-10-06 2008-04-24 Vitec Group Plc Camera control system
JP2009010728A (en) * 2007-06-28 2009-01-15 Olympus Corp Camera setting support device
JP2017063276A (en) * 2015-09-24 2017-03-30 カシオ計算機株式会社 Video display device, video display method and program
JP2018078422A (en) * 2016-11-08 2018-05-17 富士通株式会社 Imaging apparatus
WO2018101227A1 (en) * 2016-11-29 2018-06-07 シャープ株式会社 Display control device, head-mounted display, control method for display control device, and control program
JP2018169601A (en) * 2017-03-30 2018-11-01 株式会社リコー Cooperation device, imaging system, imaging method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022158255A1 (en) * 2021-01-21 2022-07-28 ソニーグループ株式会社 Information processing device, movement device, and information processing system
WO2024096671A1 (en) * 2022-11-04 2024-05-10 삼성전자 주식회사 Method for acquiring image related to virtual reality content and electronic device supporting same

Also Published As

Publication number Publication date
JP7287798B2 (en) 2023-06-06

Similar Documents

Publication Publication Date Title
EP3379525B1 (en) Image processing device and image generation method
US9858643B2 (en) Image generating device, image generating method, and program
WO2018051815A1 (en) Information processing apparatus and method and program
US20130176403A1 (en) Heads up display (HUD) sensor system
US20160299569A1 (en) Autonomous computing and telecommunications head-up displays glasses
WO2018104869A1 (en) Telepresence system
US7643064B1 (en) Predictive video device system
WO2013123725A1 (en) Mobile device
GB2495159A (en) A head-mounted somatosensory control and display system based on a user&#39;s body action
CN106559664A (en) The filming apparatus and equipment of three-dimensional panoramic image
WO2022262839A1 (en) Stereoscopic display method and apparatus for live performance, medium, and system
CN108830944B (en) Optical perspective three-dimensional near-to-eye display system and display method
JP7287798B2 (en) Remote camera system, control system, video output method, virtual camera work system, and program
CN108989784A (en) Image display method, device, equipment and the storage medium of virtual reality device
US20220053179A1 (en) Information processing apparatus, information processing method, and program
WO2018084087A1 (en) Image display system, image display device, control method therefor, and program
CN108646776B (en) Imaging system and method based on unmanned aerial vehicle
JP6518645B2 (en) INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD
CN110060349B (en) Method for expanding field angle of augmented reality head-mounted display equipment
EP3654099A2 (en) Method for projecting immersive audiovisual content
Horan et al. Feeling your way around a cave-like reconfigurable VR system
JP7203157B2 (en) Video processing device and program
WO2021200494A1 (en) Method for changing viewpoint in virtual space
WO2022024412A1 (en) Information processing device, information processing system, information processing method, and program
CN113614675A (en) Head-mounted information processing device and head-mounted display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230525

R150 Certificate of patent or registration of utility model

Ref document number: 7287798

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150