JP2002185837A - Robot camera system - Google Patents

Robot camera system

Info

Publication number
JP2002185837A
JP2002185837A JP2000383993A JP2000383993A JP2002185837A JP 2002185837 A JP2002185837 A JP 2002185837A JP 2000383993 A JP2000383993 A JP 2000383993A JP 2000383993 A JP2000383993 A JP 2000383993A JP 2002185837 A JP2002185837 A JP 2002185837A
Authority
JP
Japan
Prior art keywords
information
robot
robot camera
subject
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000383993A
Other languages
Japanese (ja)
Inventor
Hiroyuki Okamoto
浩幸 岡本
Takahito Suzuki
尊人 鈴木
Taiichiro Kato
大一郎 加藤
Takao Tsuda
貴生 津田
Akio Ishikawa
秋男 石川
Seiki Inoue
誠喜 井上
Shigeru Shimoda
茂 下田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OYO KEISOKU KENKYUSHO KK
Japan Broadcasting Corp
Original Assignee
OYO KEISOKU KENKYUSHO KK
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OYO KEISOKU KENKYUSHO KK, Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical OYO KEISOKU KENKYUSHO KK
Priority to JP2000383993A priority Critical patent/JP2002185837A/en
Publication of JP2002185837A publication Critical patent/JP2002185837A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a robot camera system in which robot cameras mutually exchange photographing information, cooperate with each other, can automatically photograph an object, depending on the situation and a person can control the robot camera, an needed. SOLUTION: The robot camera system is provided with one or more robot cameras, each having a photographing camera and a robot camera drive section, a position detection section that measures a three-dimensional position of an object within a photographing range, a state detection section that measures information for state detection including sound information of the object, and a scenario server that totally manages various photographing control information items, including a photographing method with respect to a shot specific to a program. The one or more robot cameras, the position detection section, the state detection section, and the scenario server are designed to be units and arranged in a distribution way and the robot camera system is configured, such that the units can mutually conduct communication.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、テレビジョン番組
制作、映画制作、遠隔テレビ会議等に使用され、撮影を
自動的に行うことができるロボットカメラ装置に関し、
更に詳しくは、特に複数台のカメラを用いた撮影が要求
される場合において、番組制作者のノウハウを活かした
カメラワークで、効率的な制作を実現することができる
ようにしたロボットカメラ装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot camera device which is used for television program production, movie production, remote video conference, etc., and which can automatically take pictures.
More specifically, the present invention relates to a robot camera device capable of realizing efficient production with camera work utilizing know-how of a program creator, particularly when photographing using a plurality of cameras is required.

【0002】[0002]

【従来の技術】テレビジョン番組制作、映画制作等の分
野においては、これまでカメラによる撮影はほとんど人
に委ねられていた。カメラ毎にカメラマンが1人つき、
カメラを操作していた。このため、使用するカメラの台
数が増えるとカメラを操作するカメラマンを増やさなけ
ればならないので、人手の確保が難しくなるだけでな
く、番組制作のコストも高くなってしまうなどの問題が
あった。
2. Description of the Related Art In the field of television program production, movie production, and the like, photographing with a camera has heretofore largely been left to humans. One cameraman for each camera,
I was operating the camera. For this reason, when the number of cameras used increases, the number of photographers who operate the cameras must be increased, so that not only is it difficult to secure human resources, but also the cost of program production is increased.

【0003】しかし、デジタル放送時代を迎えて、各放
送局では番組数の増大、映像の多様化に対応して効率的
な撮影が望まれている。このような背景の中で、撮影を
自動的に行うロボットカメラ装置が注目されている。
However, with the arrival of the digital broadcasting era, each broadcasting station is demanding efficient shooting in response to an increase in the number of programs and diversification of images. In such a background, a robot camera device that automatically performs photographing has attracted attention.

【0004】従来の自動撮影用ロボットカメラ装置で
は、ロボットカメラ駆動部や被写体の位置検出部等が1
つに合体した形態を取るのが一般的であった。ロボット
カメラ装置は自身が撮影している画面内で色や動きなど
のべクトルを用いて被写体を認識し、追尾などの撮影を
行っていた。しかし、このような方法では、ロボットカ
メラ装置は自身の撮影画面内から被写体がはずれた場合
に、被写体を再び追尾することができない、画面に映っ
ていない被写体の位置が未知なため被写体の変更ができ
ないなどの難点があった。
In a conventional robot camera apparatus for automatic photographing, a robot camera driving unit, a subject position detecting unit, etc.
It was common to adopt a united form. The robot camera device recognizes a subject using a vector such as a color and a motion in a screen where the robot camera is photographing, and performs photographing such as tracking. However, in such a method, the robot camera device cannot track the subject again when the subject comes out of its own shooting screen, and the position of the subject not shown on the screen is unknown. There were difficulties such as being unable to do so.

【0005】上述したような難点を克服するために、例
えば特開平7−240868号公報に開示されている
“テレビジョンカメラ撮影制御装置”が提案されてい
る。当該テレビジョンカメラ撮影制御装置は、撮影用の
カメラと別に被写体検出専用のカメラを備え、広角で全
体の状況を把握しながら撮影用のカメラを動かす方式を
採用している。そして、当該テレビジョンカメラ撮影制
御装置は、被写体検出専用のカメラを設けることによ
り、カメラマンが肉眼で全体の状況を確認しながら撮影
しているように、撮影用のカメラの撮影画面内に写って
いない広い範囲の状況を確認しての撮影ができる。撮影
用のカメラは被写体が自身の撮影画面からはずれても、
被写体検出専用カメラの視野内にある限り、被写体を再
び追尾することが可能である。
[0005] In order to overcome the above-mentioned difficulties, a "television camera photographing control apparatus" disclosed in, for example, Japanese Patent Application Laid-Open No. 7-240868 has been proposed. The television camera photographing control device includes a camera dedicated to subject detection separately from the camera for photographing, and adopts a method of moving the camera for photographing while grasping the whole situation at a wide angle. The television camera photographing control device is provided with a camera dedicated to subject detection, so that the photographer is shown in the photographing screen of the photographing camera as if the photographer is photographing while checking the entire situation with the naked eye. You can shoot without checking a wide range of situations. The camera for shooting, even if the subject deviates from his own shooting screen,
The subject can be tracked again as long as it is within the field of view of the camera dedicated to subject detection.

【0006】しかし、上述した従来のロボットカメラ装
置は、単体で使用することを目的として開発されたた
め、他のカメラと撮影情報を交換したり、状況に応じた
撮影を行う等のことができない。番組制作者のノウハウ
を活かしたカメラワークで、複数台のカメラが協調しな
がら自動的に撮影が行えるロボットカメラ装置は未だ実
現されていない。
However, since the above-mentioned conventional robot camera device has been developed for use alone, it cannot exchange photographing information with another camera or perform photographing according to the situation. A robot camera device capable of automatically photographing in cooperation with a plurality of cameras using camera work utilizing the know-how of a program creator has not yet been realized.

【0007】[0007]

【発明が解決しようとする課題】上述したように従来の
ロボットカメラ装置は単体での使用を前提としたもので
ある。実際の放送番組は、複数台のカメラを用いて制作
されることが多い。カメラ毎に大まかな役割分担が決ま
っており、カメラマンは相互に撮影情報を交換し、連携
しながら撮影を行っている。従来のロボットカメラ装置
では、他のカメラと撮影情報を交換したり、状況に応じ
た撮影を行う等のことができないため、協調動作しての
撮影は不可能であったという難点があった。
As described above, the conventional robot camera apparatus is intended to be used alone. Actual broadcast programs are often produced using a plurality of cameras. The roles are roughly assigned to each camera, and photographers exchange photography information with each other and photograph in cooperation. The conventional robot camera apparatus has a disadvantage that it is impossible to exchange photographing information with another camera or perform photographing according to the situation, and thus it is impossible to perform photographing in a cooperative operation.

【0008】本発明は上述のような事情よりなされたも
のであり、本発明の目的は、複数台のロボットカメラが
相互に撮影情報を交換すると共に協調動作して、状況に
応じた撮影が自動的に行え、且つ必要に応じて人がロボ
ットカメラを操作できるようにしたロボットカメラ装置
を提供することにある。
The present invention has been made in view of the above circumstances, and an object of the present invention is to allow a plurality of robot cameras to exchange photographing information with each other and operate cooperatively, so that photographing according to a situation is automatically performed. It is an object of the present invention to provide a robot camera device which can perform the operation in a convenient manner and allow a person to operate the robot camera as needed.

【0009】[0009]

【課題を解決するための手段】本発明は、ロボットカメ
ラ装置に関し、本発明の上記目的は、撮影用カメラ及び
ロボットカメラ駆動部を有する1以上のロボットカメラ
と、撮影範囲内における被写体の3次元位置を計測する
位置検出部と、前記被写体の音声情報を含む状態検出用
の情報を計測する状態検出部と、番組特有のショットに
関する撮影手法を含む種々の撮影制御情報を綜合的に管
理するシナリオサーバとを備え、前記1以上のロボット
カメラ、前記位置検出部、前記状態検出部、及び前記シ
ナリオサーバがユニット化されて分散配置されると共
に、通信ネットワークを介して各ユニット間で相互に通
信できるように構成されていることによって達成され
る。
SUMMARY OF THE INVENTION The present invention relates to a robot camera device, and an object of the present invention is to provide at least one robot camera having a photographing camera and a robot camera driving unit, and a three-dimensional object of a subject within a photographing range. A scenario for comprehensively managing various shooting control information including a shooting method related to a program-specific shot, a position detecting unit for measuring a position, a state detecting unit for measuring information for detecting a state including voice information of the subject, And a server, wherein the one or more robot cameras, the position detecting unit, the state detecting unit, and the scenario server are unitized and distributed and can communicate with each other via a communication network. This is achieved by being configured as follows.

【0010】また、本発明の上記目的は、前記ロボット
カメラ駆動部は、自身のロボットカメラのユニットを除
く前記各ユニットからの情報を受信し、該受信した情報
に応じてカメラワークを制御して当該被写体の撮影を自
動的に行うことにより、或いは前記ロボットカメラ駆動
部は、番組制作者の撮影手法の情報が予め組み込まれて
おり、自身に割り当てられたIPアドレスとともに、前
記撮影用カメラの向き、画角、位置を含む撮影情報を前
記通信ネットワークに送出するようになっており、前記
位置検出部は、自身に割り当てられたIPアドレスとと
もに、前記被写体の3次元位置の計測情報を前記通信ネ
ットワークに送出するようになっており、前記状態検出
部は、自身に割り当てられたIPアドレスとともに、前
記被写体の音声情報、話者の識別情報、発言時間の情報
を前記通信ネットワークに送出するようになっており、
前記シナリオサーバは、自身に割り当てられたIPアド
レスとともに、当該番組特有のショットに関する撮影手
法に対応する制御コマンドを前記通信ネットワークに送
出するようになっていることによって、より効果的に達
成される。
The object of the present invention is that the robot camera driving unit receives information from each of the units other than the robot camera unit itself, and controls the camera work in accordance with the received information. By automatically photographing the subject, or the robot camera driving unit incorporates information on the photographing method of the program creator in advance, and together with the IP address assigned to itself, the direction of the photographing camera. The position detecting unit transmits the measurement information of the three-dimensional position of the subject together with the IP address assigned to the communication network to the communication network. The state detection unit transmits the audio information of the subject together with the IP address assigned to the state detection unit. , Identification information of the speaker, have become the information of the speech time to deliver to the communication network,
The scenario server is more effectively achieved by transmitting, to the communication network, a control command corresponding to a shooting method relating to a shot specific to the program, together with an IP address assigned to the scenario server.

【0011】[0011]

【発明の実施の形態】以下、図面に基づいて本発明の好
適な実施の形態について詳細に説明する。なお、本実施
形態においては、本発明に係るロボットカメラ装置を用
いて、テレビジョン番組(例えば司会者とゲストとが被
写体としたトーク番組)の撮影を行う場合を例として説
明する。また、通信ネットワークはイーサネット(登録
商標)で構築したネットワークを例として説明する。以
下該通信ネットワークをイーサネットと称する。図1は
本発明に係るロボットカメラ装置の構成例を示す概略図
である。図1に示すように、複数のロボットカメラ10
と、撮影範囲内における被写体(本実施形態では人物)
の3次元位置を計測する位置検出部20と、被写体の音
声情報を計測する状態検出部30と、番組特有のショッ
トに関する撮影手法をはじめとして種々の情報を綜合的
に管理するシナリオサーバ40と、操作者がロボットカ
メラ10をリモートコントロールする際に使用する操作
機50とを備えている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below in detail with reference to the drawings. In the present embodiment, an example will be described in which a robot program according to the present invention is used to shoot a television program (for example, a talk program in which a moderator and a guest are subjects). Also, a communication network is described as an example of a network constructed by Ethernet (registered trademark). Hereinafter, the communication network is referred to as Ethernet. FIG. 1 is a schematic diagram showing a configuration example of a robot camera device according to the present invention. As shown in FIG. 1, a plurality of robot cameras 10
And the subject within the shooting range (in this embodiment, a person)
A position detecting unit 20 for measuring the three-dimensional position of the subject, a state detecting unit 30 for measuring the audio information of the subject, a scenario server 40 for comprehensively managing various information including a shooting method for a program-specific shot, An operating device 50 used when the operator remotely controls the robot camera 10 is provided.

【0012】ロボットカメラ装置の各構成部分はそれぞ
れ別ユニット化され、イーサネットを介して分散配置さ
れている。各ユニットは自身を特定するIPアドレスを
有するとともに、イーサネットを介して他のユニットと
相互に情報交換することができる。各ユニットは、イー
サネットのブロードキャストコマンドを用いることによ
り、自身が検出した情報(例えば被写体の位置情報、音
声情報)あるいは自身が生成した情報(例えば制御コマ
ンド、撮影情報)を自身のIPアドレスとともにイーサ
ネットに送出することができるように構成されている。
なお、ロボットカメラ駆動部11はロボットカメラ10
の構成の一部であるため、ロボットカメラ駆動部11の
IPアドレスがロボットカメラ10のIPアドレスと同
じであるように設定されている。
Each component of the robot camera device is formed as a separate unit, and is distributed via an Ethernet. Each unit has an IP address that identifies itself and can exchange information with other units via Ethernet. Each unit uses the Ethernet broadcast command to transmit information detected by itself (for example, subject position information and audio information) or information generated by itself (for example, control commands and shooting information) to the Ethernet together with its own IP address. It is configured to be able to send out.
The robot camera driving unit 11 is a robot camera 10
Therefore, the IP address of the robot camera driving unit 11 is set to be the same as the IP address of the robot camera 10.

【0013】図1に示すように、ロボットカメラ10は
撮影用カメラ12と撮影用カメラ12を制御して撮影を
行うロボットカメラ駆動部11とを備えている。ロボッ
トカメラ駆動部11は、ロボットカメラ装置の他のユニ
ットからイーサネット上に送出された全ての撮影に必要
な情報を受信するとともに、受信した情報と予め自身に
組み込まれた番組制作者の撮影手法とを考慮することに
より、被写体及び撮影方法を決定して自動撮影を行い、
同時にその被写体及び撮影方法に関する撮影情報(例え
ば撮影用カメラの向き、画角、位置を含む撮影情報)を
自身のIPアドレスとともにイーサネットに送出する。
As shown in FIG. 1, the robot camera 10 includes a photographing camera 12 and a robot camera driving unit 11 which controls the photographing camera 12 to photograph. The robot camera driving unit 11 receives all the information necessary for shooting transmitted from the other units of the robot camera device on the Ethernet, and receives the received information and the shooting method of the program creator incorporated in advance. By taking into account, determine the subject and shooting method and perform automatic shooting,
At the same time, it transmits shooting information (for example, shooting information including the direction, angle of view, and position of the shooting camera) on the subject and the shooting method to the Ethernet together with its own IP address.

【0014】シナリオサーバ40はイーサネットに送出
された全ての情報を随時受信するとともに受信した情報
を総合的に管理する。すなわち、シナリオサーバ40
は、実際の番組製作現場の調整室において、すべての映
像及び音声情報を管理するテクニカルディレクターの役
割を果たしている。シナリオサーバ40は、番組特有の
ショットを撮影する必要が生じた時に、動作させるロボ
ットカメラ駆動部11のIPアドレスを送信先として指
定し、シナリオサーバ40自身に割り当てられたIPア
ドレスとともに、番組特有の当該ショットに関する撮影
手法に対応する制御コマンドをイーサネットに送出す
る。
The scenario server 40 receives all information sent to the Ethernet from time to time and comprehensively manages the received information. That is, the scenario server 40
Plays the role of technical director who manages all video and audio information in the coordinating room of the actual program production site. When it becomes necessary to shoot a program-specific shot, the scenario server 40 specifies the IP address of the robot camera driving unit 11 to be operated as a transmission destination, and together with the IP address allocated to the scenario server 40 itself, the program-specific shot. A control command corresponding to the shooting method for the shot is transmitted to the Ethernet.

【0015】操作機50は、操作者がリモートコントロ
ールするロボットカメラ駆動部11のIPアドレスを送
信先として指定し、操作機50自身に割り当てられたI
Pアドレスとともに、操作者が希望する撮影手法に対応
する制御コマンドをイーサネットに送出する。
The operating device 50 designates, as a transmission destination, the IP address of the robot camera driving section 11 which is remotely controlled by the operator, and the I assigned to the operating device 50 itself.
Along with the P address, a control command corresponding to an imaging method desired by the operator is transmitted to the Ethernet.

【0016】ロボットカメラ駆動部11は、自動撮影中
に、イーサネットに送出され、かつ当該ロボットカメラ
駆動部11のIPアドレスを送信先とした制御コマンド
を受信した場合に、自動撮影状態をリモートコントロー
ル状態に切り替え、受信した制御コマンドに従って撮影
を行う。なお、本発明に係るロボットカメラ装置にロボ
ットカメラ10を追加する場合には、当該追加されたロ
ボットカメラ10のロボットカメラ駆動部11のIPア
ドレスを別途付加する。
When the robot camera driving unit 11 receives a control command sent to the Ethernet and receiving the IP address of the robot camera driving unit 11 as a transmission destination during automatic photographing, the robot camera driving unit 11 changes the automatic photographing state to the remote control state. And shooting is performed in accordance with the received control command. When the robot camera 10 is added to the robot camera device according to the present invention, the IP address of the robot camera driving unit 11 of the added robot camera 10 is separately added.

【0017】本発明に係るロボットカメラ装置では、複
数台のロボットカメラ10を用いることにより、複数の
ロボットカメラ駆動部11が撮影に必要な情報を受信す
ることで、状況に応じた最適な映像を撮影することがで
きる。各ロボットカメラ駆動部11は当該ロボットカメ
ラ駆動部11に制御され、撮影を行った撮影用カメラ1
2及び撮影された被写体に関する撮影情報をイーサネッ
トを介して相互に交換する。各ロボットカメラ駆動部1
1は、イーサネット上に送出された全ての撮影に必要な
情報を随時受信し、他のロボットカメラ駆動部11が撮
影している被写体情報 (例えば被写体のサイズ)と撮影
状況(例えばロボットカメラの画角)を把握することに
より、状況に応じた撮影を自動的に行っているため、重
複して同じ映像を撮影することがない。
In the robot camera apparatus according to the present invention, by using a plurality of robot cameras 10, a plurality of robot camera driving units 11 receive information necessary for photographing, and thus an optimum image according to the situation is formed. You can shoot. Each of the robot camera driving units 11 is controlled by the robot camera driving unit 11 and performs a photographing camera 1 that performs photographing.
2 and the photographing information relating to the photographed subject are exchanged via the Ethernet. Each robot camera drive unit 1
1 receives information necessary for all shootings transmitted on the Ethernet from time to time, obtains information on the subject (for example, the size of the subject) being shot by the other robot camera driving unit 11 and the shooting status (for example, the image of the robot camera). Since the shooting according to the situation is automatically performed by grasping the angle), the same video is not repeatedly shot.

【0018】また、自身の映像に映っていない被写体の
情報も常に把握しているため、他の被写体の撮影に円滑
に移行できる。自動撮影中のどのロボットカメラ10
も、人が操作機50を用いてリモートコントロールする
ことができるので、緊急の場合にも対応できる。
Further, since information of a subject which is not reflected in the image of the subject is always grasped, it is possible to smoothly shift to photographing of another subject. Which robot camera 10 during automatic shooting
Also, since a person can perform remote control using the operation device 50, it is possible to cope with an emergency.

【0019】図2は本発明に係る位置検出部20の主要
な機能を示すブロック図である。図2に示すように、位
置検出部20は、撮影範囲内における被写体の3次元位
置情報を取得する位置情報取得手段21と、取得した位
置情報に基いて被写体60の3次元座標を求めるととも
に求められた被写体の3次元座標をイーサネットのブロ
ードキャストコマンドでイーサネットに送出する位置情
報処理通信手段22とを備えている。
FIG. 2 is a block diagram showing main functions of the position detecting section 20 according to the present invention. As shown in FIG. 2, the position detection unit 20 obtains three-dimensional position information of the subject within the shooting range, and obtains and obtains three-dimensional coordinates of the subject 60 based on the obtained position information. And a position information communication unit 22 for transmitting the three-dimensional coordinates of the subject to the Ethernet by an Ethernet broadcast command.

【0020】図3は位置検出部20の第一の実施形態を
示す概略図である。本実施形態では、2台のセンサカメ
ラ211(RGBカメラ)を位置情報取得手段21とし
て用い、被写体60が存在する撮影空間(撮影範囲)を
立体的に撮影する。撮影した各映像情報は位置情報処理
通信手段22に取り込まれる。位置情報処理通信手段2
2では、取り込まれた映像情報の中から、あらかじめ指
定しておいた被写体60の色を抽出し、所定のアルゴリ
ズムによって被写体60の3次元座標を求め、求められ
た被写体60の3次元座標データを位置検出部20のI
Pアドレスとともにイーサネットのブロードキャストコ
マンドを用いてイーサネットに送出する。
FIG. 3 is a schematic diagram showing a first embodiment of the position detecting section 20. In the present embodiment, two sensor cameras 211 (RGB cameras) are used as the position information acquisition unit 21 to three-dimensionally photograph a photographing space (photographing range) where the subject 60 exists. The captured video information is taken into the position information communication unit 22. Position information processing communication means 2
In step 2, the color of the subject 60 specified in advance is extracted from the captured video information, the three-dimensional coordinates of the subject 60 are obtained by a predetermined algorithm, and the obtained three-dimensional coordinate data of the subject 60 is obtained. I of the position detector 20
The packet is transmitted to the Ethernet using the broadcast command of the Ethernet together with the P address.

【0021】図4は位置検出部20の第二の実施形態を
示す概略図である。本実施形態では、超音波発信器21
2及び超音波受信器213を位置情報取得手段21とし
て用い、被写体60の位置情報を取得する。被写体60
毎に1台の超音波発信器212と1台の超音波受信器2
13とが必要となる。先ず、被写体60に超音波発信器
212を装着しておく。そして、当該被写体60の周辺
に超音波受信器213を設置する。超音波受信器213
により超音波発信器212のレべル及び位相が検出され
る。検出されたレべル及び位相の情報がさらに位置情報
処理通信手段22に取り込まれる。位置情報処理通信手
段22では、取り込まれたレべル及び位相の情報に基い
て被写体60の3次元座標を所定のアルゴリズムによっ
て求め、求められた被写体60の3次元座標データを位
置検出部20のIPアドレスとともにイーサネットのブ
ロードキャストコマンドを用いてイーサネットに送出す
る。
FIG. 4 is a schematic diagram showing a second embodiment of the position detector 20. In the present embodiment, the ultrasonic transmitter 21
2 and the ultrasonic receiver 213 as the position information acquisition unit 21 to acquire the position information of the subject 60. Subject 60
One ultrasonic transmitter 212 and one ultrasonic receiver 2 for each
13 is required. First, the ultrasonic transmitter 212 is attached to the subject 60. Then, the ultrasonic receiver 213 is set around the subject 60. Ultrasonic receiver 213
As a result, the level and phase of the ultrasonic transmitter 212 are detected. Information on the detected level and phase is further taken into the position information communication unit 22. The position information processing communication unit 22 obtains the three-dimensional coordinates of the subject 60 by a predetermined algorithm based on the acquired level and phase information, and outputs the obtained three-dimensional coordinate data of the subject 60 to the position detection unit 20. The packet is transmitted to the Ethernet using the broadcast command of the Ethernet together with the IP address.

【0022】なお、超音波発信器212及び超音波受信
器213の設置場所を交換しても良い。すなわち、被写
体60に超音波受信器213を装着しておき、被写体6
0の周辺に超音波発信器212を設置するようにしても
良い。
The locations of the ultrasonic transmitter 212 and the ultrasonic receiver 213 may be exchanged. That is, the ultrasonic receiver 213 is attached to the subject 60, and the subject 6
The ultrasonic transmitter 212 may be installed around 0.

【0023】また、イーサネット通信機能を有する磁気
センサ、赤外線センサやジャイロセンサ等のセンサを位
置情報取得手段21として利用することができる。
A sensor such as a magnetic sensor having an Ethernet communication function, an infrared sensor, a gyro sensor, or the like can be used as the position information acquiring means 21.

【0024】図5は本発明に係る状態検出部30の主要
な機能を示すブロック図である。図5に示すように、状
態検出部30は撮影範囲内における被写体60の音声情
報を取得する状態情報取得手段31と、取得した音声情
報に基いて被写体60状態情報を生成するとともに生成
された被写体60状態情報(例えば被写体の音声情報、
話者の識別情報、発言時間の情報)をイーサネットのブ
ロードキャストコマンドでイーサネットに送出する状態
情報処理通信手段32とを備えている。
FIG. 5 is a block diagram showing the main functions of the state detector 30 according to the present invention. As shown in FIG. 5, the state detection unit 30 obtains state information obtaining means 31 for obtaining audio information of the subject 60 within the shooting range, and generates the object 60 state information based on the obtained audio information, and generates the generated object 60. 60 state information (for example, audio information of a subject,
State information communication means 32 for sending speaker identification information and speaking time information) to the Ethernet by an Ethernet broadcast command.

【0025】図6は本発明に係る状態検出部30の実施
形態を示す概略図である。本実施形態では、被写体60
の数と同数になる複数のマイク311及びアンプ312
を状態情報取得手段31として用い、各被写体60の音
声レベルを取得する。被写体60が人物である場合、各
被写体60にマイク311を装着し、アンプ312を通
してマイク311毎の音声レベルを状態情報処理通信手
段32に取り込む。
FIG. 6 is a schematic diagram showing an embodiment of the state detector 30 according to the present invention. In the present embodiment, the subject 60
Microphones 311 and amplifiers 312 equal in number to
Is used as the state information acquisition means 31, and the audio level of each subject 60 is acquired. When the subject 60 is a person, the microphone 311 is attached to each subject 60, and the audio level of each microphone 311 is taken into the state information communication unit 32 through the amplifier 312.

【0026】本例では、状態情報処理通信手段32には
各被写体60に対応するチャンネルが設けられており、
各チャンネル毎に被写体60が話し手か聞き手かを判断
するのに使用する閾値の音声レベル値が予め設定されて
いる。
In this example, the state information processing communication means 32 is provided with a channel corresponding to each subject 60,
A threshold sound level value used to determine whether the subject 60 is a speaker or a listener is set in advance for each channel.

【0027】状態情報処理通信手段32では、取り込ま
れたマイク311の音声レべルをそのマイク311に対
応するチャンネルの閾値と比較する。取り込まれたマイ
ク311の音声レべルが対応するチャンネルの閾値を超
えた場合には、当該チャンネルに対応する被写体60を
話し手と判断するとともに当該被写体60の発言時間を
計測する。また、取り込まれたマイク311の音声レべ
ルが対応するチャンネルの閾値を下回った場合、あるい
は音声レべルが検出できない場合には、当該チャンネル
に対応する被写体60を聞き手と判断する。状態情報処
理通信手段32は、被写体60の番号、当該被写体60
は話し手(それとも聞き手)、話し手であれば発言時間
といった各被写体60の状態情報を状態検出部のIPア
ドレスとともにイーサネットのブロードキャストコマン
ドを用いてイーサネットに送出する。
The state information processing communication means 32 compares the fetched audio level of the microphone 311 with the threshold value of the channel corresponding to the microphone 311. If the voice level of the captured microphone 311 exceeds the threshold value of the corresponding channel, the subject 60 corresponding to the channel is determined to be a speaker, and the speech time of the subject 60 is measured. When the audio level of the captured microphone 311 falls below the threshold value of the corresponding channel, or when the audio level cannot be detected, the subject 60 corresponding to the channel is determined to be the listener. The state information processing communication unit 32 includes the number of the subject 60,
Sends the state information of each subject 60, such as the talker (or listener), and the speaking time if it is a talker, to the Ethernet using an Ethernet broadcast command together with the IP address of the state detection unit.

【0028】図7は本発明に係るロボットカメラ駆動部
11の実施形態を示す概略図である。ロボットカメラ駆
動部11は、ロボットカメラ装置の他のユニットからイ
ーサネットに送出された全ての撮影に必要な情報を随時
受信するとともに、受信した情報と予め自身に組み込ま
れた番組制作者の撮影手法とを考慮することにより、状
況に応じた被写体60及び撮影方法を決定して自動撮影
を行い、同時にその被写体60及び撮影方法に関する撮
影情報をロボットカメラ駆動部11のIPアドレスとと
もにイーサネットのブロードキャストコマンドを用いて
イーサネットに送出する。
FIG. 7 is a schematic view showing an embodiment of the robot camera driving section 11 according to the present invention. The robot camera driving unit 11 receives, from time to time, all the information necessary for shooting transmitted from the other units of the robot camera device to the Ethernet, and receives the received information and the shooting method of the program creator incorporated in advance. In consideration of the above, the subject 60 and the photographing method are determined according to the situation, and the automatic photographing is performed. At the same time, the photographing information on the subject 60 and the photographing method is transmitted together with the IP address of the robot camera driving unit 11 using the Ethernet broadcast command. Out to Ethernet.

【0029】ロボットカメラ駆動部11に予め組み込ま
れ、単体でのロボットカメラ駆動部の動きを規定する番
組制作者の撮影手法については、例えば特願平8−15
3131号公報に開示されている“自動撮影カメラシス
テム”、特願平8−153132号公報に開示されてい
る“自動撮影カメラシステムにおけるロボットカメラの
制御方法および装置 (1) ”や特願平8−153133
号公報に開示されている“自動撮影カメラシステムにお
けるロボットカメラの制御方法および装置(2)”等にお
いて提案されている手法を用いる。
A method of photographing a program creator which is incorporated in the robot camera driving unit 11 in advance and regulates the movement of the robot camera driving unit alone is described in, for example, Japanese Patent Application No. 8-15.
No. 3131, "Automatic photographing camera system", Japanese Patent Application No. 8-153132, "Robot Camera Control Method and Apparatus (1)" in Japanese Patent Application No. 8-153132, and Japanese Patent Application No. 8-153132. −153133
The technique proposed in “Control method and device (2) of robot camera in automatic photographing camera system” disclosed in Japanese Unexamined Patent Publication (Kokai) No. H10-15095 is used.

【0030】複数台のロボットカメラ駆動部11の撮影
手法については、2台のロボットカメラ駆動部11を用
いた場合の実施形態を例として説明する。図8は2台の
ロボットカメラ駆動部11を用いた場合の撮影手法の実
施形態を示すフローチャートである。2台のロボットカ
メラ駆動部11は、経過時間に依存するシーケンス制御
を用いるのではなく、被写体60の状況変化に応じて撮
影手法を変更する。
The photographing method of the plurality of robot camera driving units 11 will be described with reference to an example in which two robot camera driving units 11 are used. FIG. 8 is a flowchart showing an embodiment of a shooting method when two robot camera driving units 11 are used. The two robot camera driving units 11 do not use the sequence control depending on the elapsed time, but change the shooting method according to the change in the situation of the subject 60.

【0031】なお、図8中のロボカメはロボットカメラ
駆動部を意味し、2Sは二人のショットを、BSは胸か
ら上のショットを、UPは顔のアップショットをそれぞ
れ意味している。また、2台のロボットカメラ駆動部1
1をロボカメ1、ロボカメ2と表記している。
In FIG. 8, the robo turtle means a robot camera driving unit, 2S means a shot of two persons, BS means a shot above the chest, and UP means an up shot of the face. Also, two robot camera driving units 1
1 is described as Robo turtle 1 and Robo turtle 2.

【0032】以下、図8のフローチャートの流れに沿っ
て説明する。先ず、一時的に被写体とするもの(本例で
は説明用ボード)の有無を検出する(ステップS10
1)。説明用ボードが検出された場合に、ロボカメ1は
ゲストと司会者との二人のショットを自動的に撮影する
と同時に、ロボカメ2は説明用ボードを自動的に撮影す
る(ステップS102)。説明用ボードが検出されない
場合に、話し手の発言時間が所定時間(本例では30
秒)以上であるかを判断する(ステップS103)。話
し手の発言時間が30秒以上であれば、ロボカメ1はゲ
ストと司会者との二人のショットを自動に撮影すると同
時に、ロボカメ2はゲストの顔のアップショットを自動
に撮影する(ステップS104)。
Hereinafter, description will be given along the flow of the flowchart of FIG. First, the presence or absence of a temporary object (in this example, an explanation board) is detected (step S10).
1). When the explanation board is detected, the Robo turtle 1 automatically shoots two shots of the guest and the moderator, and at the same time, the Robo turtle 2 automatically shoots the explanation board (step S102). When the explanation board is not detected, the talk time of the speaker is a predetermined time (30 in this example).
Seconds) or more (step S103). If the talk time of the speaker is 30 seconds or more, the Robocamera 1 automatically shoots two shots of the guest and the moderator, while the Robocamera 2 automatically shoots an upshot of the guest's face (step S104). .

【0033】一方、話し手の発言時間が30秒未満の場
合に、被写体が立ち上がったかを判断する(ステップS
105)。被写体が立ち上がった場合に、ロボカメ2は
被写体のサイズをひいて自動追尾撮影を行う(ステップ
S106)。被写体が立ち上がってない場合に、同一の
画角の継続時間が20秒以上であるかを判断する(ステ
ップS107)。画角の継続時間が所定時間(本例では
20秒)以上であれば、ロボカメ1はゲストと司会者と
の二人のショットを自動に撮影しているところを司会者
の胸から上のショットを撮影するように切り替える(ス
テップS108)。画角の継続時間が20秒未満の場合
に、ステップS101に戻る。上述したように、ロボカ
メ1及びロボカメ2は被写体の動作や時間経過などの状
況変化に応じて撮影手法を変更する。
On the other hand, if the speaking time of the speaker is less than 30 seconds, it is determined whether the subject has risen (step S).
105). When the subject stands up, the ROBOKAME 2 performs automatic tracking photographing by subtracting the size of the subject (step S106). If the subject has not risen, it is determined whether the continuation time of the same angle of view is 20 seconds or longer (step S107). If the duration of the angle of view is equal to or longer than a predetermined time (in this example, 20 seconds), Robocamera 1 automatically shoots two shots of a guest and a moderator while taking a shot above the moderator's chest. (Step S108). If the duration of the angle of view is less than 20 seconds, the process returns to step S101. As described above, the robocamera 1 and the robocamera 2 change the photographing method according to a change in the situation such as the motion of the subject or the passage of time.

【0034】図9は本発明に係るシナリオサーバ40の
実施形態を示す概略図である。番組を撮影する際には、
番組制作者の撮影手法が使用されるのだけではなく、そ
の番組の特有のショットに関する撮影手法も使用され
る。図9に示すように、シナリオサーバ40は情報を格
納するためのメモリ41を備えている。メモリ41は番
組の特有のショットに関する撮影手法に対応する制御コ
マンドを予め格納しておく。また、上述したように、番
組制作者の撮影手法はロボットカメラ駆動部11に予め
組み込まれている。
FIG. 9 is a schematic diagram showing an embodiment of the scenario server 40 according to the present invention. When shooting a program,
Not only is the programmer's shooting technique used, but also the shooting technique for the specific shots of the program. As shown in FIG. 9, the scenario server 40 includes a memory 41 for storing information. The memory 41 previously stores a control command corresponding to a shooting method relating to a specific shot of a program. Further, as described above, the shooting method of the program creator is incorporated in the robot camera driving unit 11 in advance.

【0035】シナリオサーバ40はイーサネットに送出
された全ての撮影情報を受信し、受信した情報をメモリ
41に格納する。また、シナリオサーバ40は、新しい
撮影情報を受信するたびに、その受信した情報を用いて
メモリ41を更新する。シナリオサーバ40は、メモリ
41に格納されている全てのデータを参照し、番組特有
のショットを撮影する必要が生じた時に、動作させるロ
ボットカメラ駆動部11のIPアドレスを送信先として
指定し、シナリオサーバ40自身に割り当てられたIP
アドレスとともに、番組特有の当該ショットに関する撮
影手法に対応する制御コマンドをイーサネットに送出す
る。シナリオサーバ40に指定されたロボットカメラ駆
動部11は、自動撮影中であっても、シナリオサーバ4
0から送出された制御コマンドを優先し、その制御コマ
ンドに従って撮影を行う。
The scenario server 40 receives all the photographing information transmitted to the Ethernet, and stores the received information in the memory 41. Further, each time new scenario information is received, the scenario server 40 updates the memory 41 using the received information. The scenario server 40 refers to all the data stored in the memory 41, specifies the IP address of the robot camera driving unit 11 to be operated as a transmission destination when it becomes necessary to shoot a program-specific shot, and IP assigned to server 40 itself
Along with the address, a control command corresponding to a program-specific shooting method for the shot is transmitted to the Ethernet. The robot camera driving unit 11 designated by the scenario server 40 is able to execute the scenario server 4 even during automatic shooting.
The control command sent from 0 is prioritized, and shooting is performed according to the control command.

【0036】操作機50は、自動撮影時に通常は使用し
ないが、緊急時や必要が生じた時等に、操作者がロボッ
トカメラ駆動部11をリモートコントロールして動作さ
せるのに使用する。
The operating device 50 is not normally used at the time of automatic photographing, but is used by an operator to remotely control and operate the robot camera driving unit 11 in an emergency or when necessary.

【0037】図10は本発明に係る操作機50の第一の
実施形態を示す概略図である。図10に示すように、操
作機50は操作者がリモートコントロールしようとする
ロボットカメラ駆動部11を選択するためのスイッチ5
1と、ロボットカメラ10のパン、チルト、ズーム、フ
ォーカス、アイリスなどのカメラデータを調整するため
の操作部52と、操作部52にて決定されたロボットカ
メラ10に関するカメラデータをロボットカメラ駆動部
11を駆動する制御コマンドに変換してイーサネットに
送出する通信部53とを備えている。
FIG. 10 is a schematic view showing a first embodiment of the operating device 50 according to the present invention. As shown in FIG. 10, the operating device 50 is provided with a switch 5 for the operator to select the robot camera driving unit 11 to be remotely controlled.
1, an operation unit 52 for adjusting camera data such as pan, tilt, zoom, focus, and iris of the robot camera 10, and a camera data related to the robot camera 10 determined by the operation unit 52. And a communication unit 53 for converting the control command into a control command for driving the Ethernet and transmitting the control command to the Ethernet.

【0038】操作者は動かしたいロボットカメラ駆動部
11をスイッチ51で選択してから、選択されたロボッ
トカメラ駆動部11の撮影映像を見ながら操作部52を
操作し、ロボットカメラ10のカメラデータを決定す
る。通信部53は操作部52にて決定されたカメラデー
タを取り込み、その取り込んだカメラデータを制御コマ
ンドに変換し、スイッチ51で選択されたロボットカメ
ラ駆動部11のIPアドレスとともに変換された制御コ
マンドをイーサネットのブロードキャストコマンドを用
いてイーサネットに送出する。
The operator selects the robot camera driving unit 11 to be moved by the switch 51, and then operates the operation unit 52 while watching the image captured by the selected robot camera driving unit 11 to change the camera data of the robot camera 10. decide. The communication unit 53 captures the camera data determined by the operation unit 52, converts the captured camera data into a control command, and converts the converted control command together with the IP address of the robot camera driving unit 11 selected by the switch 51. Send to Ethernet using Ethernet broadcast command.

【0039】図11は本発明に係る操作機50の第二の
実施形態を示す概略図である。図11に示すように、操
作機50は通信部53と、音声入力部54と、変換部5
5とを備えている。操作者は音声入力部54を介して動
かしたいロボットカメラ駆動部11を選択し、選択され
たロボットカメラ駆動部11にロボットカメラを調整す
る指示を与える。音声入力部54は操作者の音声指示を
音声データに変換し、変換部55に送る。変換部55で
は、予め作成したテーブルを用いて、音声入力部54か
ら送られてきた音声データをロボットカメラ駆動部11
を駆動する制御コマンドに変換し、通信部53に送る。
通信部53では、選択されたロボットカメラ駆動部11
のIPアドレスとともに変換部55から送られてきた制
御コマンドをイーサネットのブロードキャストコマンド
を用いてイーサネットに送出する。
FIG. 11 is a schematic view showing a second embodiment of the operating device 50 according to the present invention. As shown in FIG. 11, the operating device 50 includes a communication unit 53, a voice input unit 54, and a conversion unit 5.
5 is provided. The operator selects the robot camera driving unit 11 to be moved via the voice input unit 54, and gives an instruction to adjust the robot camera to the selected robot camera driving unit 11. The voice input unit 54 converts the voice instruction of the operator into voice data and sends the voice data to the conversion unit 55. The conversion unit 55 uses the table created in advance to convert the voice data sent from the voice input unit 54 into the robot camera driving unit 11.
Is converted into a control command to drive the control command, and is sent to the communication unit 53.
In the communication unit 53, the selected robot camera driving unit 11
The control command sent from the conversion unit 55 together with the IP address of the packet is transmitted to the Ethernet using the broadcast command of the Ethernet.

【0040】本発明に係るロボットカメラ装置の各ユニ
ットからイーサネットに送出する情報のデータ構造の一
例を以下に説明する。
An example of the data structure of information transmitted from each unit of the robot camera device according to the present invention to the Ethernet will be described below.

【0041】位置検出部20がイーサネットに送出する
データは、位置検出部20自身のIPアドレスと、被写
体60を特定する被写体番号と、その被写体60の三次
元位置を示すX座標、Y座標、Z座標とから構成され
る。
The data sent from the position detecting section 20 to the Ethernet includes an IP address of the position detecting section 20 itself, a subject number for specifying the subject 60, an X coordinate, a Y coordinate, and a Z coordinate indicating the three-dimensional position of the subject 60. And coordinates.

【0042】状態検出部30がイーサネットに送出する
データは、状態検出部30自身のIPアドレスと、被写
体60を特定する被写体番号と、被写体60が話し手か
聞き手かを示すフラグと、話し手であればその発言時間
とから構成される。
The data sent from the state detection unit 30 to the Ethernet includes the IP address of the state detection unit 30 itself, a subject number for specifying the subject 60, a flag indicating whether the subject 60 is a speaker or a listener, and And the speech time.

【0043】ロボットカメラ駆動部11がイーサネット
に送出するデータは、ロボットカメラ駆動部11自身の
IPアドレスと、撮影している被写体番号と、その被写
体のサイズ(2S、BS、UPなど)と、ロボットカメ
ラの撮影モード(静止、追尾など)と、ロボットカメラ
のカメラデータ(画角、パン、チルト、ズーム、フォー
カス、アイリスなど)とから構成される。
The data transmitted from the robot camera driving unit 11 to the Ethernet includes the IP address of the robot camera driving unit 11 itself, the number of the subject being photographed, the size of the subject (2S, BS, UP, etc.), the robot It consists of a camera shooting mode (still, tracking, etc.) and camera data (angle of view, pan, tilt, zoom, focus, iris, etc.) of the robot camera.

【0044】シナリオサーバ40がイーサネットに送出
するデータは、シナリオサーバ40自身のIPアドレス
と、動作させるロボットカメラ駆動部のIPアドレス
と、制御コマンドとから構成される。
The data transmitted from the scenario server 40 to the Ethernet is composed of the IP address of the scenario server 40 itself, the IP address of the robot camera driving unit to be operated, and a control command.

【0045】操作機50がイーサネットに送出するデー
タは、操作機50自身のIPアドレスと、動作させるロ
ボットカメラ駆動部のIPアドレスと、制御コマンドと
から構成される。
The data transmitted by the operation device 50 to the Ethernet is composed of the IP address of the operation device 50 itself, the IP address of the robot camera driving section to be operated, and the control command.

【0046】シナリオサーバ40と操作機50とがイー
サネットに送出するデータ中の制御コマンドは撮影対象
となる被写体の番号と、その被写体のサイズと、ロボッ
トカメラの撮影モード(静止、追尾など)と、ロボット
カメラのカメラデータ(画角、パン、チルト、ズーム、
フォーカス、アイリスなど)とから構成される。
The control commands in the data sent from the scenario server 40 and the operation device 50 to the Ethernet include the number of the subject to be photographed, the size of the subject, the photographing mode (still, tracking, etc.) of the robot camera, Robot camera data (angle of view, pan, tilt, zoom,
Focus, iris, etc.).

【0047】なお、上述した本発明の実施形態において
は、司会者とゲストとが被写体としたテレビジョントー
ク番組の撮影を例として説明したが、本発明はこれに限
られるものではない。本発明は色々な番組制作、遠隔テ
レビ会議などに好適に適用することができる。また、操
作機50は省略してもよい。
In the above-described embodiment of the present invention, an example has been described in which a moderator and a guest photograph a television talk program as subjects, but the present invention is not limited to this. The present invention can be suitably applied to various program productions, remote video conferences, and the like. Further, the operation device 50 may be omitted.

【0048】[0048]

【発明の効果】以上のように本発明に係るロボットカメ
ラ装置によれば、通常の制作スタッフにより番組を撮影
する制作現場と同様な仕組みでの自動撮影を行うことが
できる。緊急時や必要が生じた時等に、制作スタッフが
ロボットカメラをリモートコントロールして動作させる
ことができるので、制作スタッフの意図通りの撮影がで
きる。よって、人数の少ない制作スタッフでたくさんの
映像を撮影することが可能であるため、効率的な制作を
実現することができると同時に映像表現の充実を図るこ
とができる。さらに、企業や学校がもつスタジオに本発
明に係るロボットカメラ装置を導入すれば、放送技術者
でない一般の人でもプロカメラマンのようなカメラワー
クで手軽に映像を撮影することができる。
As described above, according to the robot camera apparatus according to the present invention, it is possible to perform automatic photographing by the same mechanism as a production site for photographing a program by ordinary production staff. The production staff can remotely control and operate the robot camera in an emergency or when a need arises, so that the production staff can take pictures as intended. Therefore, since a large number of videos can be photographed by a small number of production staff, efficient production can be realized and at the same time, enhancement of video expression can be achieved. Furthermore, if the robot camera device according to the present invention is introduced into a studio owned by a company or a school, even ordinary people who are not broadcast engineers can easily shoot images with camera work like a professional photographer.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係るロボットカメラ装置の構成例を示
す概略図である。
FIG. 1 is a schematic diagram showing a configuration example of a robot camera device according to the present invention.

【図2】本発明に係る位置検出部20の主要な機能を示
すブロック図である。
FIG. 2 is a block diagram illustrating main functions of a position detection unit 20 according to the present invention.

【図3】本発明に係る位置検出部20の第一の実施形態
を示す概略図である。
FIG. 3 is a schematic diagram illustrating a first embodiment of a position detection unit 20 according to the present invention.

【図4】本発明に係る位置検出部20の第二の実施形態
を示す概略図である。
FIG. 4 is a schematic diagram showing a second embodiment of the position detection unit 20 according to the present invention.

【図5】本発明に係る状態検出部30の主要な機能を示
すブロック図である。
FIG. 5 is a block diagram showing main functions of a state detection unit 30 according to the present invention.

【図6】本発明に係る状態検出部30の実施形態を示す
概略図である。
FIG. 6 is a schematic diagram showing an embodiment of a state detection unit 30 according to the present invention.

【図7】本発明に係るロボットカメラ駆動部11の実施
形態を示す概略図である。
FIG. 7 is a schematic diagram showing an embodiment of a robot camera driving unit 11 according to the present invention.

【図8】2台のロボットカメラ駆動部11を用いた場合
の撮影手法の実施形態を示すフローチャートである。
FIG. 8 is a flowchart illustrating an embodiment of an imaging method when two robot camera driving units 11 are used.

【図9】本発明に係るシナリオサーバ40の実施形態を
示す概略図である。
FIG. 9 is a schematic diagram showing an embodiment of a scenario server 40 according to the present invention.

【図10】本発明に係る操作機50の第一の実施形態を
示す概略図である。
FIG. 10 is a schematic view showing a first embodiment of an operating device 50 according to the present invention.

【図11】本発明に係る操作機50の第二の実施形態を
示す概略図である。
FIG. 11 is a schematic view showing a second embodiment of the operating device 50 according to the present invention.

【符号の説明】[Explanation of symbols]

10 ロボットカメラ 11 ロボットカメラ駆動部 12 撮影用カメラ 20 位置検出部 21 位置情報取得手段 211 センサカメラ 212 超音波発信器 213 超音波受信器 22 位置情報処理通信手段 30 状態検出部 31 状態情報取得手段 311 マイク 312 アンプ 32 状態情報処理通信手段 40 シナリオサーバ 41 メモリ 50 操作機 51 スイッチ 52 操作部 53 通信部 54 音声入力部 55 変換部 60 被写体 DESCRIPTION OF SYMBOLS 10 Robot camera 11 Robot camera drive part 12 Imaging camera 20 Position detection part 21 Position information acquisition means 211 Sensor camera 212 Ultrasonic transmitter 213 Ultrasonic receiver 22 Position information communication means 30 State detection part 31 State information acquisition means 311 Microphone 312 Amplifier 32 State information communication means 40 Scenario server 41 Memory 50 Operation device 51 Switch 52 Operation unit 53 Communication unit 54 Voice input unit 55 Conversion unit 60 Subject

───────────────────────────────────────────────────── フロントページの続き (72)発明者 鈴木 尊人 東京都大田区北千束3丁目26番12号 株式 会社応用計測研究所内 (72)発明者 加藤 大一郎 東京都世田谷区砧1丁目10番11号日本放送 協会放送技術研究所内 (72)発明者 津田 貴生 東京都世田谷区砧1丁目10番11号日本放送 協会放送技術研究所内 (72)発明者 石川 秋男 東京都渋谷区神南2丁目2番1号日本放送 協会放送センター内 (72)発明者 井上 誠喜 東京都世田谷区砧1丁目10番11号日本放送 協会放送技術研究所内 (72)発明者 下田 茂 東京都世田谷区砧1丁目10番11号日本放送 協会放送技術研究所内 Fターム(参考) 2F069 AA04 AA66 BB40 DD25 GG04 GG07 GG09 MM04 5C022 AA01 AB61 AB62 AB63 AB65 AC27 AC71 AC72  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Takato Suzuki 3-26-12 Kita-senzuka, Ota-ku, Tokyo Inside the Applied Measurement Laboratory Co., Ltd. (72) Inventor Daiichiro Kato 1-10 Kinuta, Setagaya-ku, Tokyo 11 Japan Broadcasting Corporation Broadcasting Research Institute (72) Inventor Takao Tsuda 1-10-1 Kinuta, Setagaya-ku, Tokyo Japan Broadcasting Corporation Broadcasting Research Institute (72) Inventor Akio Ishikawa 2-2-2 Jinnan, Shibuya-ku, Tokyo No. 1 Inside Japan Broadcasting Corporation Broadcasting Center (72) Inventor Seiki Inoue 1-1-10-11 Kinuta, Setagaya-ku, Tokyo Inside Japan Broadcasting Corporation Broadcasting Research Institute (72) Inventor Shigeru Shimoda 1-110 Kinuta, Setagaya-ku, Tokyo No. Japan Broadcasting Corporation Broadcasting Research Institute F-term (reference) 2F069 AA04 AA66 BB40 DD25 GG04 GG07 GG09 MM04 5C022 AA01 AB61 AB62 AB63 AB65 AC27 AC71 AC72

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】撮影用カメラ及びロボットカメラ駆動部を
有する1以上のロボットカメラと、撮影範囲内における
被写体の3次元位置を計測する位置検出部と、前記被写
体の音声情報を含む状態検出用の情報を計測する状態検
出部と、番組特有のショットに関する撮影手法を含む種
々の撮影制御情報を綜合的に管理するシナリオサーバと
を備え、 前記1以上のロボットカメラ、前記位置検出部、前記状
態検出部、及び前記シナリオサーバがユニット化されて
分散配置されると共に、通信ネットワークを介して各ユ
ニット間で相互に通信できるように構成されていること
を特徴とするロボットカメラ装置。
1. A camera for photographing and one or more robot cameras having a robot camera driving section, a position detecting section for measuring a three-dimensional position of a subject within a photographing range, and a state detecting section including voice information of the subject. A state detection unit that measures information; and a scenario server that comprehensively manages various shooting control information including a shooting method related to a program-specific shot. The one or more robot cameras, the position detection unit, and the state detection A robot camera device, wherein the unit and the scenario server are unitized and distributed and arranged so that they can communicate with each other via a communication network.
【請求項2】前記ロボットカメラ駆動部は、自身のロボ
ットカメラのユニットを除く前記各ユニットからの情報
を受信し、該受信した情報に応じてカメラワークを制御
して当該被写体の撮影を自動的に行うことを特徴とする
請求項1に記載のロボットカメラ装置。
2. The robot camera driving section receives information from each of the units except for a robot camera unit of the robot camera itself, and controls a camera work in accordance with the received information to automatically capture an image of the subject. The robot camera device according to claim 1, wherein
【請求項3】前記ロボットカメラ駆動部は、番組制作者
の撮影手法の情報が予め組み込まれており、自身に割り
当てられたIPアドレスとともに、前記撮影用カメラの
向き、画角、位置を含む撮影情報を前記通信ネットワー
クに送出するようになっており、前記位置検出部は、自
身に割り当てられたIPアドレスとともに、前記被写体
の3次元位置の計測情報を前記通信ネットワークに送出
するようになっており、前記状態検出部は、自身に割り
当てられたIPアドレスとともに、前記被写体の音声情
報、話者の識別情報、発言時間の情報を前記通信ネット
ワークに送出するようになっており、前記シナリオサー
バは、自身に割り当てられたIPアドレスとともに、当
該番組特有のショットに関する撮影手法に対応する制御
コマンドを前記通信ネットワークに送出するようになっ
ていることを特徴とする請求項1又は2に記載のロボッ
トカメラ装置。
3. The robot camera driving section incorporates information of a photographing method of a program creator in advance, and includes an IP address assigned to the robot camera driving section, and a direction, an angle of view, and a position of the photographing camera. The position detector transmits the measurement information of the three-dimensional position of the subject to the communication network together with the IP address assigned to the position detector. The state detector, together with the IP address assigned to itself, the voice information of the subject, the identification information of the speaker, the information of the speech time, is sent to the communication network, the scenario server, Along with the IP address assigned to itself, a control command corresponding to a shooting method relating to a shot specific to the program is transmitted through the communication. Robot camera apparatus according to claim 1 or 2, characterized in that it adapted to deliver to the network.
JP2000383993A 2000-12-18 2000-12-18 Robot camera system Pending JP2002185837A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000383993A JP2002185837A (en) 2000-12-18 2000-12-18 Robot camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000383993A JP2002185837A (en) 2000-12-18 2000-12-18 Robot camera system

Publications (1)

Publication Number Publication Date
JP2002185837A true JP2002185837A (en) 2002-06-28

Family

ID=18851545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000383993A Pending JP2002185837A (en) 2000-12-18 2000-12-18 Robot camera system

Country Status (1)

Country Link
JP (1) JP2002185837A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2421391A (en) * 2004-12-17 2006-06-21 Hitachi Ltd Image providing service system
JP2008072702A (en) * 2006-08-18 2008-03-27 Nippon Hoso Kyokai <Nhk> Device for controlling photographic shot and program for controlling photographic shot
JP2008160550A (en) * 2006-12-25 2008-07-10 Nippon Hoso Kyokai <Nhk> Photographic shot candidate setting device, and photographic shot candidate setting program
JP2010074327A (en) * 2008-09-17 2010-04-02 Nippon Hoso Kyokai <Nhk> Photographic shot controller, cooperative photographing system and program therefor
US7880766B2 (en) 2004-02-03 2011-02-01 Panasonic Corporation Detection area adjustment apparatus
US7956900B2 (en) 2005-06-01 2011-06-07 Pioneer Corporation Video delivery device, video delivery method, video delivery program and recording medium
WO2017154953A1 (en) * 2016-03-08 2017-09-14 ソニー株式会社 Information processing device, information processing method, and program
JP2017181417A (en) * 2016-03-31 2017-10-05 沖電気工業株式会社 Information processing device, method, and system

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7880766B2 (en) 2004-02-03 2011-02-01 Panasonic Corporation Detection area adjustment apparatus
US7479987B2 (en) 2004-12-17 2009-01-20 Hitachi, Ltd. Image providing service system
GB2421391A (en) * 2004-12-17 2006-06-21 Hitachi Ltd Image providing service system
GB2421391B (en) * 2004-12-17 2010-07-07 Hitachi Ltd Image providing service system
US7956900B2 (en) 2005-06-01 2011-06-07 Pioneer Corporation Video delivery device, video delivery method, video delivery program and recording medium
JP2008072702A (en) * 2006-08-18 2008-03-27 Nippon Hoso Kyokai <Nhk> Device for controlling photographic shot and program for controlling photographic shot
JP2008160550A (en) * 2006-12-25 2008-07-10 Nippon Hoso Kyokai <Nhk> Photographic shot candidate setting device, and photographic shot candidate setting program
JP4664897B2 (en) * 2006-12-25 2011-04-06 日本放送協会 Shooting shot candidate setting device and shooting shot candidate setting program
JP2010074327A (en) * 2008-09-17 2010-04-02 Nippon Hoso Kyokai <Nhk> Photographic shot controller, cooperative photographing system and program therefor
WO2017154953A1 (en) * 2016-03-08 2017-09-14 ソニー株式会社 Information processing device, information processing method, and program
JPWO2017154953A1 (en) * 2016-03-08 2019-01-17 ソニー株式会社 Information processing apparatus, information processing method, and program
US10652449B2 (en) 2016-03-08 2020-05-12 Sony Corporation Information processing apparatus, information processing method, and program
JP2017181417A (en) * 2016-03-31 2017-10-05 沖電気工業株式会社 Information processing device, method, and system

Similar Documents

Publication Publication Date Title
US11418758B2 (en) Multiple simultaneous framing alternatives using speaker tracking
US9883143B2 (en) Automatic switching between dynamic and preset camera views in a video conference endpoint
US9426379B2 (en) Photographing unit, cooperative photographing method, and recording medium having recorded program
JP2007158860A (en) Photographing system, photographing device, image switching device, and data storage device
WO2018209879A1 (en) Method and device for automatically selecting camera image, and audio and video system
JP2010533416A (en) Automatic camera control method and system
US11076127B1 (en) System and method for automatically framing conversations in a meeting or a video conference
CN103595953A (en) Method and device for controlling video shooting
JPH08163522A (en) Video conference system and terminal equipment
JP2002185837A (en) Robot camera system
JPH05244587A (en) Camera controller for television conference
JP2010135983A (en) Photographing device, communication terminal, server, photographing method, and communication method
JP2009017330A (en) Video conference system, video conference method, and video conference program
WO2011108377A1 (en) Coordinated operation apparatus, coordinated operation method, coordinated operation control program and apparatus coordination system
Winkler et al. Automatic camera control for tracking a presenter during a talk
EP4075794A1 (en) Region of interest based adjustment of camera parameters in a teleconferencing environment
US20030052962A1 (en) Video communications device and associated method
JP2010004480A (en) Imaging apparatus, control method thereof and program
JPH10136246A (en) Camera control system, camera management equipment and method for the system, camera operation device and method, and storage medium
JPH04309087A (en) Video camera controller
JPH0983856A (en) Intelligent camera equipment
KR100264035B1 (en) Method and device of perceiving a voice in a monitor
JP2003284050A (en) Television monitoring system
JP2010087613A (en) Presentation-image distribution system
JPH02202275A (en) Video conference system