JP2010028501A - Television camera system - Google Patents

Television camera system Download PDF

Info

Publication number
JP2010028501A
JP2010028501A JP2008188160A JP2008188160A JP2010028501A JP 2010028501 A JP2010028501 A JP 2010028501A JP 2008188160 A JP2008188160 A JP 2008188160A JP 2008188160 A JP2008188160 A JP 2008188160A JP 2010028501 A JP2010028501 A JP 2010028501A
Authority
JP
Japan
Prior art keywords
television camera
television
camera
image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008188160A
Other languages
Japanese (ja)
Inventor
Keizo Kitamura
啓造 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Systems Inc
Original Assignee
Nikon Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Systems Inc filed Critical Nikon Systems Inc
Priority to JP2008188160A priority Critical patent/JP2010028501A/en
Publication of JP2010028501A publication Critical patent/JP2010028501A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a television camera system capable of calculating the direction of an image capturing camera which is going to subsequently capture an image from an image obtained by a television camera, and presenting the calculated direction to a subject of photographing. <P>SOLUTION: The television camera system 200 has: a plurality of television cameras 103-105 each for capturing images of a subject of photographing; position detecting sensors 103c-105c and auxiliary display devices 103b-105b attached to the television cameras respectively; a switcher 208 for switching the television cameras 103-105; and an image processing apparatus 211. In the television camera system, when the television camera is switched by the switcher 208, the image processing apparatus 211 detects the face of the subject of photographing to determine the direction of visual line of the subject of photographing, and causes the auxiliary display devices 103b-105b to display the direction of the switched television camera viewed from the television camera positioned in the direction of the visual line. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、テレビジョンカメラシステムに関する。   The present invention relates to a television camera system.

スタジオでの収録の際に、アナウンサー等の被撮影者に、この被撮影者自身の映像がオンエア中であることを知らせるための工夫や、どのテレビジョンカメラで撮影されているかを知らせるための工夫がなされている。そして、従来は、被撮影者のカメラ目線を得るために、人間であるアシスタント等が、被撮影者に指示を出すことが行われていた。このように、人間が指示を出す場合には、撮影しているテレビジョンカメラの方向を誤って指示してしまい、被撮影者が、撮影しているカメラにスムーズに目線を合わせることができなかったり、指示を出している本人が、オンエア中の画像に写ってしまったりするなどの問題があった。そこで、被撮影者に対し、注意を喚起する表示を簡単な方法で、確実にこの被撮影者に知らせる装置を提供する工夫がなされてきている(例えば、特許文献1参照)。
特開2004−044488号公報
When recording in the studio, a device to inform the photographer, such as an announcer, that the image of the photographer himself is on air, and a device to inform which television camera the film is being shot Has been made. Conventionally, a human assistant or the like has given instructions to the subject in order to obtain the subject's view of the camera. Thus, when a human gives an instruction, the direction of the television camera being photographed is mistakenly designated, and the photographed person cannot smoothly focus on the camera being photographed. There was a problem that the person who issued the instruction was reflected in the image on the air. In view of this, a device has been devised to provide a device that reliably informs the subject to be photographed with a simple method of alerting the subject to be photographed (see, for example, Patent Document 1).
JP 2004-044488 A

しかしながら、従来の方式では常に人手が介在するため、被撮影者への指示操作を、臨機応変に対応するためには習熟が必要であるという課題があった。   However, since the conventional method always involves manpower, there has been a problem that it is necessary to master the instruction operation to the photographed person in order to respond to the occasion.

本発明は、このような課題に鑑みてなされたものであり、複数のテレビジョンカメラから得られた画像に基づいて、被撮影者の目線を、次に撮影するテレビジョンカメラの方向に素早く向けることができるように支援するための指示を表示することができるテレビジョンカメラシステムを提供することを目的とする。   The present invention has been made in view of such a problem, and based on images obtained from a plurality of television cameras, the subject's eyes are quickly directed toward the television camera to be photographed next. An object of the present invention is to provide a television camera system capable of displaying an instruction for assisting the user so that the user can perform the operation.

前記課題を解決するため、本発明に係るテレビジョンカメラシステムは、被撮影者を撮影する複数のテレビジョンカメラと、これらの複数のテレビジョンカメラに取り付けられ、当該複数のテレビジョンカメラの各々の位置を検出する位置検出センサと、複数のテレビジョンカメラに取り付けられ、複数のテレビジョンカメラの内で次に撮影を行うテレビジョンカメラを表示して被撮影者に提示する表示部と、複数のテレビジョンカメラの中から1台を選択して切り替えるスイッチャーと、表示部の表示を制御する画像処理装置と、を有して構成される。そして、画像処理装置は、スイッチャーにより複数のテレビジョンカメラの中のいずれか一台から、残りのテレビジョンカメラのうちの一台に切り替えられたときに、テレビジョンカメラの各々で撮影した画像から被撮影者の顔を検出して当該被撮影者の目線の方向を判断し、位置検出センサから複数のテレビジョンカメラの各々の位置を取得し、当該位置に基づいて、目線の方向に位置するテレビジョンカメラから見た、切り替えられたテレビジョンカメラの方向を算出し、目線の方向に位置するテレビジョンカメラの表示部に、算出された切り替えられたテレビジョンカメラの方向を表示するように構成される。   In order to solve the above problems, a television camera system according to the present invention includes a plurality of television cameras for photographing a person to be photographed, and the plurality of television cameras, and each of the plurality of television cameras. A position detection sensor for detecting a position, a display unit that is attached to a plurality of television cameras, displays a television camera to be photographed next among the plurality of television cameras, and presents it to the subject; It comprises a switcher that selects and switches one of the television cameras, and an image processing device that controls display on the display unit. Then, the image processing device uses an image captured by each of the television cameras when the switcher switches from any one of the plurality of television cameras to one of the remaining television cameras. The face of the subject is detected by detecting the face of the subject, the position of each of the plurality of television cameras is acquired from the position detection sensor, and the direction of the eye is located based on the position. The direction of the switched television camera viewed from the television camera is calculated, and the calculated direction of the switched television camera is displayed on the display unit of the television camera located in the direction of the line of sight Is done.

このようなテレビジョンカメラシステムは、複数の被撮影者の顔を含む画像データを記憶する画像検出パラメータ記憶部を有し、画像処理装置は、テレビジョンカメラが撮影した画像から検出された被撮影者の顔が、画像検出パラメータ記憶部に記憶された複数の画像データのいずれかと一致するか否かを判断し、一致する場合に、表示部に切り替えられたテレビジョンカメラの方向を表示するように構成されることが好ましい。   Such a television camera system has an image detection parameter storage unit that stores image data including the faces of a plurality of subjects, and the image processing apparatus detects a subject to be detected detected from an image captured by the television camera. It is determined whether or not the person's face matches any of the plurality of image data stored in the image detection parameter storage unit, and if they match, the direction of the switched television camera is displayed on the display unit. Preferably it is comprised.

また、このようなテレビジョンカメラシステムにおいて、画像処理装置は、画像検出パラメータ記憶部に記憶された複数の画像データから1の画像データを指定して、当該指定された画像データと一致する被撮影者の顔が、テレビジョンカメラで撮影した画像に含まれていた場合に、表示部に切り替えられたテレビジョンカメラの方向を表示するように構成されることが好ましい。   In such a television camera system, the image processing apparatus designates one image data from a plurality of image data stored in the image detection parameter storage unit, and takes an image that matches the designated image data. When the person's face is included in an image photographed by the television camera, the direction of the television camera switched to the display unit is preferably displayed.

本発明に係るテレビジョンカメラシステムを以上のように構成すると、例えば、スタジオでの収録において出演者等の被撮影者が、現在撮影していないテレビジョンカメラを注視している場合に現在撮影しているテレビジョンカメラの方向を、表示部により表示して被撮像者に提示することにより、被撮影者が当該テレビジョンカメラを素早く認知できるよう支援でき、この被撮影者のカメラ目線を得やすくすることができる。   When the television camera system according to the present invention is configured as described above, for example, when a subject such as a performer in a recording in a studio is gazing at a television camera that is not currently photographed, the current photographing is performed. By displaying the direction of the television camera being displayed on the display unit and presenting it to the person to be imaged, it is possible to assist the person to be photographed in quickly recognizing the television camera, and it is easy to obtain the camera eye of the person to be photographed can do.

以下、本発明の好ましい実施形態について図面を参照して説明する。ます、図1〜図3を用いて、本実施形態におけるテレビジョンカメラシステム200の構成について説明する。なお、本実施形態において、このテレビジョンカメラシステム200は、スタジオ内におけるテレビジョンカメラ(以下、図面上では、単にカメラともいう)に用いたシステムの構成として説明する。まず、図1に示すように、スタジオ内には、複数のテレビジョンカメラが設置されており(ここでは、標準テレビジョンカメラが3台設置された例を示している)、出演者である被撮影者101、102が、3台のテレビジョンカメラ103〜105で撮影されている。3台のテレビジョンカメラは、それぞれ、テレビジョンカメラA103、テレビジョンカメラB104、及び、テレビジョンカメラC105で構成され、これらは、スタジオ内において、互いにある程度の距離を開けて、被撮影者101,102を撮影し易い位置に配置されている。テレビジョンカメラA103〜テレビジョンカメラC105は、各々、スタジオ内において予め決められた所定の位置を原点と定め、その原点からの位置を絶対位置として検出する位置検出センサ103c〜105cを備えており、この位置検出センサ103c〜105cで検出された位置が、後述するシステム制御部に通知されるようになっている。例えば、テレビジョンカメラA103〜テレビジョンカメラC105の各々の台座に、位置検出センサ103c〜105cとしてロータリーエンコーダが内蔵されており、スタジオ内の所定の位置を原点として、これを最初の位置として記憶しておき、天井から見た場合のテレビジョンカメラA103〜テレビジョンカメラC105の位置をX,Y座標で管理することにより、テレビジョンカメラA103〜テレビジョンカメラC105の絶対位置を検出可能に構成されている。そして、このようにして検出した各テレビジョンカメラA103〜テレビジョンカメラC105の絶対位置が、後述するシステム制御部に通知されるようになっている。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. First, the configuration of the television camera system 200 according to the present embodiment will be described with reference to FIGS. In the present embodiment, the television camera system 200 will be described as a system configuration used for a television camera in a studio (hereinafter, also simply referred to as a camera in the drawings). First, as shown in FIG. 1, a plurality of television cameras are installed in the studio (here, an example in which three standard television cameras are installed) is shown. The photographers 101 and 102 are photographed by the three television cameras 103 to 105. Each of the three television cameras includes a television camera A103, a television camera B104, and a television camera C105, which are separated from each other by a certain distance in the studio. 102 is arranged at a position where it is easy to photograph. Each of the television camera A103 to the television camera C105 includes position detection sensors 103c to 105c that determine a predetermined position in the studio as an origin and detect the position from the origin as an absolute position. The positions detected by the position detection sensors 103c to 105c are notified to a system control unit described later. For example, each of the pedestals of the television camera A103 to the television camera C105 has a built-in rotary encoder as the position detection sensors 103c to 105c, and stores a predetermined position in the studio as the origin and stores it as the initial position. The absolute positions of the television camera A103 to the television camera C105 can be detected by managing the positions of the television camera A103 to the television camera C105 with X and Y coordinates when viewed from the ceiling. Yes. Then, the absolute positions of the television cameras A103 to C105 detected in this way are notified to a system control unit described later.

図2に示すテレビジョンカメラシステム200において、CCU入力A202、CCU入力B203、及び、CCU入力C204は、図1のテレビジョンカメラA103〜テレビジョンカメラC105と接続されており、これらのCCU入力A202、CCU入力B203、及び、CCU入力C204はテレビジョンカメラA103〜テレビジョンカメラC105の映像出力である。このCCU入力A202〜CCU入力C204の各々は、CCU(カメラコントロールユニット)205、206,207に接続されており、テレビジョンカメラA103〜テレビジョンカメラC105からのRGB信号に対して各種補正処理を行う機能、及び、カメラヘッドエンド調整をリモートで行う機能を備えている。   In the television camera system 200 shown in FIG. 2, the CCU input A202, the CCU input B203, and the CCU input C204 are connected to the television camera A103 to the television camera C105 of FIG. A CCU input B203 and a CCU input C204 are video outputs of the television camera A103 to the television camera C105. Each of the CCU input A202 to CCU input C204 is connected to a CCU (camera control unit) 205, 206, and 207, and performs various correction processes on the RGB signals from the television camera A103 to the television camera C105. And a function for remotely adjusting the camera head end.

スイッチャー208は、オペレータの操作により、テレビジョンカメラA103〜テレビジョンカメラC105が撮影した映像を逐次切り替えて、番組制作の演出を行うためのものである。このスイッチャー208からの出力信号であるスイッチャー出力209は、ディレクタが画像に効果を入れたり、カメラスイッチングを行ったりした映像の映像プログラム出力信号であり、VTRなどの機器へ接続されると同時に画像処理装置211へも出力されるように構成されている。   The switcher 208 is for performing the production of the program by sequentially switching the images taken by the television camera A103 to the television camera C105 by the operation of the operator. The switcher output 209, which is an output signal from the switcher 208, is a video program output signal of an image in which the director puts an effect on the image or performs camera switching, and image processing is performed simultaneously with connection to a device such as a VTR. It is configured to be output also to the device 211.

タリー出力210は、スイッチャー208において現在選択されている映像系統を示す信号として画像処理装置211に出力される。この画像処理装置211は、CCU205〜CCU207の出力から得られた映像信号に対して画像処理を実施し、被写体の顔検出を行うと共に、直前に利用していたテレビジョンカメラと次に使用するテレビジョンカメラとの相対位置を計算し、その計算結果をタリー制御信号214として、テレビジョンカメラA103〜テレビジョンカメラC105に取り付けられた表示部であるタリーランプ103a〜105aおよび補助表示装置103b〜105bへ出力するように構成されている。   The tally output 210 is output to the image processing apparatus 211 as a signal indicating the video system currently selected by the switcher 208. The image processing apparatus 211 performs image processing on the video signals obtained from the outputs of the CCUs 205 to CU207, detects the face of the subject, and uses the television camera used immediately before and the next television to be used. The relative position with respect to the John camera is calculated, and the calculation result is used as the tally control signal 214 to the tally lamps 103a to 105a and the auxiliary display devices 103b to 105b which are display units attached to the television camera A103 to the television camera C105. It is configured to output.

コントロールパネル212は、画像処理装置211を操作して、必要に応じてタリーランプ点灯の許可や、禁止の切り替えを行うことができ、また、テレビジョンカメラA103〜テレビジョンカメラC105毎の補助表序装置103b〜105bの操作を手動で行うために用意されているものである。また、操作モニタ213は、コントロールパネル212の操作結果と画像処理装置211の現在状態などの情報の表示を行うことができるように構成されている。   The control panel 212 can operate the image processing device 211 to allow or disable the tally lamp to be turned on and off as necessary, and the auxiliary table for each of the television cameras A103 to C105. It is prepared for manually operating the devices 103b to 105b. The operation monitor 213 is configured to display information such as the operation result of the control panel 212 and the current state of the image processing apparatus 211.

このテレビジョンカメラシステム200における画像処理部211は、図3に示すような構成を有しており、図1で示したテレビジョンカメラA103〜テレビジョンカメラC105で撮影された映像(画像ともいう)は、それぞれ映像入力信号401,402,403として、Aカメラ映像入力処理部411、Bカメラ映像入力処理部412、及び、Cカメラ映像入力処理部413に入力される。また、プログラム出力映像入力処理部414には、プログラム及び各機器からの映像出力信号404が入力される。Aカメラ映像入力処理部411、Bカメラ映像入力処理部412、Cカメラ映像入力処理部413、及び、プログラム出力映像入力処理部414は、後述する各処理に適した形式へ映像信号を変換するように構成されている。例えば、アナログビデオ入力信号である場合は、A/D変換などによりデジタル符号化を行い、後段処理におけるデータフォーマットに適した形式へと変換される。   The image processing unit 211 in the television camera system 200 has a configuration as shown in FIG. 3, and a video (also referred to as an image) taken by the television camera A103 to the television camera C105 shown in FIG. Are input to the A camera video input processing unit 411, the B camera video input processing unit 412, and the C camera video input processing unit 413 as video input signals 401, 402, and 403, respectively. The program output video input processing unit 414 receives a program and a video output signal 404 from each device. The A camera video input processing unit 411, the B camera video input processing unit 412, the C camera video input processing unit 413, and the program output video input processing unit 414 convert the video signal into a format suitable for each processing described later. It is configured. For example, in the case of an analog video input signal, it is digitally encoded by A / D conversion or the like and converted into a format suitable for a data format in subsequent processing.

Aカメラ顔検出部421、Bカメラ顔検出部422、Cカメラ顔検出部423、及び、プログラム出力顔検出部424は、それぞれ後述する顔検出処理を行い、その前処理側に位置するAカメラ映像入力処理部411、Bカメラ映像入力処理部412、Cカメラ映像入力処理部413、及び、プログラム出力映像入力処理部414から入力された映像信号の情報を検出する処理を行うようになっている。ここで、画像処理を行い、画像から顔を検出する方法には、多くの方法が提案されており、本実施形態では、特に限定されないが、例えば、図3に示すように、画像検出パラメータテーブルを記憶する画像検出パラメータ記憶部425と、その他のパラメータテーブルを記憶するその他パラメータ記憶部435と、に顔検出のためのパラメータを記憶し、後述するシステム制御部415で行う各処理や、その他処理部で行う処理によりこのパラメータを参照して、所定の検出処理方法により画像から顔検出を行うことができる。   The A camera face detection unit 421, the B camera face detection unit 422, the C camera face detection unit 423, and the program output face detection unit 424 each perform face detection processing to be described later, and the A camera image located on the preprocessing side A process for detecting information of video signals input from the input processing unit 411, the B camera video input processing unit 412, the C camera video input processing unit 413, and the program output video input processing unit 414 is performed. Here, many methods have been proposed as a method of performing image processing and detecting a face from an image. In the present embodiment, although not particularly limited, for example, as shown in FIG. Parameters for face detection are stored in the image detection parameter storage unit 425 for storing the parameters, and the other parameter storage unit 435 for storing other parameter tables. The face can be detected from the image by a predetermined detection processing method with reference to this parameter by the processing performed by the unit.

図4及び図5には、顔検出方法の一例を示すためのパラメータテーブルの内容が示されており、画像検出パラメータテーブル425には、データ名カラム425aの各データ名に対応して、その内容が内容カラム425bに記憶されている。この内容カラム425bには、例えば、検出された人物の顔の数(顔検出数)、検出された画像中における人物毎の顔の位置を示しているレクタングル対角座標(検出X位置(1)、検出Y位置(1)など)、視線が撮像方向に向いているかの情報(検出顔の「カメラ目線」有無)、すでに登録された人物の顔検出の有無(登録者の有無)が記憶されている。そして、これらに対応して、型カラム425cに各内容に対応したデータの型の情報が記憶されている。さらに、その他のパラメータテーブル435には、該システムの設置時に設定するパラメータやカメラスイッチングに伴う変化が反映された値を示すデータが記憶されるようになっており、パラメータ名カラム435a、設定値カラム435b、及び、データ型カラム435cから構成されている。   4 and 5 show the contents of a parameter table for showing an example of a face detection method, and the image detection parameter table 425 has its contents corresponding to each data name in the data name column 425a. Is stored in the content column 425b. The content column 425b includes, for example, the number of detected human faces (the number of detected faces), and rectangle diagonal coordinates (detected X position (1)) indicating the position of each person's face in the detected image. , Detection Y position (1), etc.), information indicating whether the line of sight is in the imaging direction (presence / absence of “detection of the camera” of the detected face), presence / absence of presence / absence detection of a registered person (presence / absence of registrant) ing. Corresponding to these, information on the data type corresponding to each content is stored in the type column 425c. Further, the other parameter table 435 stores data indicating parameters set at the time of installation of the system and values reflecting changes due to camera switching, and includes a parameter name column 435a and a set value column. 435b and a data type column 435c.

システム制御部415は、このテレビジョンカメラシステム200の制御全体を司り、スイッチャー選択タリー入力信号405、各映像入力処理部411〜414、各顔検出部421〜424、カメラタリー出力/補助表示出力制御部426、操作モニタ制御部416、及び、操作パネルI/F406を制御する。また、スイッチャー選択タリー入力信号405は、スイッチャー208が選択している入力プログラムに対応したタリー出力を得るように構成されている。また、カメラタリー出力/補助表示出力制御部426は、スイッチャー選択タリー入力信号405からのバイパスと、システム制御部415によって決定された内容に従った補助表示出力を行い、テレビジョンカメラA103、テレビジョンカメラB104、及び、テレビジョンカメラC105の各々へのタリー出力/補助表示出力信号407、417、427を得るように構成されている。なお、タリー出力/補助表示出力信号407、417、427に基づいて、テレビジョンカメラA103、テレビジョンカメラB104、テレビジョンカメラC105の各々に備わる補助表示装置103b〜105b(図8参照)の表示を変更させるが、この補助表示装置103b〜105bの表示の変更は、フレーム毎に検出された結果に基づいて変更されると、頻繁に表示が変更されることとなり、視覚上フリッカとして現れたアシスト表示としては、不安定な状態となってしまうことから、一定時間以下の周期変化に対して、不感として、前の状態を保持した出力となるように設定されている。また、操作モニタ制御部416は、オペレータが操作するディスプレイの制御を行うように構成されている。ディスプレイには、現在、追尾している顔の状態や、各カメラの状態が表示され、また、追尾モードの入/切や追尾対象人物の登録等の処理をインタラクティブに行い、操作モニタ出力437の映像信号としてディスプレイに出力される。さらに、操作パネルインターフェース406は、操作モニタ制御部416とのインタラクティブ操作に対応した操作スイッチ群である。   The system control unit 415 controls the entire television camera system 200. The switcher selection tally input signal 405, the video input processing units 411 to 414, the face detection units 421 to 424, camera tally output / auxiliary display output control. Unit 426, operation monitor control unit 416, and operation panel I / F 406 are controlled. The switcher selection tally input signal 405 is configured to obtain a tally output corresponding to the input program selected by the switcher 208. The camera tally output / auxiliary display output control unit 426 performs bypass display from the switcher selection tally input signal 405 and auxiliary display output according to the contents determined by the system control unit 415, and performs television camera A103, television It is configured to obtain tally output / auxiliary display output signals 407, 417, and 427 to each of the camera B104 and the television camera C105. In addition, based on the tally output / auxiliary display output signals 407, 417, and 427, the displays of the auxiliary display devices 103b to 105b (see FIG. 8) provided in each of the television camera A103, the television camera B104, and the television camera C105 are displayed. Although the display of the auxiliary display devices 103b to 105b is changed based on the result detected for each frame, the display is frequently changed, and the assist display that appears as visual flicker is changed. Since it becomes an unstable state, it is set so as to be insensitive to a period change of a certain time or less and to output the previous state. The operation monitor control unit 416 is configured to control a display operated by the operator. On the display, the status of the currently tracked face and the status of each camera are displayed, and processing such as on / off of the tracking mode and registration of the tracking target person are performed interactively, and the operation monitor output 437 It is output to the display as a video signal. Further, the operation panel interface 406 is an operation switch group corresponding to an interactive operation with the operation monitor control unit 416.

システム制御部415に入力される信号としては、さらにテレビジョンカメラA103、テレビジョンカメラB104、及び、テレビジョンカメラC105に各々搭載されたロータリーエンコーダ等の位置検出センサ103a〜105aにより検出された位置情報の信号である位置入力信号441、442、443がある。ここで、テレビジョンカメラA103〜テレビジョンカメラC105の初期位置は、別途テレビジョンカメラ側で調整が行われ、システム制御部415は、テレビジョンカメラA103〜テレビジョンカメラC105の位置を、スタジオ内において設定された原点からの絶対位置として常に保持するように構成されている。   As the signals input to the system control unit 415, position information detected by position detection sensors 103a to 105a such as rotary encoders mounted on the television camera A103, the television camera B104, and the television camera C105, respectively. Are position input signals 441, 442, and 443. Here, the initial positions of the television camera A103 to the television camera C105 are separately adjusted on the television camera side, and the system control unit 415 determines the positions of the television camera A103 to the television camera C105 in the studio. The absolute position from the set origin is always held.

本実施の形態のテレビジョンカメラシステム200の構成等は、以上のようになっており、次にこのテレビジョンカメラシステム200における処理手順を図6〜図11を用いて説明した後に、詳細な処理ついては、図12〜図15を用いて説明する。   The configuration of the television camera system 200 according to the present embodiment is as described above. Next, the processing procedure in the television camera system 200 will be described with reference to FIGS. This will be described with reference to FIGS.

(画像撮影システム処理)
図6及び図7は本テレビジョンカメラシステム200における処理手順を示したフローチャートであり、このテレビジョンカメラシステム200が開始されると、ステップS100で、初期化が行われる。つまり、画像処理装置211のシステム制御部415は、システムの動作に必要な初期設定を行う。次に、ステップS101で映像信号が存在するか否かが確認される。つまり、現在、システム制御部415は、テレビジョンカメラA103〜テレビジョンカメラC105で、被撮影者101,102(図1参照)の撮影が開始されているかの判断を行う。このステップS101で、入力された映像信号が無いなど異常が検知されるとステップS102でエラー通知がされ、操作モニタ制御部416を介して、操作モニタ213にエラーが表示される。一方、映像信号が入力されていると判断されると、ステップS103に進み、現在選択されているテレビジョンカメラA103〜テレビジョンカメラC105の状態が、スイッチャー208を介して、タリー出力信号210として、画像処理装置211に出力される。例えば、図8は、各テレビジョンカメラA103〜テレビジョンカメラC105に備わるタリーランプ103a〜105a及び補助表示装置103b〜105bを示している。ここでは、テレビジョンカメラA103のタリーランプ103aが、点灯している状態であり、スイッチャー208において選択されているテレビジョンカメラがテレビジョンカメラA103であることを示している。ここで、画像処理装置211のシステム制御部415が取得する内容は、現在のカメラ台数、カメラの位置、及び、スイッチャー208によって選択されているタリー信号の状態である。
(Image capture system processing)
6 and 7 are flowcharts showing a processing procedure in the television camera system 200. When the television camera system 200 is started, initialization is performed in step S100. That is, the system control unit 415 of the image processing apparatus 211 performs initial settings necessary for system operation. Next, in step S101, it is confirmed whether a video signal exists. In other words, the system control unit 415 determines whether or not photographing of the photographed persons 101 and 102 (see FIG. 1) is currently started by the television camera A103 to the television camera C105. If an abnormality such as the absence of an input video signal is detected in step S101, an error notification is given in step S102, and an error is displayed on the operation monitor 213 via the operation monitor control unit 416. On the other hand, if it is determined that a video signal is input, the process proceeds to step S103, and the statuses of the currently selected television camera A103 to television camera C105 are set as the tally output signal 210 via the switcher 208. The image is output to the image processing apparatus 211. For example, FIG. 8 shows tally lamps 103a to 105a and auxiliary display devices 103b to 105b included in the television cameras A103 to C105. Here, the tally lamp 103a of the television camera A103 is lit, indicating that the television camera selected by the switcher 208 is the television camera A103. Here, the contents acquired by the system control unit 415 of the image processing apparatus 211 are the current number of cameras, the position of the cameras, and the state of the tally signal selected by the switcher 208.

次に、ステップS104に進み、後述する顔検出処理(図12参照)が行われる。この顔検出処理の工程は、各カメラの画像から人物の顔を検出する処理であり、各テレビジョンカメラ103〜105が撮影した被撮影者の画像を同時に処理する構成となっている。つまり、上述したように、画像処理部211には、テレビジョンカメラA103〜テレビジョンカメラC105からの各画像が入力される映像入力処理部411〜413と、その画像の入力信号を使って各々の顔検出を行う顔検出部421〜423とによって、同時に顔検出処理を行うことができる構成となっている。そして、ステップS105で人物の顔が検出されたか否かが判断され、検出された場合には、次のステップS106に進み、検出された顔の特徴量を取得する。一方、人物の顔が検出されなかった場合には、ステップS115で、後述する未検出タイマ処理が行われる(図14)。ステップS106で検出された顔の特徴量が取得されると、図4の画像検出パラメータテーブル425が参照され、その特徴量から顔位置が判明するので、次のステップS107に進み、操作モニタ213に顔位置の表示を行う。さらに、ステップS108に進み、図4の画像検出パラメータテーブル425を参照して、検出された顔が、登録されている人物のデータであるかを判断する。   In step S104, face detection processing (see FIG. 12) described later is performed. This face detection process is a process for detecting the face of a person from the images of the respective cameras, and is configured to simultaneously process the images of the photographed person taken by the respective television cameras 103 to 105. That is, as described above, the image processing unit 211 uses the video input processing units 411 to 413 to which the images from the television camera A103 to the television camera C105 are input, and the input signals of the images. The face detection units 421 to 423 that perform face detection can simultaneously perform face detection processing. In step S105, it is determined whether or not a person's face has been detected. If detected, the process proceeds to the next step S106 to acquire the feature amount of the detected face. On the other hand, if a human face is not detected, an undetected timer process described later is performed in step S115 (FIG. 14). When the facial feature amount detected in step S106 is acquired, the image detection parameter table 425 in FIG. 4 is referred to, and the face position is determined from the feature amount. Therefore, the process proceeds to the next step S107, and the operation monitor 213 is displayed. Displays the face position. In step S108, the image detection parameter table 425 shown in FIG. 4 is referred to, and it is determined whether the detected face is data of a registered person.

ステップS108で、登録された人物のデータと一致しない場合、つまり、登録されていない人物である場合には、ステップS112に進み、オペレータにより、操作モニタ213を介して、当該検出された顔の人物の登録を指示しているか否かが判断され、当該検出された顔の人物の登録を指示していると判断されると、ステップS113に進む。ステップS113では、後述するように、検出された任意の人物の選択処理の工程が行われる(図13参照)。次に、ステップS114に進み、選択された顔情報を登録し、ステップS101に戻り、上述の処理を続行するようになっている。ステップS114で登録した顔情報は、画像検出パラメータ記憶部(画像検出パラメータテーブル)425に登録され、以後、この登録された人物の顔データも使用することができるようになる。このように、任意の人物の顔情報の登録等ができるので、被撮影者101,102が変更された場合においても、この画像撮影システム200は容易に対応することが可能である。   If it is determined in step S108 that the data does not match the registered person data, that is, if the person is not registered, the process proceeds to step S112, and the operator detects the detected face person via the operation monitor 213. If it is determined whether or not the registration of the detected person is instructed, the process proceeds to step S113. In step S113, as will be described later, a process of selecting an arbitrary detected person is performed (see FIG. 13). In step S114, the selected face information is registered, the process returns to step S101, and the above-described processing is continued. The face information registered in step S114 is registered in the image detection parameter storage unit (image detection parameter table) 425, and the registered person's face data can be used thereafter. As described above, since the face information of an arbitrary person can be registered, the image capturing system 200 can easily cope with changes in the subjects 101 and 102.

また、ステップS112で、オペレータにより、操作モニタ213を介して、当該検出された顔の人物の登録を指示していないと判断されると、また、上述のように、ステップS105において、人物の顔が検出されていないと判断されると、ステップS115に進み、後述する未検出タイマ処理の工程が行われ、次いで、ステップS116に進み未検出タイマが0か否かが判断され、0でない場合はステップS101に戻る。ここで、ステップ112で、登録が指示されていない場合に、ステップS115に進み、未検出タイマ処理が行われるのは、ステップS112で登録処理の指示がなかった場合、未検出期間が一定時間までは補助表示装置103b〜105bの状態を保持するためである。これは、頻繁に補助表示装置103b〜105bの状態が変化すると、被撮影者となる人物が混乱をきたすことになるので、被撮影者となる人物の混乱となる要因を減らす目的で実行されるものである。未検出待機時間の計時は未検出タイマを用いる。未検出タイマの処理概要は後述する。そして、未検出タイマ処理が開始され、未検出タイマの確認処理が行われ、未検出タイマが0に到達すると(ステップS116)、ステップS117に進み補助表示装置103b〜105bの状態をクリアして、ステップS118に進み、補助表示装置103b〜105bの表示状態を更新して、ステップS101に戻るようになっている。   If it is determined in step S112 that the operator has not instructed registration of the detected face person via the operation monitor 213, as described above, in step S105, the face of the person If it is determined that the undetected timer is not detected, the process proceeds to step S115 to perform a process of undetected timer processing described later, and then proceeds to step S116 to determine whether the undetected timer is 0 or not. Return to step S101. Here, when the registration is not instructed in step 112, the process proceeds to step S115, and the undetected timer process is performed. If the registration process is not instructed in step S112, the undetected period is up to a certain time. Is for maintaining the states of the auxiliary display devices 103b to 105b. This is executed for the purpose of reducing factors that cause confusion for the person to be photographed because the person to be photographed will be confused if the state of the auxiliary display devices 103b to 105b frequently changes. Is. An undetected timer is used to count the undetected standby time. An outline of processing of the undetected timer will be described later. Then, the undetected timer process is started, the undetected timer confirmation process is performed, and when the undetected timer reaches 0 (step S116), the process proceeds to step S117 to clear the states of the auxiliary display devices 103b to 105b, In step S118, the display states of the auxiliary display devices 103b to 105b are updated, and the process returns to step S101.

一方、ステップS108で、登録された人物のデータと一致した場合、つまり、検出された顔が登録された人物である場合には、ステップS109に進む。ステップS109では、検出された人物の顔が、選択されているテレビジョンカメラ、ここではテレビジョンカメラA103(図8参照)に向いているか否かが判断される。つまり、ここでは、顔が検出された人物の目線が、選択されたカメラに向けられているか否が判断されるようになっている。目線が、選択されたカメラに向いていないと判断されると、ステップS110に進み、補助表示装置103b〜105bの状態のクリアを行い、さらに、ステップS111において補助表示装置103b〜105bの表示状態を更新する。つまり、補助表示装置103b〜105b上のアシスト表示は停止する。ここで、補助表示装置103b〜105bのアシスト表示とは、例えば、図9で表示するように、テレビジョンカメラA103の補助表示装置103bに表示されている矢印などの方向表示である。この方向表示は、次に選択されるテレビジョンカメラC105のタリーランプ105aが点灯されている状態において、その前に選択されていたテレビジョンカメラA103の位置からテレビジョンカメラC105の配置されている位置の方向を指し示すような表示となっている。ステップS111で、補助表示装置103b〜105bの表示状態が更新されると、ステップS101に戻り、引き続き以上の処理が行われる。   On the other hand, if the data matches the registered person data in step S108, that is, if the detected face is a registered person, the process proceeds to step S109. In step S109, it is determined whether or not the detected person's face is facing the selected television camera, here the television camera A103 (see FIG. 8). That is, here, it is determined whether or not the eye of the person whose face is detected is directed to the selected camera. If it is determined that the line of sight is not directed to the selected camera, the process proceeds to step S110, the state of the auxiliary display devices 103b to 105b is cleared, and the display state of the auxiliary display devices 103b to 105b is changed in step S111. Update. That is, the assist display on the auxiliary display devices 103b to 105b is stopped. Here, the assist display of the auxiliary display devices 103b to 105b is, for example, a direction display such as an arrow displayed on the auxiliary display device 103b of the television camera A103 as shown in FIG. This direction indication is the position where the television camera C105 is arranged from the position of the previously selected television camera A103 when the tally lamp 105a of the television camera C105 to be selected next is lit. It is displayed to indicate the direction. When the display state of the auxiliary display devices 103b to 105b is updated in step S111, the process returns to step S101 and the above processing is continued.

また、一方、上述のステップS109で、検出された人物の顔が、選択されているテレビジョンカメラ(ここではテレビジョンカメラA103(図8参照))に向いていない、つまり、選択されたテレビジョンカメラへ、被撮影者101,102の視線が向けられていないと検出されると、図7のステップS119に進む。ステップS119では、直前に選択されていたカメラが存在するか否かが判断される。つまり、システム制御部415は、直前にスイッチャー208で選択されたテレビジョンカメラが存在するか否かを確認する。そして、直前に選択されていたカメラが存在していたと判断されると、ステップS120に進み、直前に選択されていたテレビジョンカメラに向いているか否か、つまり、直前に選択されていたテレビジョンカメラからの映像に、まだ、被撮影者101,102の目線が向いているか否かが判断される。   On the other hand, in step S109 described above, the face of the person detected is not suitable for the selected television camera (here, the television camera A103 (see FIG. 8)), that is, the selected television. If it is detected that the line of sight of the subjects 101 and 102 is not directed to the camera, the process proceeds to step S119 in FIG. In step S119, it is determined whether there is a camera selected immediately before. That is, the system control unit 415 confirms whether there is a television camera selected by the switcher 208 immediately before. If it is determined that the camera selected immediately before is present, the process advances to step S120 to determine whether the camera is suitable for the television camera selected immediately before, that is, the television selected immediately before. It is determined whether or not the eyes of the subjects 101 and 102 are still facing the video from the camera.

ステップS120で、被撮影者101,102が直前に選択されていたテレビジョンカメラに向いていると判断されると、ステップS123に進み、対象人物(被撮影者101,102)が向いているテレビジョンカメラと選択されたカメラの相対位置の計算処理が行われる(図15参照)。具体的な処理の方法については、後述するが、ここでは、対象人物が向いているテレビジョンカメラに対し、現在、スイッチャー208で選択されているテレビジョンカメラの方向が演算される。この方向を演算するにあたり、各テレビジョンカメラA103〜テレビジョンカメラC105の台座部分に備えられているロータリーエンコーダ等の位置検出センサ103c〜105cが、スタジオ内に設定された所定の位置を原点として、各テレビジョンカメラの位置を検出した結果が利用される。そして、テレビジョンカメラA103〜テレビジョンカメラC105は、自己の位置から他のテレビジョンカメラが配置されている位置の方向を表示することができる。これらの配置の管理や、位置検出センサの結果は、システム制御部415で、管理されている。そして、システム制御部415は、各テレビジョンカメラ103〜105の位置情報等に基づき、対象人物が向いているテレビジョンカメラと選択されたカメラの相対位置を演算によって、求めることができるようになっている。そして、次にステップS124に進み、補助表示装置103b〜105bの表示と操作モニタ213上の表示を更新して、ステップS101の処理工程に戻り、上述の工程を行うようになっている。   If it is determined in step S120 that the photographed persons 101 and 102 are suitable for the television camera selected immediately before, the process proceeds to step S123, and the target person (photographed persons 101 and 102) is directed to the television. The calculation process of the relative position between the John camera and the selected camera is performed (see FIG. 15). Although a specific processing method will be described later, here, the direction of the television camera currently selected by the switcher 208 is calculated for the television camera facing the target person. In calculating this direction, position detection sensors 103c to 105c such as rotary encoders provided in the pedestal portions of the television cameras A103 to C105 have a predetermined position set in the studio as an origin. The result of detecting the position of each television camera is used. Then, the television camera A103 to the television camera C105 can display the direction of the position where another television camera is arranged from its own position. The management of these arrangements and the result of the position detection sensor are managed by the system control unit 415. Then, the system control unit 415 can obtain the relative position between the television camera facing the target person and the selected camera based on the position information of each of the television cameras 103 to 105 by calculation. ing. Then, the process proceeds to step S124, the display on the auxiliary display devices 103b to 105b and the display on the operation monitor 213 are updated, the process returns to step S101, and the above-described processes are performed.

一方、ステップS119で、直前に選択されたテレビジョンカメラが存在しないと判断された場合と、ステップS120で、直前に選択されたテレビジョンカメラに対象者(被撮影者101,102)の顔が向いていないと判断された場合には、ステップS121に進む。ステップS121では、対象者(被撮影者101,102)の顔が、それ以外のテレビジョンカメラに向いているか否かが判断される。つまり、スイッチャー208で選択されたテレビジョンカメラ以外のカメラからの画像に、被撮影者101、102の顔が表示されているか否かが検出される。上述したように、各テレビジョンカメラ103〜105からの画像のデータの信号は、各カメラ顔検出部421〜423に入力され処理される。そして、これらは、同時に行われているので、ステップS121の判断も各画像から自動で容易に判断することができるようになっている。   On the other hand, when it is determined in step S119 that the television camera selected immediately before does not exist, and in step S120, the face of the subject (the subjects 101 and 102) is displayed on the television camera selected immediately before. If it is determined that it is not suitable, the process proceeds to step S121. In step S121, it is determined whether or not the face of the target person (photographed person 101 or 102) is facing another television camera. That is, it is detected whether or not the faces of the subjects 101 and 102 are displayed in an image from a camera other than the television camera selected by the switcher 208. As described above, image data signals from the television cameras 103 to 105 are input to the camera face detection units 421 to 423 and processed. Since these are performed at the same time, the determination in step S121 can be easily determined automatically from each image.

そして、他のテレビジョンカメラに顔が向いていると判断されると、ステップS122に進み、追尾モードであるか否かを判断する。追尾モードとは、追尾対象である被撮影者101,102に、順次撮影されるテレビジョンカメラの情報を表示して、被撮影者101,102の目線を、オンエアされている画像を撮影しているテレビジョンカメラに合わせさせるようにすることである。従って、追尾モードである場合には、ステップS123に進み、被撮影者101,102の顔が向いているカメラとスイッチャー218が選択したテレビジョンカメラとの相対位置を計算し、現在、被撮影者101,102の視線が検出されているカメラの補助装置の状態と操作モニタの表示を更新する(ステップS124)。例えば、図9のように、追尾対象者である被撮影者101,102が、テレビジョンカメラA103に顔を向けているとして、スイッチャー218が選択したテレビジョンカメラがテレビジョンカメラC105であった場合を説明する。スイッチャー218で選択されたテレビジョンカメラC105のタリーランプ105aが点灯し、テレビジョンカメラA103の補助表示装置103bに矢印が表示される。この時、補助表示装置103bの矢印は、テレビジョンカメラC105の方向を指し示すように設定される。このように、表示すれば、被撮影者101,102は、その補助表示装置103bの表示に従って、目線を合わせるべきテレビジョンカメラC105の位置を容易に把握することができる。そして、このとき、同じ方向にあるテレビジョンカメラB104のタリーランプ104aは点灯していないので、被撮影者101,102は、スムーズにテレビジョンカメラC105を捉えることができるようになっている。   If it is determined that the face is facing the other television camera, the process proceeds to step S122 to determine whether or not the tracking mode is set. In the tracking mode, information on television cameras that are sequentially photographed is displayed on the subjects 101 and 102 to be tracked, and the on-air images of the subjects 101 and 102 are photographed. It is to make it match with a television camera. Therefore, if it is in the tracking mode, the process proceeds to step S123, and the relative position between the camera facing the subjects 101 and 102 and the television camera selected by the switcher 218 is calculated. The state of the auxiliary device of the camera in which the lines of sight 101 and 102 are detected and the display on the operation monitor are updated (step S124). For example, as shown in FIG. 9, assuming that the person to be photographed 101, 102 who is the tracking target is facing the television camera A103, and the television camera selected by the switcher 218 is the television camera C105. Will be explained. The tally lamp 105a of the television camera C105 selected by the switcher 218 is turned on, and an arrow is displayed on the auxiliary display device 103b of the television camera A103. At this time, the arrow of the auxiliary display device 103b is set to indicate the direction of the television camera C105. In this way, the subjects 101 and 102 can easily grasp the position of the television camera C105 to be lined up according to the display of the auxiliary display device 103b. At this time, since the tally lamp 104a of the television camera B104 in the same direction is not lit, the subjects 101 and 102 can smoothly capture the television camera C105.

また、ステップS122で追尾モードでないと判断された場合には、ステップS124に進み、補助表示の表示には、特に表示せず、単にそれ以外のテレビジョンカメラに被撮影者101,102の顔が検出されたことだけを示すように、操作モニタ213の表示を更新する。   On the other hand, if it is determined in step S122 that the mode is not the tracking mode, the process proceeds to step S124, and the auxiliary display is not displayed in particular, and the faces of the subjects 101 and 102 are simply displayed on the other television cameras. The display on the operation monitor 213 is updated so as to indicate only that it has been detected.

一方、ステップS121で、被撮影者101,102がそれ以外のテレビジョンカメラにも向いていないと判断されると、ステップS125に進む。つまり、テレビジョンカメラ103〜105の撮影した画像を分析した結果、対象者である被撮影者101,102の顔が得られなかった場合である。ステップS125では、ステップS122と同様、追尾モードであるか否かが判断される。追尾モードでない場合は、上述したステップS124に進む。追尾モードである場合には、ステップS126に進み、検出された任意の人物の選択処理の工程が実行される。このステップS126の処理は、上述したステップS113と同様であり、検出された任意の人物の選択処理工程として、詳細は、後述する(図13参照)。そして、ステップS127に進み、選択された顔情報を登録し、ステップS128で操作モニタ213に顔位置を表示して、ステップS101に戻り、上述の工程を繰り返すようになっている。なお、上述したステップS102で、エラーが通知された場合には、本実施形態のテレビジョンカメラシステム200が、終了されるようになっていてもよい。   On the other hand, if it is determined in step S121 that the subjects 101 and 102 are not suitable for other television cameras, the process proceeds to step S125. In other words, as a result of analyzing the images captured by the television cameras 103 to 105, the faces of the subjects 101 and 102 as the subjects cannot be obtained. In step S125, as in step S122, it is determined whether or not the tracking mode is set. If not in the tracking mode, the process proceeds to step S124 described above. If it is in the tracking mode, the process proceeds to step S126, and a process for selecting an arbitrary detected person is executed. The process of step S126 is the same as that of step S113 described above, and details will be described later as a process for selecting an arbitrary detected person (see FIG. 13). In step S127, the selected face information is registered, the face position is displayed on the operation monitor 213 in step S128, the process returns to step S101, and the above-described steps are repeated. If an error is notified in step S102 described above, the television camera system 200 of this embodiment may be terminated.

ここで、本実施形態のテレビジョンカメラシステム200のテレビジョンカメラA103〜テレビジョンカメラC105のタリーランプ103a〜105aと表示部の一例である補助表示装置103b〜105bの表示について、図10及び図11を使用して補足する。図10は、直前に選択されていたテレビジョンカメラがテレビジョンカメラA103であり、テレビジョンカメラC105が現在、スイッチャー208により、スイッチングされ、タリーランプ105aが点灯している例を示している。この時、追尾対象者は、直前に選択されたテレビジョンカメラA103に目線が向けられているので、テレビジョンカメラA103のタリーランプ103aを消灯して、補助表示装置103bにテレビジョンカメラC105の配置されている方向を表示する。また、この時、テレビジョンカメラB104の補助表示装置104bにテレビジョンカメラC105の方向を示す表示をするようにすれば、追尾対象者は、素早くテレビジョンカメラC105を捉えることができる。図14はテレビジョンカメラC105またはテレビジョンカメラA103が直前にスイッチャー208で選択されており、現在は、テレビジョンカメラB104が選択されており、タリーランプ104aが点灯している状態における表示例である。この例によれば、テレビジョンカメラC105の補助表示装置105bおよびテレビジョンカメラA103の補助表示装置103bには、選択されたテレビジョンカメラB104の方向を示す表示がされている。従って、追尾対象者は、テレビジョンカメラC105でもなく、テレビジョンカメラA103でもないということが、テレビジョンカメラB104以外を向いた場合に、容易に判別できようになっている。以上が、本実形態のテレビジョンカメラシステム200の概略である。次に、テレビジョンカメラシステム200の各処理について、図12〜図15を用いて個別に説明する。   Here, the display of the tally lamps 103a to 105a of the television camera A103 to the television camera C105 of the television camera system 200 of the present embodiment and the auxiliary display devices 103b to 105b, which are examples of the display unit, are shown in FIGS. Use to supplement. FIG. 10 shows an example in which the television camera selected immediately before is the television camera A103, the television camera C105 is currently switched by the switcher 208, and the tally lamp 105a is turned on. At this time, since the person to be tracked is directed to the television camera A103 selected immediately before, the tally lamp 103a of the television camera A103 is turned off, and the television camera C105 is disposed on the auxiliary display device 103b. The direction that is being displayed is displayed. At this time, if the display indicating the direction of the television camera C105 is displayed on the auxiliary display device 104b of the television camera B104, the person to be tracked can quickly catch the television camera C105. FIG. 14 shows a display example when the television camera C105 or the television camera A103 is selected by the switcher 208 immediately before, the television camera B104 is currently selected, and the tally lamp 104a is lit. . According to this example, a display indicating the direction of the selected television camera B104 is displayed on the auxiliary display device 105b of the television camera C105 and the auxiliary display device 103b of the television camera A103. Accordingly, it is possible to easily determine that the person to be tracked is neither the television camera C105 nor the television camera A103 when facing a place other than the television camera B104. The above is the outline of the television camera system 200 of this embodiment. Next, each process of the television camera system 200 will be described individually with reference to FIGS.

(顔検出処理)
上述のステップS114の顔検出処理について、図12を参照して、説明する。ステップS114で顔検出処理が開始されると、検出パラメータの初期化が実行される(ステップS200)。ここで、これらの顔検出処理は、各テレビジョンカメラ103〜105の各カメラ顔検出部421〜423が、各テレビジョンカメラ103〜105で撮影された画像に対して顔検出処理が実行される(ステップS201)。この顔検出処理は、既存の画像処理技術を使用して行うことができる。次に、画面内に人物の顔が存在するか否かが判断される(ステップS202)。そして、人物の顔が存在したと判断されると、ステップS203に進み、人物の顔位置、サイズ、個数が取得され、ステップS204で、検出された人物の中に登録と一致する顔が検出されたかが判断される。この判断を行うに際には、図4の顔検出パラメータテーブル425が参照される。そして、一致する場合は、ステップS206に進み、変数face_personにTrueが設定され、一致しない場合には、ステップS205に進み、変数face_personにFalseが設定され、終了する。一方、ステップS202で人物の顔が存在しないと判断されると、ステップS207に進み、変数face_numに0が設定されて処理が終了する。以上が、顔検出処理の工程となる。
(Face detection process)
The face detection process in step S114 described above will be described with reference to FIG. When the face detection process is started in step S114, the detection parameters are initialized (step S200). Here, in these face detection processes, the camera face detection units 421 to 423 of the television cameras 103 to 105 perform the face detection process on images taken by the television cameras 103 to 105, respectively. (Step S201). This face detection process can be performed using an existing image processing technique. Next, it is determined whether or not a human face exists in the screen (step S202). If it is determined that a person's face exists, the process proceeds to step S203, where the face position, size, and number of the person are acquired, and in step S204, a face that matches the registration is detected among the detected persons. Is determined. In making this determination, the face detection parameter table 425 in FIG. 4 is referred to. If they match, the process proceeds to step S206, and True is set in the variable face_person. If they do not match, the process proceeds to step S205, and False is set in the variable face_person, and the process ends. On the other hand, if it is determined in step S202 that no human face exists, the process proceeds to step S207, where 0 is set in the variable face_num, and the process ends. The above is the face detection process.

(任意の人物の選択処理)
次に、上述のステップS113とステップS126の処理について図13を参照して説明する。ステップS113またはステップS126で、処理が開始されると、ステップS300で、初期化が行われ、次に各カメラでの顔検出結果を取得し(ステップS310)、さらに、ステップS302で、操作モニタ213の画面上に検出装置の枠を表示させ、検出された顔を囲むように配置する。そして、ステップS303で、枠で囲まれた顔を登録するか解除するかの選択が行われ、次いで、ステップS304で、追尾モードの使用若しくは不使用が選択されると、処理が終了する。以上が、人の人物の選択処理の工程となる。
(Any person selection process)
Next, the processes in steps S113 and S126 described above will be described with reference to FIG. When the process is started in step S113 or step S126, initialization is performed in step S300, and then the face detection result of each camera is acquired (step S310). Further, in step S302, the operation monitor 213 is acquired. The frame of the detection device is displayed on the screen, and is arranged so as to surround the detected face. In step S303, a selection is made as to whether to register or cancel the face surrounded by the frame. Next, in step S304, when the use or non-use of the tracking mode is selected, the process ends. The above is the process of selecting a person.

(未検出タイマ処理)
ここでは、ステップS115の未検出タイマ処理の工程について、図14を参照して説明する。ステップS115で、未検出タイマの処理が開始されると、ステップS400で、変数det_expireに設定された値が0か否かが判断され、0であると判断されると、ステップS404に進み、未検出タイマを停止して、変数det_expireに1を設定して(ステップS405)終了する。ステップS400で0でないと判断されると、ステップS401に進み、未検出タイマが動作しているか否かが判断される。動作していると判断されると、ステップS403に進み、動作していないと判断されると、ステップS402に進み、未検出タイマが起動される。そして、ステップS403にすすみ、変数det_expireの値をデクリメントして、終了する。以上が、未検出タイマの処理工程である。
(Undetected timer processing)
Here, the non-detection timer process in step S115 will be described with reference to FIG. When the process of the undetected timer is started in step S115, it is determined whether or not the value set in the variable det_expire is 0 in step S400. If it is determined that the value is 0, the process proceeds to step S404. The detection timer is stopped, 1 is set in the variable det_expire (step S405), and the process ends. If it is determined in step S400 that it is not 0, the process proceeds to step S401, and it is determined whether or not the undetected timer is operating. If it is determined that it is operating, the process proceeds to step S403. If it is determined that it is not operating, the process proceeds to step S402, and an undetected timer is started. Then, the process proceeds to step S403, the value of the variable det_expire is decremented, and the process ends. The above is the process of the undetected timer.

(相対位置計算処理)
次に、ステップS123の対象人物が向いているカメラと選択されたカメラの相対位置の計算処理の工程ついて、図15を参照して説明する。ステップS123の処理が開始されると、ステップS500で各テレビジョンカメラ位置が取得され、次にステップS501に進み、選択されているテレビジョンカメラからの位置Xが正の値(>0)であるか否かが判断される。この位置は、所定の位置を原点として、テレビジョンカメラが設置されている室内の上空から見た場合のXY平面の座標として検出されている(ここでは、被撮影者の正面に対して左右方向をX軸としている場合について説明する)。そして位置Xが正(>0)の場合は、選択されているテレビジョンカメラから、対象人物が向いているテレビジョンカメラの相対的位置が右であると判断する(ステップS503)。また、ステップS501で位置Xが正(>0)でない場合は、ステップS502に進み、位置Xが負(<0)であるか否かが判断され、位置Xが負(<0)の場合は、相対位置が左であると判断し(ステップS502)、終了する。以上が、相対位置計算処理の工程となっている。
(Relative position calculation process)
Next, the process of calculating the relative position between the camera facing the target person and the selected camera in step S123 will be described with reference to FIG. When the process of step S123 is started, each television camera position is acquired in step S500, and then the process proceeds to step S501, where the position X from the selected television camera is a positive value (> 0). It is determined whether or not. This position is detected as a coordinate on the XY plane when viewed from above the room in which the television camera is installed with the predetermined position as the origin (here, the horizontal direction with respect to the front of the subject) Will be described with respect to the X axis). If the position X is positive (> 0), it is determined from the selected television camera that the relative position of the television camera to which the target person is facing is the right (step S503). If the position X is not positive (> 0) in step S501, the process proceeds to step S502, where it is determined whether the position X is negative (<0). If the position X is negative (<0) The relative position is determined to be on the left (step S502), and the process ends. The above is the process of the relative position calculation process.

本実施形態のテレビジョンカメラシステム200は、以上の各処理工程を有して構成されている。以上のように、構成されているので、テレビジョンカメラA103〜テレビジョンカメラC105で、被撮影者101,102の撮影を行う場合には、被撮影者101,102の顔情報が登録されており、その登録された情報に基づいて、撮影された画像から、被撮影者101,102の顔の向きや目線を判断できるようになっている。そのため、被撮影者101,102へ次に使用されるテレビジョンカメラの方向の指示が即座に行うことができ、また、この指示は、人を介すことなく、画像処理技術を使って自動で行うことができるので、このテレビジョンカメラシステム200によれば、確実に指示を出すことができる。   The television camera system 200 of the present embodiment is configured to include the above processing steps. Since it is configured as described above, when the subjects 101 and 102 are photographed by the television camera A103 to the television camera C105, the face information of the subjects 101 and 102 is registered. Based on the registered information, the face orientation and line of sight of the subjects 101 and 102 can be determined from the captured images. Therefore, the direction of the television camera to be used next can be instructed immediately to the photographed persons 101 and 102, and this instruction is automatically performed using an image processing technique without a person. Therefore, according to the television camera system 200, an instruction can be surely issued.

以上は、典型的な例の一つであって必ずしも実施方法を限定するものではない。例えば、同等の効果が得られる手段があるならばタリーランプの形状や補助表示装置の表示は矢印による方向指示のみならず、文字や相当する図形などでも機能を持たせることができる。例えば、プロンプタを併用して補助表示を実現してもよい。また、本実施形態において検出追尾対象人物は同時に1名のみであるが、操作パネル上のインターフェースや画像処理部での処理能力向上、補助表示装置への表示情報増加手段を追加すれば複数人物に対して同様の指示も可能であることは言うまでもない。   The above is one of typical examples and does not necessarily limit the implementation method. For example, if there is a means capable of obtaining the same effect, the shape of the tally lamp and the display of the auxiliary display device can be given functions not only by the direction indication by arrows but also by characters and corresponding figures. For example, auxiliary display may be realized using a prompter. In this embodiment, only one person is detected and tracked at the same time. However, if an interface on the operation panel or an improvement in processing capability in the image processing unit or a means for increasing display information on the auxiliary display device is added, a plurality of persons can be detected. Needless to say, a similar instruction can be given.

本発明に係るテレビジョンカメラシステムにおいて、スタジオにおけるテレビジョンカメラと被撮像者との関係を説明するための説明図である。In the television camera system which concerns on this invention, it is explanatory drawing for demonstrating the relationship between the television camera in a studio, and a to-be-photographed person. 上記テレビジョンカメラシステムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the said television camera system. 画像処理装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of an image processing apparatus. 画像検出パラメータ記憶部に記憶されている画像検出パラメータテーブルのデータ構造図である。It is a data structure figure of the image detection parameter table memorize | stored in the image detection parameter memory | storage part. その他パラメータ記憶部に記憶されているその他パラメータテーブルのデータ構造図である。It is a data structure figure of the other parameter table memorized by the other parameter storage part. テレビジョンカメラシステムの処理のうち、前半側の処理を示すフローチャートである。It is a flowchart which shows the process of the first half among the processes of a television camera system. テレビジョンカメラシステムの処理のうち、後半側の処理を示すフローチャートである。It is a flowchart which shows the process of the latter half side among the processes of a television camera system. テレビジョンカメラに搭載されているタリーランプおよび補助表示装置の動作例を示す説明図であって、テレビジョンカメラAが選択されている場合である。It is explanatory drawing which shows the operation example of the tally lamp and auxiliary display apparatus which are mounted in the television camera, Comprising: It is a case where the television camera A is selected. テレビジョンカメラに搭載されているタリーランプおよび補助表示装置の動作例を示す説明図であって、テレビジョンカメラCに切り替わった場合である。FIG. 11 is an explanatory diagram showing an operation example of a tally lamp and an auxiliary display device mounted on a television camera, and is a case where the television camera C is switched to. テレビジョンカメラに搭載されているタリーランプおよび補助表示装置の他の動作例を示す図である。It is a figure which shows the other operation example of the tally lamp and auxiliary display apparatus which are mounted in the television camera. テレビジョンカメラに搭載されているタリーランプおよび補助表示装置の他の動作例を示す図である。It is a figure which shows the other operation example of the tally lamp and auxiliary display apparatus which are mounted in the television camera. 各テレビジョンカメラの画像から人物の顔を検出する顔検出処理のフローチャートである。It is a flowchart of the face detection process which detects a person's face from the image of each television camera. 検出された任意の人物を選択する選択処理のフローチャートである。It is a flowchart of the selection process which selects the detected arbitrary person. 未検出タイマ処理のフローチャートである。It is a flowchart of an undetected timer process. 対象人物が向いているカメラと選択されているカメラとの相対位置計算処理のフローチャートある。It is a flowchart of the relative position calculation process of the camera to which the target person is facing, and the selected camera.

符号の説明Explanation of symbols

103〜105 テレビジョンカメラA〜C
103a〜105a タリーランプ(表示部)
103b〜105b 補助表示装置(表示部)
103c〜105c 位置検出センサ
200 テレビジョンカメラシステム
208 スイッチャー 211 画像処理装置
103 to 105 Television cameras A to C
103a to 105a Tally lamp (display unit)
103b to 105b Auxiliary display device (display unit)
103c to 105c Position detection sensor 200 Television camera system 208 Switcher 211 Image processing apparatus

Claims (3)

被撮影者を撮影する複数のテレビジョンカメラと、
前記複数のテレビジョンカメラに取り付けられ、当該複数のテレビジョンカメラの各々の位置を検出する位置検出センサと、
前記複数のテレビジョンカメラに取り付けられ、前記複数のテレビジョンカメラの内で次に撮影を行うテレビジョンカメラを表示して前記被撮影者に提示する表示部と、
前記複数のテレビジョンカメラの中から1台を選択して切り替えるスイッチャーと、
前記表示部の表示を制御する画像処理装置と、を有し、
前記画像処理装置は、
前記スイッチャーにより前記複数のテレビジョンカメラの中のいずれか一台から、残りの前記テレビジョンカメラのうちの一台に切り替えられたときに、
前記テレビジョンカメラの各々で撮影した画像から前記被撮影者の顔を検出して当該被撮影者の目線の方向を判断し、
前記位置検出センサから前記複数のテレビジョンカメラの各々の位置を取得し、当該位置に基づいて、前記目線の方向に位置する前記テレビジョンカメラから見た、切り替えられた前記テレビジョンカメラの方向を算出し、
前記目線の方向に位置する前記テレビジョンカメラの前記表示部に、前記切り替えられたテレビジョンカメラの方向を表示するように構成されたテレビジョンカメラシステム。
A plurality of television cameras for photographing the subject;
A position detection sensor that is attached to the plurality of television cameras and detects the position of each of the plurality of television cameras;
A display unit attached to the plurality of television cameras and displaying a television camera to be photographed next among the plurality of television cameras and presenting to the subject; and
A switcher for selecting and switching one of the plurality of television cameras;
An image processing device that controls display of the display unit,
The image processing apparatus includes:
When the switcher switches from any one of the plurality of television cameras to one of the remaining television cameras,
Detecting the face of the subject from the images taken by each of the television cameras to determine the direction of the subject's line of sight;
The position of each of the plurality of television cameras is acquired from the position detection sensor, and the direction of the switched television camera viewed from the television camera located in the direction of the line of sight is determined based on the position. Calculate
A television camera system configured to display a direction of the switched television camera on the display unit of the television camera positioned in the direction of the line of sight.
複数の前記被撮影者の顔を含む画像データを記憶する画像検出パラメータ記憶部を有し、
前記画像処理装置は、前記テレビジョンカメラが撮影した前記画像から検出された前記被撮影者の前記顔が、前記画像検出パラメータ記憶部に記憶された複数の前記画像データのいずれかと一致するか否かを判断し、一致する場合に、前記表示部に前記切り替えられたテレビジョンカメラの方向を表示するように構成された請求項1に記載のテレビジョンカメラシステム。
An image detection parameter storage unit that stores image data including a plurality of faces of the subject,
The image processing apparatus determines whether the face of the subject detected from the image captured by the television camera matches any of the plurality of image data stored in the image detection parameter storage unit. The television camera system according to claim 1, wherein the direction of the switched television camera is displayed on the display unit when the two match.
前記画像処理装置は、前記画像検出パラメータ記憶部に記憶された複数の前記画像データから1の前記画像データを指定して、当該指定された画像データと一致する前記被撮影者の前記顔が、前記テレビジョンカメラで撮影した前記画像に含まれていた場合に、前記表示部に前記切り替えられたテレビジョンカメラの方向を表示するように構成された請求項1または2に記載のテレビジョンカメラシステム。   The image processing device designates one image data from a plurality of the image data stored in the image detection parameter storage unit, and the face of the subject to be matched with the designated image data is: 3. The television camera system according to claim 1, wherein when the image captured by the television camera is included in the image, the direction of the switched television camera is displayed on the display unit. 4. .
JP2008188160A 2008-07-22 2008-07-22 Television camera system Pending JP2010028501A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008188160A JP2010028501A (en) 2008-07-22 2008-07-22 Television camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008188160A JP2010028501A (en) 2008-07-22 2008-07-22 Television camera system

Publications (1)

Publication Number Publication Date
JP2010028501A true JP2010028501A (en) 2010-02-04

Family

ID=41733892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008188160A Pending JP2010028501A (en) 2008-07-22 2008-07-22 Television camera system

Country Status (1)

Country Link
JP (1) JP2010028501A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017167973A (en) * 2016-03-17 2017-09-21 株式会社東芝 Imaging support device, method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017167973A (en) * 2016-03-17 2017-09-21 株式会社東芝 Imaging support device, method and program

Similar Documents

Publication Publication Date Title
JP6924079B2 (en) Information processing equipment and methods and programs
JP2009010728A (en) Camera setting support device
JP2009244369A (en) Imaging device and imaging method
JP2011027847A (en) Af frame automatic tracking system
JP2010124120A (en) Autofocus system
US9843727B2 (en) Image capturing apparatus and image capturing method
US9060674B2 (en) Auto zoom for video camera
EP2200272B1 (en) Autofocus system
JP2010117663A (en) Autofocus system
EP2237552B1 (en) Autofocus system
JP5426874B2 (en) Auto focus system
JP2004138737A (en) Imaging device
JP2010028501A (en) Television camera system
JP2010085530A (en) Autofocus system
JP2014039166A (en) Controller of automatic tracking camera and automatic tracking camera equipped with the same
JP5081133B2 (en) Auto focus system
JP2010230871A (en) Auto focus system
JP2021148984A (en) Imaging apparatus, imaging system, information processing apparatus, control method, program, and storage medium
KR20100104194A (en) Apparatus and method for controlling camera photographing
JP2011022499A (en) Autofocus system
JP2004320175A (en) Monitoring camera system
JP2010117487A (en) Autofocus system
JPH1188728A (en) Information display device for television camera
JP2010164637A (en) Af frame automatic tracking system
JP2010152135A (en) Safe area warning device