JP2010028501A - Television camera system - Google Patents
Television camera system Download PDFInfo
- Publication number
- JP2010028501A JP2010028501A JP2008188160A JP2008188160A JP2010028501A JP 2010028501 A JP2010028501 A JP 2010028501A JP 2008188160 A JP2008188160 A JP 2008188160A JP 2008188160 A JP2008188160 A JP 2008188160A JP 2010028501 A JP2010028501 A JP 2010028501A
- Authority
- JP
- Japan
- Prior art keywords
- television camera
- television
- camera
- image
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、テレビジョンカメラシステムに関する。 The present invention relates to a television camera system.
スタジオでの収録の際に、アナウンサー等の被撮影者に、この被撮影者自身の映像がオンエア中であることを知らせるための工夫や、どのテレビジョンカメラで撮影されているかを知らせるための工夫がなされている。そして、従来は、被撮影者のカメラ目線を得るために、人間であるアシスタント等が、被撮影者に指示を出すことが行われていた。このように、人間が指示を出す場合には、撮影しているテレビジョンカメラの方向を誤って指示してしまい、被撮影者が、撮影しているカメラにスムーズに目線を合わせることができなかったり、指示を出している本人が、オンエア中の画像に写ってしまったりするなどの問題があった。そこで、被撮影者に対し、注意を喚起する表示を簡単な方法で、確実にこの被撮影者に知らせる装置を提供する工夫がなされてきている(例えば、特許文献1参照)。
しかしながら、従来の方式では常に人手が介在するため、被撮影者への指示操作を、臨機応変に対応するためには習熟が必要であるという課題があった。 However, since the conventional method always involves manpower, there has been a problem that it is necessary to master the instruction operation to the photographed person in order to respond to the occasion.
本発明は、このような課題に鑑みてなされたものであり、複数のテレビジョンカメラから得られた画像に基づいて、被撮影者の目線を、次に撮影するテレビジョンカメラの方向に素早く向けることができるように支援するための指示を表示することができるテレビジョンカメラシステムを提供することを目的とする。 The present invention has been made in view of such a problem, and based on images obtained from a plurality of television cameras, the subject's eyes are quickly directed toward the television camera to be photographed next. An object of the present invention is to provide a television camera system capable of displaying an instruction for assisting the user so that the user can perform the operation.
前記課題を解決するため、本発明に係るテレビジョンカメラシステムは、被撮影者を撮影する複数のテレビジョンカメラと、これらの複数のテレビジョンカメラに取り付けられ、当該複数のテレビジョンカメラの各々の位置を検出する位置検出センサと、複数のテレビジョンカメラに取り付けられ、複数のテレビジョンカメラの内で次に撮影を行うテレビジョンカメラを表示して被撮影者に提示する表示部と、複数のテレビジョンカメラの中から1台を選択して切り替えるスイッチャーと、表示部の表示を制御する画像処理装置と、を有して構成される。そして、画像処理装置は、スイッチャーにより複数のテレビジョンカメラの中のいずれか一台から、残りのテレビジョンカメラのうちの一台に切り替えられたときに、テレビジョンカメラの各々で撮影した画像から被撮影者の顔を検出して当該被撮影者の目線の方向を判断し、位置検出センサから複数のテレビジョンカメラの各々の位置を取得し、当該位置に基づいて、目線の方向に位置するテレビジョンカメラから見た、切り替えられたテレビジョンカメラの方向を算出し、目線の方向に位置するテレビジョンカメラの表示部に、算出された切り替えられたテレビジョンカメラの方向を表示するように構成される。 In order to solve the above problems, a television camera system according to the present invention includes a plurality of television cameras for photographing a person to be photographed, and the plurality of television cameras, and each of the plurality of television cameras. A position detection sensor for detecting a position, a display unit that is attached to a plurality of television cameras, displays a television camera to be photographed next among the plurality of television cameras, and presents it to the subject; It comprises a switcher that selects and switches one of the television cameras, and an image processing device that controls display on the display unit. Then, the image processing device uses an image captured by each of the television cameras when the switcher switches from any one of the plurality of television cameras to one of the remaining television cameras. The face of the subject is detected by detecting the face of the subject, the position of each of the plurality of television cameras is acquired from the position detection sensor, and the direction of the eye is located based on the position. The direction of the switched television camera viewed from the television camera is calculated, and the calculated direction of the switched television camera is displayed on the display unit of the television camera located in the direction of the line of sight Is done.
このようなテレビジョンカメラシステムは、複数の被撮影者の顔を含む画像データを記憶する画像検出パラメータ記憶部を有し、画像処理装置は、テレビジョンカメラが撮影した画像から検出された被撮影者の顔が、画像検出パラメータ記憶部に記憶された複数の画像データのいずれかと一致するか否かを判断し、一致する場合に、表示部に切り替えられたテレビジョンカメラの方向を表示するように構成されることが好ましい。 Such a television camera system has an image detection parameter storage unit that stores image data including the faces of a plurality of subjects, and the image processing apparatus detects a subject to be detected detected from an image captured by the television camera. It is determined whether or not the person's face matches any of the plurality of image data stored in the image detection parameter storage unit, and if they match, the direction of the switched television camera is displayed on the display unit. Preferably it is comprised.
また、このようなテレビジョンカメラシステムにおいて、画像処理装置は、画像検出パラメータ記憶部に記憶された複数の画像データから1の画像データを指定して、当該指定された画像データと一致する被撮影者の顔が、テレビジョンカメラで撮影した画像に含まれていた場合に、表示部に切り替えられたテレビジョンカメラの方向を表示するように構成されることが好ましい。 In such a television camera system, the image processing apparatus designates one image data from a plurality of image data stored in the image detection parameter storage unit, and takes an image that matches the designated image data. When the person's face is included in an image photographed by the television camera, the direction of the television camera switched to the display unit is preferably displayed.
本発明に係るテレビジョンカメラシステムを以上のように構成すると、例えば、スタジオでの収録において出演者等の被撮影者が、現在撮影していないテレビジョンカメラを注視している場合に現在撮影しているテレビジョンカメラの方向を、表示部により表示して被撮像者に提示することにより、被撮影者が当該テレビジョンカメラを素早く認知できるよう支援でき、この被撮影者のカメラ目線を得やすくすることができる。 When the television camera system according to the present invention is configured as described above, for example, when a subject such as a performer in a recording in a studio is gazing at a television camera that is not currently photographed, the current photographing is performed. By displaying the direction of the television camera being displayed on the display unit and presenting it to the person to be imaged, it is possible to assist the person to be photographed in quickly recognizing the television camera, and it is easy to obtain the camera eye of the person to be photographed can do.
以下、本発明の好ましい実施形態について図面を参照して説明する。ます、図1〜図3を用いて、本実施形態におけるテレビジョンカメラシステム200の構成について説明する。なお、本実施形態において、このテレビジョンカメラシステム200は、スタジオ内におけるテレビジョンカメラ(以下、図面上では、単にカメラともいう)に用いたシステムの構成として説明する。まず、図1に示すように、スタジオ内には、複数のテレビジョンカメラが設置されており(ここでは、標準テレビジョンカメラが3台設置された例を示している)、出演者である被撮影者101、102が、3台のテレビジョンカメラ103〜105で撮影されている。3台のテレビジョンカメラは、それぞれ、テレビジョンカメラA103、テレビジョンカメラB104、及び、テレビジョンカメラC105で構成され、これらは、スタジオ内において、互いにある程度の距離を開けて、被撮影者101,102を撮影し易い位置に配置されている。テレビジョンカメラA103〜テレビジョンカメラC105は、各々、スタジオ内において予め決められた所定の位置を原点と定め、その原点からの位置を絶対位置として検出する位置検出センサ103c〜105cを備えており、この位置検出センサ103c〜105cで検出された位置が、後述するシステム制御部に通知されるようになっている。例えば、テレビジョンカメラA103〜テレビジョンカメラC105の各々の台座に、位置検出センサ103c〜105cとしてロータリーエンコーダが内蔵されており、スタジオ内の所定の位置を原点として、これを最初の位置として記憶しておき、天井から見た場合のテレビジョンカメラA103〜テレビジョンカメラC105の位置をX,Y座標で管理することにより、テレビジョンカメラA103〜テレビジョンカメラC105の絶対位置を検出可能に構成されている。そして、このようにして検出した各テレビジョンカメラA103〜テレビジョンカメラC105の絶対位置が、後述するシステム制御部に通知されるようになっている。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. First, the configuration of the
図2に示すテレビジョンカメラシステム200において、CCU入力A202、CCU入力B203、及び、CCU入力C204は、図1のテレビジョンカメラA103〜テレビジョンカメラC105と接続されており、これらのCCU入力A202、CCU入力B203、及び、CCU入力C204はテレビジョンカメラA103〜テレビジョンカメラC105の映像出力である。このCCU入力A202〜CCU入力C204の各々は、CCU(カメラコントロールユニット)205、206,207に接続されており、テレビジョンカメラA103〜テレビジョンカメラC105からのRGB信号に対して各種補正処理を行う機能、及び、カメラヘッドエンド調整をリモートで行う機能を備えている。
In the
スイッチャー208は、オペレータの操作により、テレビジョンカメラA103〜テレビジョンカメラC105が撮影した映像を逐次切り替えて、番組制作の演出を行うためのものである。このスイッチャー208からの出力信号であるスイッチャー出力209は、ディレクタが画像に効果を入れたり、カメラスイッチングを行ったりした映像の映像プログラム出力信号であり、VTRなどの機器へ接続されると同時に画像処理装置211へも出力されるように構成されている。
The
タリー出力210は、スイッチャー208において現在選択されている映像系統を示す信号として画像処理装置211に出力される。この画像処理装置211は、CCU205〜CCU207の出力から得られた映像信号に対して画像処理を実施し、被写体の顔検出を行うと共に、直前に利用していたテレビジョンカメラと次に使用するテレビジョンカメラとの相対位置を計算し、その計算結果をタリー制御信号214として、テレビジョンカメラA103〜テレビジョンカメラC105に取り付けられた表示部であるタリーランプ103a〜105aおよび補助表示装置103b〜105bへ出力するように構成されている。
The
コントロールパネル212は、画像処理装置211を操作して、必要に応じてタリーランプ点灯の許可や、禁止の切り替えを行うことができ、また、テレビジョンカメラA103〜テレビジョンカメラC105毎の補助表序装置103b〜105bの操作を手動で行うために用意されているものである。また、操作モニタ213は、コントロールパネル212の操作結果と画像処理装置211の現在状態などの情報の表示を行うことができるように構成されている。
The control panel 212 can operate the
このテレビジョンカメラシステム200における画像処理部211は、図3に示すような構成を有しており、図1で示したテレビジョンカメラA103〜テレビジョンカメラC105で撮影された映像(画像ともいう)は、それぞれ映像入力信号401,402,403として、Aカメラ映像入力処理部411、Bカメラ映像入力処理部412、及び、Cカメラ映像入力処理部413に入力される。また、プログラム出力映像入力処理部414には、プログラム及び各機器からの映像出力信号404が入力される。Aカメラ映像入力処理部411、Bカメラ映像入力処理部412、Cカメラ映像入力処理部413、及び、プログラム出力映像入力処理部414は、後述する各処理に適した形式へ映像信号を変換するように構成されている。例えば、アナログビデオ入力信号である場合は、A/D変換などによりデジタル符号化を行い、後段処理におけるデータフォーマットに適した形式へと変換される。
The
Aカメラ顔検出部421、Bカメラ顔検出部422、Cカメラ顔検出部423、及び、プログラム出力顔検出部424は、それぞれ後述する顔検出処理を行い、その前処理側に位置するAカメラ映像入力処理部411、Bカメラ映像入力処理部412、Cカメラ映像入力処理部413、及び、プログラム出力映像入力処理部414から入力された映像信号の情報を検出する処理を行うようになっている。ここで、画像処理を行い、画像から顔を検出する方法には、多くの方法が提案されており、本実施形態では、特に限定されないが、例えば、図3に示すように、画像検出パラメータテーブルを記憶する画像検出パラメータ記憶部425と、その他のパラメータテーブルを記憶するその他パラメータ記憶部435と、に顔検出のためのパラメータを記憶し、後述するシステム制御部415で行う各処理や、その他処理部で行う処理によりこのパラメータを参照して、所定の検出処理方法により画像から顔検出を行うことができる。
The A camera face detection unit 421, the B camera face detection unit 422, the C camera face detection unit 423, and the program output
図4及び図5には、顔検出方法の一例を示すためのパラメータテーブルの内容が示されており、画像検出パラメータテーブル425には、データ名カラム425aの各データ名に対応して、その内容が内容カラム425bに記憶されている。この内容カラム425bには、例えば、検出された人物の顔の数(顔検出数)、検出された画像中における人物毎の顔の位置を示しているレクタングル対角座標(検出X位置(1)、検出Y位置(1)など)、視線が撮像方向に向いているかの情報(検出顔の「カメラ目線」有無)、すでに登録された人物の顔検出の有無(登録者の有無)が記憶されている。そして、これらに対応して、型カラム425cに各内容に対応したデータの型の情報が記憶されている。さらに、その他のパラメータテーブル435には、該システムの設置時に設定するパラメータやカメラスイッチングに伴う変化が反映された値を示すデータが記憶されるようになっており、パラメータ名カラム435a、設定値カラム435b、及び、データ型カラム435cから構成されている。
4 and 5 show the contents of a parameter table for showing an example of a face detection method, and the image detection parameter table 425 has its contents corresponding to each data name in the
システム制御部415は、このテレビジョンカメラシステム200の制御全体を司り、スイッチャー選択タリー入力信号405、各映像入力処理部411〜414、各顔検出部421〜424、カメラタリー出力/補助表示出力制御部426、操作モニタ制御部416、及び、操作パネルI/F406を制御する。また、スイッチャー選択タリー入力信号405は、スイッチャー208が選択している入力プログラムに対応したタリー出力を得るように構成されている。また、カメラタリー出力/補助表示出力制御部426は、スイッチャー選択タリー入力信号405からのバイパスと、システム制御部415によって決定された内容に従った補助表示出力を行い、テレビジョンカメラA103、テレビジョンカメラB104、及び、テレビジョンカメラC105の各々へのタリー出力/補助表示出力信号407、417、427を得るように構成されている。なお、タリー出力/補助表示出力信号407、417、427に基づいて、テレビジョンカメラA103、テレビジョンカメラB104、テレビジョンカメラC105の各々に備わる補助表示装置103b〜105b(図8参照)の表示を変更させるが、この補助表示装置103b〜105bの表示の変更は、フレーム毎に検出された結果に基づいて変更されると、頻繁に表示が変更されることとなり、視覚上フリッカとして現れたアシスト表示としては、不安定な状態となってしまうことから、一定時間以下の周期変化に対して、不感として、前の状態を保持した出力となるように設定されている。また、操作モニタ制御部416は、オペレータが操作するディスプレイの制御を行うように構成されている。ディスプレイには、現在、追尾している顔の状態や、各カメラの状態が表示され、また、追尾モードの入/切や追尾対象人物の登録等の処理をインタラクティブに行い、操作モニタ出力437の映像信号としてディスプレイに出力される。さらに、操作パネルインターフェース406は、操作モニタ制御部416とのインタラクティブ操作に対応した操作スイッチ群である。
The system control unit 415 controls the entire
システム制御部415に入力される信号としては、さらにテレビジョンカメラA103、テレビジョンカメラB104、及び、テレビジョンカメラC105に各々搭載されたロータリーエンコーダ等の位置検出センサ103a〜105aにより検出された位置情報の信号である位置入力信号441、442、443がある。ここで、テレビジョンカメラA103〜テレビジョンカメラC105の初期位置は、別途テレビジョンカメラ側で調整が行われ、システム制御部415は、テレビジョンカメラA103〜テレビジョンカメラC105の位置を、スタジオ内において設定された原点からの絶対位置として常に保持するように構成されている。
As the signals input to the system control unit 415, position information detected by
本実施の形態のテレビジョンカメラシステム200の構成等は、以上のようになっており、次にこのテレビジョンカメラシステム200における処理手順を図6〜図11を用いて説明した後に、詳細な処理ついては、図12〜図15を用いて説明する。
The configuration of the
(画像撮影システム処理)
図6及び図7は本テレビジョンカメラシステム200における処理手順を示したフローチャートであり、このテレビジョンカメラシステム200が開始されると、ステップS100で、初期化が行われる。つまり、画像処理装置211のシステム制御部415は、システムの動作に必要な初期設定を行う。次に、ステップS101で映像信号が存在するか否かが確認される。つまり、現在、システム制御部415は、テレビジョンカメラA103〜テレビジョンカメラC105で、被撮影者101,102(図1参照)の撮影が開始されているかの判断を行う。このステップS101で、入力された映像信号が無いなど異常が検知されるとステップS102でエラー通知がされ、操作モニタ制御部416を介して、操作モニタ213にエラーが表示される。一方、映像信号が入力されていると判断されると、ステップS103に進み、現在選択されているテレビジョンカメラA103〜テレビジョンカメラC105の状態が、スイッチャー208を介して、タリー出力信号210として、画像処理装置211に出力される。例えば、図8は、各テレビジョンカメラA103〜テレビジョンカメラC105に備わるタリーランプ103a〜105a及び補助表示装置103b〜105bを示している。ここでは、テレビジョンカメラA103のタリーランプ103aが、点灯している状態であり、スイッチャー208において選択されているテレビジョンカメラがテレビジョンカメラA103であることを示している。ここで、画像処理装置211のシステム制御部415が取得する内容は、現在のカメラ台数、カメラの位置、及び、スイッチャー208によって選択されているタリー信号の状態である。
(Image capture system processing)
6 and 7 are flowcharts showing a processing procedure in the
次に、ステップS104に進み、後述する顔検出処理(図12参照)が行われる。この顔検出処理の工程は、各カメラの画像から人物の顔を検出する処理であり、各テレビジョンカメラ103〜105が撮影した被撮影者の画像を同時に処理する構成となっている。つまり、上述したように、画像処理部211には、テレビジョンカメラA103〜テレビジョンカメラC105からの各画像が入力される映像入力処理部411〜413と、その画像の入力信号を使って各々の顔検出を行う顔検出部421〜423とによって、同時に顔検出処理を行うことができる構成となっている。そして、ステップS105で人物の顔が検出されたか否かが判断され、検出された場合には、次のステップS106に進み、検出された顔の特徴量を取得する。一方、人物の顔が検出されなかった場合には、ステップS115で、後述する未検出タイマ処理が行われる(図14)。ステップS106で検出された顔の特徴量が取得されると、図4の画像検出パラメータテーブル425が参照され、その特徴量から顔位置が判明するので、次のステップS107に進み、操作モニタ213に顔位置の表示を行う。さらに、ステップS108に進み、図4の画像検出パラメータテーブル425を参照して、検出された顔が、登録されている人物のデータであるかを判断する。
In step S104, face detection processing (see FIG. 12) described later is performed. This face detection process is a process for detecting the face of a person from the images of the respective cameras, and is configured to simultaneously process the images of the photographed person taken by the
ステップS108で、登録された人物のデータと一致しない場合、つまり、登録されていない人物である場合には、ステップS112に進み、オペレータにより、操作モニタ213を介して、当該検出された顔の人物の登録を指示しているか否かが判断され、当該検出された顔の人物の登録を指示していると判断されると、ステップS113に進む。ステップS113では、後述するように、検出された任意の人物の選択処理の工程が行われる(図13参照)。次に、ステップS114に進み、選択された顔情報を登録し、ステップS101に戻り、上述の処理を続行するようになっている。ステップS114で登録した顔情報は、画像検出パラメータ記憶部(画像検出パラメータテーブル)425に登録され、以後、この登録された人物の顔データも使用することができるようになる。このように、任意の人物の顔情報の登録等ができるので、被撮影者101,102が変更された場合においても、この画像撮影システム200は容易に対応することが可能である。
If it is determined in step S108 that the data does not match the registered person data, that is, if the person is not registered, the process proceeds to step S112, and the operator detects the detected face person via the
また、ステップS112で、オペレータにより、操作モニタ213を介して、当該検出された顔の人物の登録を指示していないと判断されると、また、上述のように、ステップS105において、人物の顔が検出されていないと判断されると、ステップS115に進み、後述する未検出タイマ処理の工程が行われ、次いで、ステップS116に進み未検出タイマが0か否かが判断され、0でない場合はステップS101に戻る。ここで、ステップ112で、登録が指示されていない場合に、ステップS115に進み、未検出タイマ処理が行われるのは、ステップS112で登録処理の指示がなかった場合、未検出期間が一定時間までは補助表示装置103b〜105bの状態を保持するためである。これは、頻繁に補助表示装置103b〜105bの状態が変化すると、被撮影者となる人物が混乱をきたすことになるので、被撮影者となる人物の混乱となる要因を減らす目的で実行されるものである。未検出待機時間の計時は未検出タイマを用いる。未検出タイマの処理概要は後述する。そして、未検出タイマ処理が開始され、未検出タイマの確認処理が行われ、未検出タイマが0に到達すると(ステップS116)、ステップS117に進み補助表示装置103b〜105bの状態をクリアして、ステップS118に進み、補助表示装置103b〜105bの表示状態を更新して、ステップS101に戻るようになっている。
If it is determined in step S112 that the operator has not instructed registration of the detected face person via the
一方、ステップS108で、登録された人物のデータと一致した場合、つまり、検出された顔が登録された人物である場合には、ステップS109に進む。ステップS109では、検出された人物の顔が、選択されているテレビジョンカメラ、ここではテレビジョンカメラA103(図8参照)に向いているか否かが判断される。つまり、ここでは、顔が検出された人物の目線が、選択されたカメラに向けられているか否が判断されるようになっている。目線が、選択されたカメラに向いていないと判断されると、ステップS110に進み、補助表示装置103b〜105bの状態のクリアを行い、さらに、ステップS111において補助表示装置103b〜105bの表示状態を更新する。つまり、補助表示装置103b〜105b上のアシスト表示は停止する。ここで、補助表示装置103b〜105bのアシスト表示とは、例えば、図9で表示するように、テレビジョンカメラA103の補助表示装置103bに表示されている矢印などの方向表示である。この方向表示は、次に選択されるテレビジョンカメラC105のタリーランプ105aが点灯されている状態において、その前に選択されていたテレビジョンカメラA103の位置からテレビジョンカメラC105の配置されている位置の方向を指し示すような表示となっている。ステップS111で、補助表示装置103b〜105bの表示状態が更新されると、ステップS101に戻り、引き続き以上の処理が行われる。
On the other hand, if the data matches the registered person data in step S108, that is, if the detected face is a registered person, the process proceeds to step S109. In step S109, it is determined whether or not the detected person's face is facing the selected television camera, here the television camera A103 (see FIG. 8). That is, here, it is determined whether or not the eye of the person whose face is detected is directed to the selected camera. If it is determined that the line of sight is not directed to the selected camera, the process proceeds to step S110, the state of the
また、一方、上述のステップS109で、検出された人物の顔が、選択されているテレビジョンカメラ(ここではテレビジョンカメラA103(図8参照))に向いていない、つまり、選択されたテレビジョンカメラへ、被撮影者101,102の視線が向けられていないと検出されると、図7のステップS119に進む。ステップS119では、直前に選択されていたカメラが存在するか否かが判断される。つまり、システム制御部415は、直前にスイッチャー208で選択されたテレビジョンカメラが存在するか否かを確認する。そして、直前に選択されていたカメラが存在していたと判断されると、ステップS120に進み、直前に選択されていたテレビジョンカメラに向いているか否か、つまり、直前に選択されていたテレビジョンカメラからの映像に、まだ、被撮影者101,102の目線が向いているか否かが判断される。
On the other hand, in step S109 described above, the face of the person detected is not suitable for the selected television camera (here, the television camera A103 (see FIG. 8)), that is, the selected television. If it is detected that the line of sight of the
ステップS120で、被撮影者101,102が直前に選択されていたテレビジョンカメラに向いていると判断されると、ステップS123に進み、対象人物(被撮影者101,102)が向いているテレビジョンカメラと選択されたカメラの相対位置の計算処理が行われる(図15参照)。具体的な処理の方法については、後述するが、ここでは、対象人物が向いているテレビジョンカメラに対し、現在、スイッチャー208で選択されているテレビジョンカメラの方向が演算される。この方向を演算するにあたり、各テレビジョンカメラA103〜テレビジョンカメラC105の台座部分に備えられているロータリーエンコーダ等の位置検出センサ103c〜105cが、スタジオ内に設定された所定の位置を原点として、各テレビジョンカメラの位置を検出した結果が利用される。そして、テレビジョンカメラA103〜テレビジョンカメラC105は、自己の位置から他のテレビジョンカメラが配置されている位置の方向を表示することができる。これらの配置の管理や、位置検出センサの結果は、システム制御部415で、管理されている。そして、システム制御部415は、各テレビジョンカメラ103〜105の位置情報等に基づき、対象人物が向いているテレビジョンカメラと選択されたカメラの相対位置を演算によって、求めることができるようになっている。そして、次にステップS124に進み、補助表示装置103b〜105bの表示と操作モニタ213上の表示を更新して、ステップS101の処理工程に戻り、上述の工程を行うようになっている。
If it is determined in step S120 that the photographed
一方、ステップS119で、直前に選択されたテレビジョンカメラが存在しないと判断された場合と、ステップS120で、直前に選択されたテレビジョンカメラに対象者(被撮影者101,102)の顔が向いていないと判断された場合には、ステップS121に進む。ステップS121では、対象者(被撮影者101,102)の顔が、それ以外のテレビジョンカメラに向いているか否かが判断される。つまり、スイッチャー208で選択されたテレビジョンカメラ以外のカメラからの画像に、被撮影者101、102の顔が表示されているか否かが検出される。上述したように、各テレビジョンカメラ103〜105からの画像のデータの信号は、各カメラ顔検出部421〜423に入力され処理される。そして、これらは、同時に行われているので、ステップS121の判断も各画像から自動で容易に判断することができるようになっている。
On the other hand, when it is determined in step S119 that the television camera selected immediately before does not exist, and in step S120, the face of the subject (the
そして、他のテレビジョンカメラに顔が向いていると判断されると、ステップS122に進み、追尾モードであるか否かを判断する。追尾モードとは、追尾対象である被撮影者101,102に、順次撮影されるテレビジョンカメラの情報を表示して、被撮影者101,102の目線を、オンエアされている画像を撮影しているテレビジョンカメラに合わせさせるようにすることである。従って、追尾モードである場合には、ステップS123に進み、被撮影者101,102の顔が向いているカメラとスイッチャー218が選択したテレビジョンカメラとの相対位置を計算し、現在、被撮影者101,102の視線が検出されているカメラの補助装置の状態と操作モニタの表示を更新する(ステップS124)。例えば、図9のように、追尾対象者である被撮影者101,102が、テレビジョンカメラA103に顔を向けているとして、スイッチャー218が選択したテレビジョンカメラがテレビジョンカメラC105であった場合を説明する。スイッチャー218で選択されたテレビジョンカメラC105のタリーランプ105aが点灯し、テレビジョンカメラA103の補助表示装置103bに矢印が表示される。この時、補助表示装置103bの矢印は、テレビジョンカメラC105の方向を指し示すように設定される。このように、表示すれば、被撮影者101,102は、その補助表示装置103bの表示に従って、目線を合わせるべきテレビジョンカメラC105の位置を容易に把握することができる。そして、このとき、同じ方向にあるテレビジョンカメラB104のタリーランプ104aは点灯していないので、被撮影者101,102は、スムーズにテレビジョンカメラC105を捉えることができるようになっている。
If it is determined that the face is facing the other television camera, the process proceeds to step S122 to determine whether or not the tracking mode is set. In the tracking mode, information on television cameras that are sequentially photographed is displayed on the
また、ステップS122で追尾モードでないと判断された場合には、ステップS124に進み、補助表示の表示には、特に表示せず、単にそれ以外のテレビジョンカメラに被撮影者101,102の顔が検出されたことだけを示すように、操作モニタ213の表示を更新する。
On the other hand, if it is determined in step S122 that the mode is not the tracking mode, the process proceeds to step S124, and the auxiliary display is not displayed in particular, and the faces of the
一方、ステップS121で、被撮影者101,102がそれ以外のテレビジョンカメラにも向いていないと判断されると、ステップS125に進む。つまり、テレビジョンカメラ103〜105の撮影した画像を分析した結果、対象者である被撮影者101,102の顔が得られなかった場合である。ステップS125では、ステップS122と同様、追尾モードであるか否かが判断される。追尾モードでない場合は、上述したステップS124に進む。追尾モードである場合には、ステップS126に進み、検出された任意の人物の選択処理の工程が実行される。このステップS126の処理は、上述したステップS113と同様であり、検出された任意の人物の選択処理工程として、詳細は、後述する(図13参照)。そして、ステップS127に進み、選択された顔情報を登録し、ステップS128で操作モニタ213に顔位置を表示して、ステップS101に戻り、上述の工程を繰り返すようになっている。なお、上述したステップS102で、エラーが通知された場合には、本実施形態のテレビジョンカメラシステム200が、終了されるようになっていてもよい。
On the other hand, if it is determined in step S121 that the
ここで、本実施形態のテレビジョンカメラシステム200のテレビジョンカメラA103〜テレビジョンカメラC105のタリーランプ103a〜105aと表示部の一例である補助表示装置103b〜105bの表示について、図10及び図11を使用して補足する。図10は、直前に選択されていたテレビジョンカメラがテレビジョンカメラA103であり、テレビジョンカメラC105が現在、スイッチャー208により、スイッチングされ、タリーランプ105aが点灯している例を示している。この時、追尾対象者は、直前に選択されたテレビジョンカメラA103に目線が向けられているので、テレビジョンカメラA103のタリーランプ103aを消灯して、補助表示装置103bにテレビジョンカメラC105の配置されている方向を表示する。また、この時、テレビジョンカメラB104の補助表示装置104bにテレビジョンカメラC105の方向を示す表示をするようにすれば、追尾対象者は、素早くテレビジョンカメラC105を捉えることができる。図14はテレビジョンカメラC105またはテレビジョンカメラA103が直前にスイッチャー208で選択されており、現在は、テレビジョンカメラB104が選択されており、タリーランプ104aが点灯している状態における表示例である。この例によれば、テレビジョンカメラC105の補助表示装置105bおよびテレビジョンカメラA103の補助表示装置103bには、選択されたテレビジョンカメラB104の方向を示す表示がされている。従って、追尾対象者は、テレビジョンカメラC105でもなく、テレビジョンカメラA103でもないということが、テレビジョンカメラB104以外を向いた場合に、容易に判別できようになっている。以上が、本実形態のテレビジョンカメラシステム200の概略である。次に、テレビジョンカメラシステム200の各処理について、図12〜図15を用いて個別に説明する。
Here, the display of the
(顔検出処理)
上述のステップS114の顔検出処理について、図12を参照して、説明する。ステップS114で顔検出処理が開始されると、検出パラメータの初期化が実行される(ステップS200)。ここで、これらの顔検出処理は、各テレビジョンカメラ103〜105の各カメラ顔検出部421〜423が、各テレビジョンカメラ103〜105で撮影された画像に対して顔検出処理が実行される(ステップS201)。この顔検出処理は、既存の画像処理技術を使用して行うことができる。次に、画面内に人物の顔が存在するか否かが判断される(ステップS202)。そして、人物の顔が存在したと判断されると、ステップS203に進み、人物の顔位置、サイズ、個数が取得され、ステップS204で、検出された人物の中に登録と一致する顔が検出されたかが判断される。この判断を行うに際には、図4の顔検出パラメータテーブル425が参照される。そして、一致する場合は、ステップS206に進み、変数face_personにTrueが設定され、一致しない場合には、ステップS205に進み、変数face_personにFalseが設定され、終了する。一方、ステップS202で人物の顔が存在しないと判断されると、ステップS207に進み、変数face_numに0が設定されて処理が終了する。以上が、顔検出処理の工程となる。
(Face detection process)
The face detection process in step S114 described above will be described with reference to FIG. When the face detection process is started in step S114, the detection parameters are initialized (step S200). Here, in these face detection processes, the camera face detection units 421 to 423 of the
(任意の人物の選択処理)
次に、上述のステップS113とステップS126の処理について図13を参照して説明する。ステップS113またはステップS126で、処理が開始されると、ステップS300で、初期化が行われ、次に各カメラでの顔検出結果を取得し(ステップS310)、さらに、ステップS302で、操作モニタ213の画面上に検出装置の枠を表示させ、検出された顔を囲むように配置する。そして、ステップS303で、枠で囲まれた顔を登録するか解除するかの選択が行われ、次いで、ステップS304で、追尾モードの使用若しくは不使用が選択されると、処理が終了する。以上が、人の人物の選択処理の工程となる。
(Any person selection process)
Next, the processes in steps S113 and S126 described above will be described with reference to FIG. When the process is started in step S113 or step S126, initialization is performed in step S300, and then the face detection result of each camera is acquired (step S310). Further, in step S302, the
(未検出タイマ処理)
ここでは、ステップS115の未検出タイマ処理の工程について、図14を参照して説明する。ステップS115で、未検出タイマの処理が開始されると、ステップS400で、変数det_expireに設定された値が0か否かが判断され、0であると判断されると、ステップS404に進み、未検出タイマを停止して、変数det_expireに1を設定して(ステップS405)終了する。ステップS400で0でないと判断されると、ステップS401に進み、未検出タイマが動作しているか否かが判断される。動作していると判断されると、ステップS403に進み、動作していないと判断されると、ステップS402に進み、未検出タイマが起動される。そして、ステップS403にすすみ、変数det_expireの値をデクリメントして、終了する。以上が、未検出タイマの処理工程である。
(Undetected timer processing)
Here, the non-detection timer process in step S115 will be described with reference to FIG. When the process of the undetected timer is started in step S115, it is determined whether or not the value set in the variable det_expire is 0 in step S400. If it is determined that the value is 0, the process proceeds to step S404. The detection timer is stopped, 1 is set in the variable det_expire (step S405), and the process ends. If it is determined in step S400 that it is not 0, the process proceeds to step S401, and it is determined whether or not the undetected timer is operating. If it is determined that it is operating, the process proceeds to step S403. If it is determined that it is not operating, the process proceeds to step S402, and an undetected timer is started. Then, the process proceeds to step S403, the value of the variable det_expire is decremented, and the process ends. The above is the process of the undetected timer.
(相対位置計算処理)
次に、ステップS123の対象人物が向いているカメラと選択されたカメラの相対位置の計算処理の工程ついて、図15を参照して説明する。ステップS123の処理が開始されると、ステップS500で各テレビジョンカメラ位置が取得され、次にステップS501に進み、選択されているテレビジョンカメラからの位置Xが正の値(>0)であるか否かが判断される。この位置は、所定の位置を原点として、テレビジョンカメラが設置されている室内の上空から見た場合のXY平面の座標として検出されている(ここでは、被撮影者の正面に対して左右方向をX軸としている場合について説明する)。そして位置Xが正(>0)の場合は、選択されているテレビジョンカメラから、対象人物が向いているテレビジョンカメラの相対的位置が右であると判断する(ステップS503)。また、ステップS501で位置Xが正(>0)でない場合は、ステップS502に進み、位置Xが負(<0)であるか否かが判断され、位置Xが負(<0)の場合は、相対位置が左であると判断し(ステップS502)、終了する。以上が、相対位置計算処理の工程となっている。
(Relative position calculation process)
Next, the process of calculating the relative position between the camera facing the target person and the selected camera in step S123 will be described with reference to FIG. When the process of step S123 is started, each television camera position is acquired in step S500, and then the process proceeds to step S501, where the position X from the selected television camera is a positive value (> 0). It is determined whether or not. This position is detected as a coordinate on the XY plane when viewed from above the room in which the television camera is installed with the predetermined position as the origin (here, the horizontal direction with respect to the front of the subject) Will be described with respect to the X axis). If the position X is positive (> 0), it is determined from the selected television camera that the relative position of the television camera to which the target person is facing is the right (step S503). If the position X is not positive (> 0) in step S501, the process proceeds to step S502, where it is determined whether the position X is negative (<0). If the position X is negative (<0) The relative position is determined to be on the left (step S502), and the process ends. The above is the process of the relative position calculation process.
本実施形態のテレビジョンカメラシステム200は、以上の各処理工程を有して構成されている。以上のように、構成されているので、テレビジョンカメラA103〜テレビジョンカメラC105で、被撮影者101,102の撮影を行う場合には、被撮影者101,102の顔情報が登録されており、その登録された情報に基づいて、撮影された画像から、被撮影者101,102の顔の向きや目線を判断できるようになっている。そのため、被撮影者101,102へ次に使用されるテレビジョンカメラの方向の指示が即座に行うことができ、また、この指示は、人を介すことなく、画像処理技術を使って自動で行うことができるので、このテレビジョンカメラシステム200によれば、確実に指示を出すことができる。
The
以上は、典型的な例の一つであって必ずしも実施方法を限定するものではない。例えば、同等の効果が得られる手段があるならばタリーランプの形状や補助表示装置の表示は矢印による方向指示のみならず、文字や相当する図形などでも機能を持たせることができる。例えば、プロンプタを併用して補助表示を実現してもよい。また、本実施形態において検出追尾対象人物は同時に1名のみであるが、操作パネル上のインターフェースや画像処理部での処理能力向上、補助表示装置への表示情報増加手段を追加すれば複数人物に対して同様の指示も可能であることは言うまでもない。 The above is one of typical examples and does not necessarily limit the implementation method. For example, if there is a means capable of obtaining the same effect, the shape of the tally lamp and the display of the auxiliary display device can be given functions not only by the direction indication by arrows but also by characters and corresponding figures. For example, auxiliary display may be realized using a prompter. In this embodiment, only one person is detected and tracked at the same time. However, if an interface on the operation panel or an improvement in processing capability in the image processing unit or a means for increasing display information on the auxiliary display device is added, a plurality of persons can be detected. Needless to say, a similar instruction can be given.
103〜105 テレビジョンカメラA〜C
103a〜105a タリーランプ(表示部)
103b〜105b 補助表示装置(表示部)
103c〜105c 位置検出センサ
200 テレビジョンカメラシステム
208 スイッチャー 211 画像処理装置
103 to 105 Television cameras A to C
103a to 105a Tally lamp (display unit)
103b to 105b Auxiliary display device (display unit)
103c to 105c
Claims (3)
前記複数のテレビジョンカメラに取り付けられ、当該複数のテレビジョンカメラの各々の位置を検出する位置検出センサと、
前記複数のテレビジョンカメラに取り付けられ、前記複数のテレビジョンカメラの内で次に撮影を行うテレビジョンカメラを表示して前記被撮影者に提示する表示部と、
前記複数のテレビジョンカメラの中から1台を選択して切り替えるスイッチャーと、
前記表示部の表示を制御する画像処理装置と、を有し、
前記画像処理装置は、
前記スイッチャーにより前記複数のテレビジョンカメラの中のいずれか一台から、残りの前記テレビジョンカメラのうちの一台に切り替えられたときに、
前記テレビジョンカメラの各々で撮影した画像から前記被撮影者の顔を検出して当該被撮影者の目線の方向を判断し、
前記位置検出センサから前記複数のテレビジョンカメラの各々の位置を取得し、当該位置に基づいて、前記目線の方向に位置する前記テレビジョンカメラから見た、切り替えられた前記テレビジョンカメラの方向を算出し、
前記目線の方向に位置する前記テレビジョンカメラの前記表示部に、前記切り替えられたテレビジョンカメラの方向を表示するように構成されたテレビジョンカメラシステム。 A plurality of television cameras for photographing the subject;
A position detection sensor that is attached to the plurality of television cameras and detects the position of each of the plurality of television cameras;
A display unit attached to the plurality of television cameras and displaying a television camera to be photographed next among the plurality of television cameras and presenting to the subject; and
A switcher for selecting and switching one of the plurality of television cameras;
An image processing device that controls display of the display unit,
The image processing apparatus includes:
When the switcher switches from any one of the plurality of television cameras to one of the remaining television cameras,
Detecting the face of the subject from the images taken by each of the television cameras to determine the direction of the subject's line of sight;
The position of each of the plurality of television cameras is acquired from the position detection sensor, and the direction of the switched television camera viewed from the television camera located in the direction of the line of sight is determined based on the position. Calculate
A television camera system configured to display a direction of the switched television camera on the display unit of the television camera positioned in the direction of the line of sight.
前記画像処理装置は、前記テレビジョンカメラが撮影した前記画像から検出された前記被撮影者の前記顔が、前記画像検出パラメータ記憶部に記憶された複数の前記画像データのいずれかと一致するか否かを判断し、一致する場合に、前記表示部に前記切り替えられたテレビジョンカメラの方向を表示するように構成された請求項1に記載のテレビジョンカメラシステム。 An image detection parameter storage unit that stores image data including a plurality of faces of the subject,
The image processing apparatus determines whether the face of the subject detected from the image captured by the television camera matches any of the plurality of image data stored in the image detection parameter storage unit. The television camera system according to claim 1, wherein the direction of the switched television camera is displayed on the display unit when the two match.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008188160A JP2010028501A (en) | 2008-07-22 | 2008-07-22 | Television camera system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008188160A JP2010028501A (en) | 2008-07-22 | 2008-07-22 | Television camera system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010028501A true JP2010028501A (en) | 2010-02-04 |
Family
ID=41733892
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008188160A Pending JP2010028501A (en) | 2008-07-22 | 2008-07-22 | Television camera system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010028501A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017167973A (en) * | 2016-03-17 | 2017-09-21 | 株式会社東芝 | Imaging support device, method and program |
-
2008
- 2008-07-22 JP JP2008188160A patent/JP2010028501A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017167973A (en) * | 2016-03-17 | 2017-09-21 | 株式会社東芝 | Imaging support device, method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6924079B2 (en) | Information processing equipment and methods and programs | |
JP2009010728A (en) | Camera setting support device | |
JP2009244369A (en) | Imaging device and imaging method | |
JP2011027847A (en) | Af frame automatic tracking system | |
JP2010124120A (en) | Autofocus system | |
US9843727B2 (en) | Image capturing apparatus and image capturing method | |
US9060674B2 (en) | Auto zoom for video camera | |
EP2200272B1 (en) | Autofocus system | |
JP2010117663A (en) | Autofocus system | |
EP2237552B1 (en) | Autofocus system | |
JP5426874B2 (en) | Auto focus system | |
JP2004138737A (en) | Imaging device | |
JP2010028501A (en) | Television camera system | |
JP2010085530A (en) | Autofocus system | |
JP2014039166A (en) | Controller of automatic tracking camera and automatic tracking camera equipped with the same | |
JP5081133B2 (en) | Auto focus system | |
JP2010230871A (en) | Auto focus system | |
JP2021148984A (en) | Imaging apparatus, imaging system, information processing apparatus, control method, program, and storage medium | |
KR20100104194A (en) | Apparatus and method for controlling camera photographing | |
JP2011022499A (en) | Autofocus system | |
JP2004320175A (en) | Monitoring camera system | |
JP2010117487A (en) | Autofocus system | |
JPH1188728A (en) | Information display device for television camera | |
JP2010164637A (en) | Af frame automatic tracking system | |
JP2010152135A (en) | Safe area warning device |