JP2011130234A - 放送用カメラシステム - Google Patents

放送用カメラシステム Download PDF

Info

Publication number
JP2011130234A
JP2011130234A JP2009287353A JP2009287353A JP2011130234A JP 2011130234 A JP2011130234 A JP 2011130234A JP 2009287353 A JP2009287353 A JP 2009287353A JP 2009287353 A JP2009287353 A JP 2009287353A JP 2011130234 A JP2011130234 A JP 2011130234A
Authority
JP
Japan
Prior art keywords
camera system
shooting range
display
camera
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009287353A
Other languages
English (en)
Inventor
Takuro Asano
卓朗 朝野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009287353A priority Critical patent/JP2011130234A/ja
Publication of JP2011130234A publication Critical patent/JP2011130234A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 移動可能なカメラシステムの撮影範囲をより直感的に認識できるようにする。
【解決手段】 ズーム、フォーカス、アイリス、パン、チルトの各位置情報と、前記レンズの位置情報とからなる撮影位置情報を取得する撮影位置情報取得手段と、前記撮影位置情報から撮影範囲を示す撮影範囲情報を演算する撮影範囲情報演算手段と、第1のカメラシステムと第2のカメラシステムとで撮影範囲情報を送受信する通信手段と、第2のカメラシステムの撮影範囲情報から、第1のカメラシステムの撮影映像内における第2のカメラシステムの撮影範囲表示位置を演算する撮影範囲表示位置演算手段と、前記撮影範囲表示位置演算手段により算出された撮影範囲表示位置から、第2のカメラシステムの撮影範囲を表す図形表示を第1のカメラシステムの表示手段に第1のカメラシステムの撮影映像に重ねて表示する画像合成手段とを有したことを特徴とするカメラシステム。
【選択図】 図23

Description

本発明は、複数のカメラシステムを使って撮影を行うカメラシステムに関する。
近年、放送用の撮影では、より臨場感あふれる映像を作り出すために、複数のカメラシステムを使って、多種多様な視点から撮影されることが多くなってきている。このような撮影を行う場合、カメラシステムを操作するカメラマンには、他のカメラシステムと協調したカメラワークが求められる。他のカメラシステムと協調したカメラワークを行うための一つの方法として、他のカメラシステムが撮影している映像を見ながら、撮影範囲を認識し、自分のカメラシステムがどういった映像を撮影すればよいのかを決める、といった撮影方法がある。しかし、非常にズームアップしているカメラシステムなど、撮影している映像から撮影範囲がすぐに認識できない場合があるため、より直感的に他のカメラシステムの撮影範囲を認識できるようなカメラシステムが求められている。
より直感的に他のカメラシステムの撮影範囲を認識できるようなカメラシステムとして、
副カメラ装置からの映像信号を合成した画像に主カメラ装置の撮像視野範囲を表示する、といったカメラシステム(特許文献1)が提案されている。
特開2005−203920号公報
しかし、特許文献1に示した方法は、複数のカメラシステムはいずれも位置が固定されていることが前提条件にあり、移動するカメラシステムの撮影範囲を表示することができない。
そこで、移動可能なカメラシステムの撮影範囲をより直感的に認識できるようなカメラシステムを提供することにある。
上記目的を達成するために、本発明のカメラシステムは、ズーム部、フォーカス部、アイリス部を駆動可能なレンズ装置と、前記レンズ装置を通して、撮像素子上に結像した撮影映像を表示手段に表示するカメラ装置と、前記レンズ装置と前記カメラ装置とをパン、チルト動作と高さ可変とする三脚装置からなるカメラシステムであって、ズーム、フォーカス、アイリス、パン、チルトの各位置情報と、前記レンズの位置情報とからなる撮影位置情報を取得する撮影位置情報取得手段と、前記撮影位置情報から撮影範囲を示す撮影範囲情報を演算する撮影範囲情報演算手段と、第1のカメラシステムと第2のカメラシステムとで撮影範囲情報を送受信する通信手段と、第2のカメラシステムの撮影範囲情報から、第1のカメラシステムの撮影映像内における第2のカメラシステムの撮影範囲表示位置を演算する撮影範囲表示位置演算手段と、前記撮影範囲表示位置演算手段により算出された撮影範囲表示位置から、第2のカメラシステムの撮影範囲を表す図形表示を第1のカメラシステムの表示手段に第1のカメラシステムの撮影映像に重ねて表示する画像合成手段とを有したことを特徴とする。
本発明の更なる目的又はその他の特徴は、以下、添付の図面を参照して説明される好ましい実施例等によって明らかにされるであろう。
本発明によれば、移動可能なカメラシステムの撮影範囲をより直感的に認識することが可能になる。
実施例1の撮影システムの構成を示す図。 カメラシステム1〜3の構成を示す図。 撮影範囲表示設定部26を示す図。 超音波位置検出送信器5〜7の配置を示した図。 レンズ制御部23の構成を示すブロック図。 カメラ制御部25の構成を示すブロック図。 CPU58のレンズメイン処理を示すフローチャート。 超音波位置検出受信器17の位置座標Pとズームレンズ装置10の主点座標Rの配置を示す図。 z軸を上向きとし、ズームレンズ装置10を真横から見たときの超音波位置検出受信器位置座標P、点Qの位置を示す図。 真上から見た時の超音波位置検出受信器位置座標P、点Qの位置を示す図。 z軸を上向きとし、ズームレンズ装置10を真横から見たときの点Q、主点座標Rの位置を示す図。 真上から見た時の点Q、主点座標Rの位置を示す図。 撮影範囲枠C座標SC0〜SC4、撮影範囲枠N座標SN0〜SN4、撮影範囲枠F座標SF0〜SF4の位置を示す図。 撮影範囲枠Cの中心座標SC0を示す図。 z軸を上向きとし、撮影範囲枠Cが1直線になるように見た時の撮影範囲枠C座標SC0〜SC4の位置を示す図。 真上から見た時の撮影範囲枠C座標SC0〜SC4の位置を示す図。 水平、垂直表示画角θHA、θVAを示す図。 主点座標R、表示点座標Aをxy平面に投影した図。 主点座標R、表示点座標Aを、光軸を通りz軸に平行な面に投影した図。 実施例1のCPU63のカメラメイン処理を示すフローチャート。 撮影範囲表示設定画面を示す図。 水平、垂直表示画角θHA、θVAと水平、垂直画素番号h、vの関係を示す図。 他のカメラシステムの撮影範囲を示した図形を重畳表示した図。 他のカメラシステムの撮影範囲を示した図形を拡大して、重畳表示した図。 他のカメラシステムの映像に各カメラシステムの撮影範囲を示した図形を重畳表示する時の、実施例1のCPU63のカメラメイン処理を示すフローチャート。 実施例2の撮影システムの構成を示す。 カメラ装置8の配置を示す図。 カメラ装置8の構成を示す図。 カメラ制御部74の構成を示す図。 撮影範囲枠C座標SC0〜SC6、撮影範囲枠N座標SN0〜SN6、撮影範囲枠F座標SF0〜SF6の位置を示す図。 実施例2のCPU63のカメラメイン処理を示すフローチャート。 点座標から水平、垂直画素番号h、vを算出する方法を示す図。 カメラ装置8の映像に重畳して、各カメラシステムの撮影範囲を示した図形を重畳表示した図。
以下に、本発明の実施の形態を添付の図面に基づいて詳細に説明する。
図1は、本発明を適用できる実施例1の放送用撮影システムの構成を示したものである。
1〜3はそれぞれカメラシステムであり、ズームレンズ装置、カメラ装置、三脚装置を搭載している。4は、放送制御装置であり、カメラシステム1〜3において撮影された映像を取得し、その中から1つ映像を選択し、不図示の映像記憶装置や放送発信装置に送信する。5〜7は、天井に取付けられた超音波位置検出送信器であり、互いに異なる周波数の音波を一定のタイミングで放射状に発生させる。
図2は、カメラシステム1〜3のそれぞれの構成を示したものである。10はズームレンズ装置であり、20はズームレンズ装置10の結像位置を可変とするフォーカスレンズ群である。21はズームレンズ装置10の焦点距離を連続的に可変させることができるズームレンズ群であり、22はズームレンズ装置10を通る光の有効径を調節する絞りである。23はレンズ制御部であり、主にフォーカスレンズ群20、ズームレンズ群21、絞り22の駆動、及び位置検出を行う。レンズ制御部の詳細説明は後述する。
11はカメラ装置であり、24はズームレンズ装置10を通って結像された光を電気信号に変換するCCDである。25は、CCD24によって変換された電気信号を映像データに変換するためのカメラ制御部であり、レンズ制御部23との通信や、他のカメラシステムや放送制御装置4の無線通信も行う。カメラ制御部の詳細説明は後述する。26は撮影範囲表示設定を操作するための撮影範囲表示設定操作部であり、図3のように、MENUボタン30、SELECT十字キー31、SETボタン32によって構成される。
12は三脚装置であり、27は三脚のパンチルト角を検出する三脚向き検出部である。本実施例での三脚向き検出部27は、角度センサを搭載し、電源投入時または角度リセットボタン28押下時のパンチルト角を基準とし、地面に対して何度回転しているかを検出する。本実施例では、カメラシステム1〜3の全ての三脚装置において、パン角の基準方向を北向き、チルト角の基準方向を水平面とする。
13はフォーカスデマンドであり、回転操作の操作量に応じて、フォーカス制御データを生成し、レンズに送信する装置である。14はズームデマンドであり、操作量に応じて、ズーム制御データを生成し、レンズに送信する装置である。ズームデマンド14には、表示切替スイッチ29が構成されており、ズーム制御データと同様に表示切替スイッチの押下状態をレンズに送信する。
15はビューファインダーであり、カメラ制御部25によって生成された映像表示信号をもとに、映像を表示する。16は、他のカメラシステムや放送制御装置との無線通信を行うためのアンテナである。17は、他のカメラシステムとの共通座標系でのズームレンズ装置10の位置を検出する超音波位置検出受信器であり、超音波位置検出送信器5〜7のそれぞれの音波を別々に受信する。
ここで、超音波位置検出送信器、及び超音波位置検出受信器を用いた位置座標検出原理について説明する。ここでは、位置検出演算を簡略化するため、3つの送信器5,6,7を図4のように配置し、送信器5の位置を位置検出座標系の原点(0,0,0)とし、送信器6の位置を座標(5,0,0)、送信器7の位置を座標(0,5,0)とする。送信器5,6,7はそれぞれ異なる周波数の音波を放射状に発生させ、発生した音波は、受信器でそれぞれ周波数ごとに別々の電気信号に変換される。そして、受信時間測定回路によって、この3つの電気信号から、音波を受信した時刻をそれぞれ別々に取得し、音波を送信した時刻を用いて、送信器5,6,7から受信器までに音波が到達する時間t5、t6、t7をそれぞれ算出する。このとき、受信器が、音波を送信した時刻を把握しているのは、3つの送信器と受信器は共通の時計を持っていて、どのタイミングで音波を送信するのかをあらかじめ調整しているためである。
そして、時間t5、t6、t7と固定値として記憶されている音速データVを乗算することで、送信器5,6,7から受信器までの距離L5、L6、L7[m]を算出する。ここで、受信器の位置座標をP(xp,yp,zp)とすると、以下の式が成り立つ。
Figure 2011130234
これらの式から、以下の式のような演算を行い、受信器の位置座標をP(xp,yp,zp)を求めることができる。ただし、3つ送信器は受信器よりも常に高い位置にあるとし、zは負の値であるとしている。
Figure 2011130234
本実施例では、ズームレンズ装置10の位置を検出するために、超音波位置検出送信器、受信器を使用したが、GPSを利用した位置検出装置や、相対位置移動量検出装置などその他手法を用いてもよい。
次に、レンズ制御部23について説明する。図5はレンズ制御部の構成を示した図である。50、51,52はそれぞれフォーカスレンズ群20、ズームレンズ群21、絞り22を駆動するための駆動回路である。50〜52の駆動回路に入力される駆動信号は、CPU58によって生成された制御データをDA変換器56によって変換して生成される。53、54、55はそれぞれフォーカスレンズ群20、ズームレンズ群21、絞り22の位置を検出する位置検出器であり、それぞれの検出信号はAD変換器57によりデジタルデータに変換され、CPU58に入力される。58はCPUであり、ソフトウェア処理については後述する。
続いて、カメラ制御部25について説明する。図6はカメラ制御部の構成を示した図である。60はCCD24によって変換された電気信号を映像データに変換する映像信号処理回路であり、61はこの映像データを無線通信するための映像通信データに変換するための映像通信データ変換回路である。映像通信データ変換回路61は、逆に映像通信データから映像データを生成することもできる。62は入力された映像信号とCPU63より入力された映像変更指令をもとに、映像データを変更する映像変更処理回路であり、点や線といった図形や他のカメラシステムの映像を重畳させた映像データを生成する。63はCPUであり、ソフトウェア処理については後述する。64は撮影範囲表示設定内容を保持するためのEEPROMである。65は他のカメラシステムや放送制御装置4と無線通信を行うための無線通信回路である。66は図形重畳回路62から入力された映像データをビューファインダー15に表示するための信号に変換する映像表示回路である。
次に、レンズ制御部のCPU58のレンズメイン処理について説明する。図7は、レンズメイン処理をフローチャートに示したものである。
S101では、フォーカスデマンド13やズームデマンド14から送信された通信コマンドを処理し、フォーカス制御データ、ズーム制御データ、表示切替スイッチの押下状態を取得する。次に、S102では、S101で取得したズーム制御データ、及びフォーカス制御データを用いて、ズーム駆動データ、フォーカス駆動データを算出し、DA変換器56に出力し、ズーム、フォーカスを駆動する。
続いて、S103にて、ズーム位置Z、フォーカス位置F、アイリス位置Iを取得する。S104では、S103で取得したフォーカス位置Fを用いて、物体距離LCを算出する。物体距離LCは、CPU58内にあらかじめ記憶されている物体距離算出用ルックアップテーブルを用いて算出する。また、S104では、S103で取得したズーム位置Z、フォーカス位置F、アイリス位置Iを用いて、被写界深度範囲の最近距離である被写界深度近端距離LNと、被写界深度範囲の最遠距離である被写界深度遠端距離LFも算出する。ここでは、CPU58内にあらかじめ記憶されている被写界深度算出用ルックアップテーブルを用いて算出する。
次に、S105にて、S103で取得したズーム位置Z、フォーカス位置Fと、画角算出用のルックアップテーブルを用いて、水平、垂直方向の画角θH、θを算出する。S106では、三脚向き検出部27より、三脚のパン、チルト角θ、θ、を取得する。S107では、上述した超音波位置検出器による位置座標検出演算式(4)〜(6)に基づいて、受信器位置座標P(xp,yp,zp)を算出する。
S108では、主点(画角を示す線が1点に集まる点)座標R(xR,yR,zR)を算出する。ここで、主点座標算出処理について説明する。図8のように、受信器位置座標P(xp,yp,zp)は、光軸の真上に配置されているとし、光軸に垂直に下ろした線との交点をQ(xQ,yQ,zQ)、PとQの距離をd1、QとRの距離をd2とする。この時、d1は超音波位置検出受信器と光軸との距離であるため、距離データとしてCPU58内にあらかじめ記憶しておく。一方、d2は、ズーム、フォーカス位置Z、Fに応じて変化する値であるため、あらかじめ主点位置算出用ルックアップテーブルを用意しておき、CPU58内にあらかじめに記憶しておく。このように、d1、d2を設定しておくことで、三脚がパン方向にθP、チルト方向にθT回転した時の受信器位置座標P、Q、主点座標Rは、図9〜図12のように表すことができる。図9はz軸方向を上とし、レンズを真横から見た時のP、Qの関係を示した図であり、図10は真上から見た時のP、Qの関係を示した図である。これらの図より、受信器位置座標P(xp,yp,zp)と点Q(xQ,yQ,zQ)の関係は以下の式で表される。
Figure 2011130234
また、図11はz方向を上とし、レンズを真横から見た時のQ、Rの関係を示した図であり、図12は真上から見た時のQ、Rの関係を示した図である。点Q(xQ,yQ,zQ)と主点座標R(xR,yR,zR)の関係は以下の式で表される。
Figure 2011130234
図7のフローチャートに戻り、S108の処理が終わると、S109に進む。S109では、図13に示したような撮影範囲枠C座標SC1〜SC4、撮影範囲枠N座標SN1〜SN4、撮影範囲枠F座標SF1〜SF4を求める。本実施例では、レンズの物体距離情報を示す撮影範囲枠を撮影範囲枠C、被写界深度の最近距離を示す撮影範囲枠を撮影範囲枠N、被写界深度の最遠距離を示す撮影範囲枠を撮影範囲枠F、と呼ぶこととする。
まずはじめに、撮影範囲枠Cの座標SC1〜SC4を求める。図14に示すように、撮影範囲枠Cの中心座標
Figure 2011130234
は、主点座標R(xR,yR,zR)から、パン、チルト角をそれぞれ、θP、θTとした時の方向に、距離LC離れた座標であるため、以下の式で表せられる。
Figure 2011130234
次に、撮影範囲枠Cの枠座標
Figure 2011130234
を求める。図15、16は、いずれもパン、チルト角をそれぞれθP、θTとし、水平、垂直画角をθH、θとした時の図であり、図15はz軸を上向きとし、撮影範囲枠Cが1直線になるような方向から見た図であり、図16は撮影範囲枠Cを真上から見た図である。これらの図より、撮影範囲枠Cの中心座標SC0と各枠座標SC1、SC2、SC3、SC4との座標差ΔxC1、ΔxC2、ΔyC1、ΔyC2、ΔzCはそれぞれ以下の式で表される。
Figure 2011130234
これらの座標差を使って、各座標は以下のように表される。
Figure 2011130234
撮影範囲枠Cの座標SC1、SC2、SC3、SC4は、主点座標R、距離LC、パン、チルト角θP、θT、水平、垂直画角θH、θ、によって決まる。これらの変数の内、撮影範囲枠N、撮影範囲枠Fが、撮影範囲枠Cと異なる変数は、距離LCのみである。従って、撮影範囲枠Nの座標は、距離LCをLNに置き換えて、同様の処理を行うことで求められ、撮影範囲枠Fの座標は、距離LCをLFに置き換えて、同様の処理を行うことで求められる。
図7のフローチャートに戻り、S109が完了すると、S110に進む。S110では、カメラから他のカメラシステムの撮影範囲表示座標データを取得する。撮影範囲表示座標データは、主点座標R、撮影範囲枠Cの4座標SC1〜SC4、撮影範囲枠Nの4座標SN1〜SN4、及び撮影範囲枠Fの4座標SF1〜SF4である。
S111では、無線通信回路を通して取得した他のカメラシステムの撮影範囲枠座標を表示する。表示する撮影範囲枠の点座標が画面上のどの位置に表示するかについて説明する。表示すべき点座標をA(xA,yA,zA)とした時、画面上の表示位置を特定するためには、図17に示したように、表示画面中心に対しての水平、垂直表示画角θHA、θVAを求める必要がある。主点座標Rと表示点座標Aの距離LAは、それぞれの座標から以下の式で算出することができる。
Figure 2011130234
従って、図17上の距離D1、D2を算出することで、水平、垂直表示画角θHA、θVAを求めることができる。
図18はxy平面に投影した図である。この時、表示点座標Aと点A′を結ぶ直線は、xy平面に平行であるので、xy平面に投影しても直線の距離は変わらない。従って、図19より、距離D1は以下の式で算出することができる。
Figure 2011130234
図19は、図18で示した光軸を通りz軸に平行な面に投影した図である。表示点座標AとA″点を結ぶ直線は、z軸に平行であるので、図19のように投影しても直線の距離は変わらない。従って、図19より、距離D2は以下の式で算出することができる。
Figure 2011130234
ここで、図19の距離D5は、主点座標Rと表示点座標Aを結ぶ直線を、光軸を通りz軸に平行な面に投影し、かつxy平面に投影した直線の長さに相当するので、図18の距離D5と一致する。従って、距離D5は以下のように算出することができる。
Figure 2011130234
以上のようにして、距離D1、D2を算出することができる。これらの値を用いて、水平、垂直表示画角θHA、θVAを求めると、以下の式で表すことができる。
Figure 2011130234
ここで、-180°<θHA≦+180°、-90°<θVA<+90°であるため、上記の式では、水平表示画角θHAのみ2つ解がでてくることになる。そこで、表示点座標Aがカメラの撮影方向の前にある(-90°<θHA<+90°)か、後ろにある(-180°<θHA≦-90°または+90°≦θHA≦+180°)かを区別する必要がある。表示点座標Aがカメラの撮影方向の前にある場合、図17の点A″′は、主点座標Rに対して光軸上の正方向に位置することになる。点A″′は、表示点座標Aを、光軸を通りz軸に平行な面に投影し、かつ光軸上に垂直に下ろした線の交点である。したがって、主点座標Rから点A″′の距離は、図19のD10に相当し、距離D10は以下の式で表すことできる。
Figure 2011130234
10>0である場合、表示点座標がカメラの撮影方向の前にあるので、-90°<θHA<+90°とする。一方、D10≦0である場合、表示点座標Aがカメラの撮影方向の後ろとなるため、表示することができない。従って、水平、垂直表示画角θHA、θVAを求める必要が無いため、上記の水平、垂直表示画角θHA、θVAの演算処理は行わず、無効な値を設定しておく。
S111が完了すると、再びS101に戻り、同様の処理を繰り返す。
次に、カメラ制御部のCPU63のカメラメイン処理について説明する。図20は、カメラメイン処理をフローチャートに示したものである。
S201では、レンズ制御部23から、自身のカメラシステムの主点座標、撮影範囲枠Cの4座標、撮影範囲枠Nの4座標、撮影範囲枠Fの4座標を取得する。そして無線通信回路を通して、これらの座標データを他のカメラシステムに送信する。次に、S202では、撮影範囲表示設定変更中であるかどうかをチェックする。撮影範囲表示設定は、電源投入後は「変更停止」であり、撮影範囲表示設定操作部26のMENUボタン30を押下すると「変更中」になり、再びMENUボタン30を押下すると「変更停止」となる。
S203にて、撮影範囲表示設定が「変更中」であった場合、S203に進み、撮影範囲設定表示処理が行われる。撮影範囲設定変更処理では、ビューファインダー15に図21のような撮影範囲設定画面を表示をし、撮影範囲表示設定操作部26のSELECT十字キー31、SETボタン32の操作に応じて、表示を変化させる。撮影範囲設定画面の最上部には、実際に放送されている映像を撮影しているカメラシステムの撮影範囲を表示するための設定を行えるようにする。また、最上部以外の「カメラID」は、無線通信が確立しているカメラシステムのカメラIDを自動的に表示するようにする。続いて、S204に進み、撮影範囲表示設定が変更の受付処理を行い、SETボタン32によって設定変更がなされた場合、変更内容をEEPROM64に書込む。S205が完了すると、再びS201にもどり、同様の処理を繰り返す。
一方、S203にて、撮影範囲表示設定が「変更中」でない場合、S205に進む。S205では、撮影範囲表示設定において、有効となっている撮影範囲表示に必要な座標データを、他カメラシステムから無線通信回路65を通して取得する。そして、S206にて、取得した座標データをレンズ制御部23に送信する。S207では、レンズ制御部23より、撮影範囲を示す座標データから変換された水平、垂直表示画角θHA、θVAを取得する。
次にS208に進み、無線通信回路65を通して、放送制御装置4より、実際に放送に使用しているカメラのIDを取得する。続いて、S209に進み、レンズ制御部23より表示切替スイッチの押下状態を取得する。そしてS210にて、表示切替スイッチが押下状態であるかどうかをチェックし、押下状態でない場合は、S211に進む。
S211では、S207で取得した水平、垂直表示画角θHA、θVAを用いて、画面上のどの位置に表示するかを示す水平、垂直画素番号h、vを算出する。ここで、表示する画面の大きさを示す水平、垂直表示画素数をhmax、vmaxとする。これらの値は、あらかじめ設定されているものとし、CPU63に記憶されているものとする。このとき、図22のように、水平、垂直画角θH、θVに相当する画素番号の変化量はそれぞれ−hmax、vmax、となるので、水平、垂直表示画角θHA、θVAに相当する水平、垂直画素番号h、vは、以下の式で表すことができる。ただし、画面中心をh=0、v=0とする。
Figure 2011130234
ただし、-90°<θHA<+90°でない場合は、座標を画面に表示することができないため、演算処理は行わずに、水平、垂直画素番号、を無効な値に設定しておく。なお、表示切替スイッチを押下していない時に処理されるS212では、水平、垂直表示画素数hmax、vmaxはビューファインダー15の表示画素数に設定する。S212では、映像変更処理回路62に自身のカメラシステムの撮影映像をビューファインダー15に表示するよう指示する。さらに、S211で求めた複数の水平、垂直画素番号h、vをもとに、撮影範囲表示設定において表示有効となったカメラシステムの撮影範囲を示した図形を重畳表示するように指示する。このとき、座標データを取得したカメラを示すカメラIDと、撮影範囲表示設定により設定された内容に基づいて、撮影範囲枠を表示する色を選択する。また、撮影範囲枠を表示するカメラの中に、映像が放送されているカメラがある場合には、図22で示した撮影範囲表示設定画面の最上部で設定された表示色で撮影範囲を表示する。図23は、カメラシステム1のS212の撮影範囲表示処理によるビューファインダー表示の一例であり、カメラシステム2の画角線、撮影範囲枠N、撮影範囲枠Fと、カメラシステム3の画角線、撮影範囲枠Cを表示している。
一方、S210にて、表示切替スイッチが押下状態である場合、S213に進む。S213では、S211と同様に、S208で取得した水平、垂直表示画角θHA、θVAを用いて、画面上のどの位置に表示するかを示す水平、垂直画素番号h、vを算出する。なお、表示切替スイッチが押下状態である時に処理されるS213では、水平、垂直表示画素数hmax、vmaxはビューファインダー15の表示画素数の1/5に設定する。S214では、映像変更処理回路62に、自身のカメラシステムの撮影映像を1/5に縮小し、ビューファインダー15の中央に表示するよう指示する。さらに、S213で求めた複数の水平、垂直画素番号h、vをもとに、撮影範囲表示設定において表示有効となったカメラシステムの撮影範囲を示した図形を表示するように指示する。このとき、S212と同様に、撮影範囲表示設定によって設定された表示色で撮影範囲を表示する。図24は、カメラシステム2のS214の撮影範囲表示処理によるビューファインダー表示の一例であり、カメラシステム1の画角線、撮影範囲枠Cと、カメラシステム3の画角線、撮影範囲枠Cを表示している。本実施例では、カメラシステムごとに表示色を設定できるようにしてあるが、画角線の太さや点線表示等の表示形状を設定できるようにしても良い。
それぞれS212、S214の処理を完了すると、再びS201に戻り、同様の処理を繰り返す。
以上のように、個々のカメラシステムが上述した処理を行うことによって、図23、24に示すように、直感的に他のカメラシステムの撮影範囲、及びフォーカス位置を認識することができるようになる。
本実施例では、自身のカメラシステムに、撮影した映像と、その映像に関連した位置に他のカメラシステムの画角線と撮影範囲枠を表示している。しかし、他のカメラシステムが撮影した映像と、その映像に関連した位置に各カメラシステムの画角線と撮影範囲枠を表示してもよい。この場合の、カメラ制御部25のカメラメイン処理のフローチャートは図25のようになる。ここでは、表示切替スイッチが押下状態である場合、他のカメラシステムの映像と、その映像に関連した位置に各カメラシステムの画角線と撮影範囲枠を表示することとする。
S201〜S212は図7のフローチャートと同様であるため、説明は省略する。S210で表示切替スイッチが押下状態であった場合、S217に進む。S217では、無線通信回路65を通して、映像を表示するカメラシステムによって算出された各カメラシステムの撮影範囲座標に対応する水平、垂直表示画角θHA、θVAを取得する。このとき、水平、垂直表示画角θHA、θVAと同時に、対応するカメラIDも取得しておく。S218では、自身のカメラシステムのビューファインダー15の水平、垂直表示画素数hmax、vmaxとS217で取得した複数の水平、垂直表示画角θHA、θVAから、それぞれの水平、垂直画素番号h、vを算出する。S219では、映像変更処理回路62に、S217で指定したカメラシステムの撮影映像をビューファインダー15に表示するよう指示する。さらに、S218で取得した水平、垂直画素番号h、vを用いて、撮影範囲表示設定において表示有効となったカメラシステムの画角線と撮影範囲枠を表示する。ただし、S217で指定したカメラシステムの画角線や撮影範囲枠は表示できないため、S218の処理での表示は行わない。
図25のフローチャートのように処理することにより、カメラシステム2においても、図23のように、カメラシステム1の映像と、カメラシステム2,3の画角線、撮影範囲枠を表示することができる。このような表示を行えるようにすることにより、自身のカメラシステムを含む各カメラシステムの撮影範囲、フォーカス位置を客観的に把握することができる。
本実施例では、無線通信回路65とアンテナ16と撮影範囲表示設定操作部26とは、カメラ制御部25に接続されていたが、レンズ制御部23やフォーカスデマンド13やズームデマンド14に接続しても、同様の効果が得られる。
図26は、本発明を適用できる実施例2の放送用撮影システムの構成を示したものである。1〜7は実施例1と同様である。8はカメラ装置であり、図27のように、被写体、及びカメラシステム1〜3を上部から撮影するカメラ装置である。カメラ装置8が撮影する映像の左から右方向は北方向(x軸方向)とし、下から上方向は西方向(y軸方向)となるようにカメラ装置8を設置するものとする。さらに、カメラ装置8の撮影映像の中心に撮影されている床面上の点の座標をT(xT,yT,zT)とし、座標Tからカメラ装置8の撮影範囲端までのx、y座標上での距離をそれぞれxmax、ymaxとする。座標Tや距離xmax、ymaxは、カメラ装置8を設置完了した時点に、操作者によって不図示の設定手段を通して手動で、各カメラシステムのカメラ制御部25のEEPROM64に記憶されるものとする。
カメラ装置8の構成を図28に示す。70はカメラ装置8の結像位置を可変とするフォーカスレンズ群である。71はカメラ装置8の焦点距離を連続的に可変させることができるズームレンズ群であり、72はカメラ装置8を通る光の有効径を調節する絞りである。73は結像した像を電気信号に変換するCCDである。74は、フォーカスレンズ群70、ズームレンズ群71、絞り72を駆動したり、CCD73によって変換された電気信号を映像通信データに変換するカメラ制御部である。75は無線通信を行うためのアンテナである。
カメラ制御部74の構成を図28に示す。76は、CCD73によって変換された電気信号を映像データに変換する映像信号処理回路であり、77は映像データを無線通信するための映像通信データに変換する映像通信データ変換回路である。78は無線通信回路であり、映像通信データをカメラシステム1〜3に送信したり、フォーカスレンズ群70、ズームレンズ群71、絞り72の駆動指令を受信したりする。79、80、81はそれぞれフォーカスレンズ群70、ズームレンズ群71、絞り72を駆動する回路であり、CPU83からDA変換器82を通って入力された駆動信号に応じて動作する。CPU83は、無線通信回路78を通って受信した制御データに基づいて、フォーカスレンズ群70、ズームレンズ群71、絞り72の駆動データを生成する。
カメラシステム1〜3の構成、レンズ制御部23構成、カメラ制御部25構成は実施例1と同様であり、ここでは説明を省略する。
レンズ制御部23のソフトウェア処理を示すフローチャートも実施例1と同様に、図7で表せられる。しかし、本実施例では、S109にて、図30に示したように、枠中心と同じ高さとなる撮影範囲枠C座標SC5〜SC6、撮影範囲枠N座標SN5〜SN6、撮影範囲枠F座標SF5〜SF6も追加して算出する。撮影範囲枠C座標SC5〜SC6は、SC1〜SC4を示した時のパラメータを用いて、以下のように表すことができる。
Figure 2011130234
撮影範囲枠N座標SN5〜SN6、撮影範囲枠F座標SF5〜SF6は、上記の式に含まれる距離LCをLN、またはLFに置き換えて求めればよい。
次に、カメラ制御部のCPU63のカメラメイン処理について説明する。図31は、カメラメイン処理をフローチャートに示したものである。
S301〜S313は、実施例1で示した図21のフローチャートのS201〜S213と同じであるため、説明は省略する。
S314では、S301で取得した自身のカメラシステムの撮影範囲座標データと、S305で取得した他のカメラシステムの撮影範囲座標データのそれぞれに対し、水平、垂直画素番号h、vを算出する。ここで、表示画面の中心をしめす水平、垂直画素番号h0、v0とし、表示する画面の大きさを示す水平、垂直表示画素数をhmax、vmaxとする。このとき、水平、垂直表示画素数hmax、vmaxはビューファインダー15の表示画素数に設定する。
ここで、任意の点座標(x,y,z)の水平、垂直画素番号h、vを算出方法について説明する。図32のように、座標Tは、水平、垂直画素番号h=0、v=0に対応し、撮影範囲端までのx、y軸上の距離xmax、ymaxはそれぞれ水平、垂直表示画素数をhmax、vmaxに対応している。したがって、水平、垂直画素番号h、vは以下の式で表すことができる。
Figure 2011130234
これらの式を用いて、自身のカメラシステムの撮影範囲座標データと他のカメラシステムの撮影範囲座標データの水平、垂直画素番号h、vを求めることができる。S314では、各カメラシステムの主点R、撮影範囲枠C座標SC5〜SC6、撮影範囲枠N座標SN5〜SN6、撮影範囲枠F座標SF5〜SF6について、水平、垂直画素番号h、vを求める。
S314では、映像変更処理回路62に対し、無線通信回路を通して取得したカメラ装置8の撮影映像を表示するよう指示する。そして、S313で求めた複数の水平、垂直画素番号h、vをもとに、図33のように、各カメラシステムの撮影範囲を示した図形を表示するように指示する。図33はカメラシステム1の撮影範囲表示処理の一例であり、ビューファインダー15全体にカメラ装置8の撮影映像を表示する。そして、これに重畳してカメラシステム1〜3の画角線、撮影範囲枠N、撮影範囲枠Fを二次元的に表示している。
以上のように、個々のカメラシステムが上述した処理を行うことによって、図33に示すように、直感的に自身のカメラシステムや他のカメラシステムの撮影範囲、及びフォーカス位置を認識することができるようになる。
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されないことはいうまでもなく、その要旨の範囲内で種々の変形及び変更が可能である。
1〜3 カメラシステム
4 放送制御装置
5〜7 超音波位置検出送信器
8 カメラ装置
10 ズームレンズ装置
11 カメラ装置
12 三脚装置
15 ビューファインダー
16 アンテナ
17 超音波位置検出受信器
20 ズームレンズ群
21 フォーカスレンズ群
22 絞り
23 レンズ制御部
24 CCD
25 カメラ制御部
26 撮影範囲表示設定操作部
27 三脚向き検出部
29 表示切替スイッチ
53 フォーカス位置検出器
54 ズーム位置検出器
55 アイリス位置検出器
58 CPU
62 映像変更処理回路
63 CPU
64 EEPROM
65 無線通信回路

Claims (9)

  1. ズーム部、フォーカス部、アイリス部を駆動可能なレンズ装置と、前記レンズ装置を通して、撮像素子上に結像した撮影映像を表示手段に表示するカメラ装置と、前記レンズ装置と前記カメラ装置とをパン、チルト動作と高さ可変とする三脚装置からなるカメラシステムであって、ズーム、フォーカス、アイリス、パン、チルトの各位置情報と、前記レンズ装置の位置情報とからなる撮影位置情報を取得する撮影位置情報取得手段と、前記撮影位置情報から撮影範囲を示す撮影範囲情報を演算する撮影範囲情報演算手段と、第1のカメラシステムと第2のカメラシステムとで撮影範囲情報を送受信する通信手段と、第2のカメラシステムの撮影範囲情報から、第1のカメラシステムの撮影映像内における第2のカメラシステムの撮影範囲表示位置を演算する撮影範囲表示位置演算手段と、前記撮影範囲表示位置演算手段により算出された撮影範囲表示位置から、第2のカメラシステムの撮影範囲を表す図形表示を第1のカメラシステムの表示手段に第1のカメラシステムの撮影映像に重ねて表示する画像合成手段とを有したことを特徴とするカメラシステム。
  2. ズーム部、フォーカス部、アイリス部を駆動可能なレンズ装置と、前記レンズ装置を通して、撮像素子上に結像した撮影映像を表示手段に表示するカメラ装置と、前記レンズ装置と前記カメラ装置とをパン、チルト動作と高さ可変とする三脚装置からなるカメラシステムであって、ズーム、フォーカス、アイリス、パン、チルトの各位置情報と、前記レンズ装置の位置情報とからなる撮影位置情報を取得する撮影位置情報取得手段と、前記撮影位置情報から撮影範囲を示す撮影範囲情報を演算する撮影範囲情報演算手段と、第1のカメラシステムと第2のカメラシステムとで撮影範囲情報を送受信する通信手段と、第2のカメラシステムの撮影範囲情報から、第1のカメラシステムの撮影映像内における第2のカメラシステムの撮影範囲表示位置を演算する撮影範囲表示位置演算手段と、前記通信手段により第1のカメラシステムの撮影映像と第1のカメラシステムの撮影映像内における第2のカメラシステムの撮影範囲表示位置を受信し、受信した前記撮影映像と前記撮影範囲表示位置から、第2のカメラシステムの撮影範囲を表す図形表示を第2のカメラシステムの表示手段に第1のカメラシステムの撮影映像に重ねて表示する画像合成手段とを有したことを特徴とするカメラシステム。
  3. 表示する映像の種類を切替える映像切替手段を持ち、第2のカメラシステムの撮影範囲を表す図形表示を第1のカメラシステムの撮影映像に重ねて表示する時の拡大率を切替えることを特徴とする請求項1、または2に記載のカメラシステム。
  4. ズーム部、フォーカス部、アイリス部を駆動可能なレンズ装置と、前記レンズ装置を通して、撮像素子上に結像した撮影映像を表示手段に表示するカメラ装置と、前記レンズ装置と前記カメラ装置とをパン、チルト動作と高さ可変とする三脚装置からなるカメラシステムであって、ズーム、フォーカス、アイリス、パン、チルトの各位置情報と、前記レンズ装置の位置情報とからなる撮影位置情報を取得する撮影位置情報取得手段と、前記撮影位置情報から撮影範囲を示す撮影範囲情報を演算する撮影範囲情報演算手段と、第1のカメラシステムと第2のカメラシステムとで撮影範囲情報を送受信し、かつ固定されたカメラ装置が撮影した撮影映像を受信する通信手段と、第2のカメラシステムの撮影範囲情報から、前記固定されたカメラ装置の撮影映像内における第2のカメラシステムの撮影範囲表示位置を演算する撮影範囲表示位置演算手段と、前記撮影範囲表示位置手段により算出された撮影範囲表示位置から、第2のカメラシステムの撮影範囲を表す図形表示を第1のカメラシステムの表示手段に前記固定されたカメラ装置の撮影映像に重ねて表示する画像合成手段とを有したことを特徴とするカメラシステム。
  5. 前記撮影位置情報からフォーカス位置情報を演算するフォーカス位置情報演算手段と、第1のカメラシステムと第2のカメラシステムとで撮影範囲情報とフォーカス位置情報を送受信する通信手段と、第2のカメラシステムの撮影範囲情報とフォーカス位置情報から、第1のカメラシステムの撮影映像内における第2のカメラシステムのフォーカス表示位置を演算するフォーカス表示位置演算手段と、前記フォーカス表示位置演算手段により算出されたフォーカス表示位置から、第2のカメラシステムのフォーカス位置を表す図形表示を表示することを特徴とする請求項1〜4に記載のカメラシステム。
  6. 前記フォーカス位置情報とは、物体距離であることを特徴とする請求項5に記載の撮影システム。
  7. 前記フォーカス位置情報とは、被写界深度であることを特徴とする請求項5に記載の撮影システム。
  8. 撮影範囲表示設定手段を有し、撮影状態表示設定手段によって、カメラシステムごとに撮影範囲を示す図形表示の表示色または表示形状を設定できることを特徴とする請求項1〜7に記載のカメラシステム。
  9. 複数のカメラシステムの撮影映像から放送用映像として1つの撮影映像を選択する放送撮影映像選択装置から、前記放送用映像を撮影しているカメラシステムの情報を取得し、放送用映像を撮影しているカメラシステムの撮影範囲を示す図形表示を、特定の表示色または表示形状で表示することを特徴とする請求項1〜8に記載のカメラシステム。
JP2009287353A 2009-12-18 2009-12-18 放送用カメラシステム Pending JP2011130234A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009287353A JP2011130234A (ja) 2009-12-18 2009-12-18 放送用カメラシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009287353A JP2011130234A (ja) 2009-12-18 2009-12-18 放送用カメラシステム

Publications (1)

Publication Number Publication Date
JP2011130234A true JP2011130234A (ja) 2011-06-30

Family

ID=44292319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009287353A Pending JP2011130234A (ja) 2009-12-18 2009-12-18 放送用カメラシステム

Country Status (1)

Country Link
JP (1) JP2011130234A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014522622A (ja) * 2012-06-11 2014-09-04 センター オブ ヒューマン−センタード インタラクション フォー コイグジステンス アイコンタクトが可能な3次元遠隔会議装置およびこれを用いた方法
JP2015136063A (ja) * 2014-01-17 2015-07-27 オリンパス株式会社 表示機器、表示方法、撮影装置及び撮影システム
WO2017122512A1 (ja) * 2016-01-15 2017-07-20 富士フイルム株式会社 撮像システム、撮像装置及び撮像装置の作動方法
WO2017122513A1 (ja) * 2016-01-15 2017-07-20 富士フイルム株式会社 撮像システム、レンズ装置及びレンズ装置の作動方法
WO2017203796A1 (ja) * 2016-05-25 2017-11-30 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019140459A (ja) * 2018-02-07 2019-08-22 富士ゼロックス株式会社 表示情報作成装置、情報処理装置、撮影システムおよびプログラム
WO2021193342A1 (ja) * 2020-03-27 2021-09-30 ソニーグループ株式会社 カメラシステム、通信方法、信号処理装置及びカメラ
WO2024084943A1 (ja) * 2022-10-21 2024-04-25 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014522622A (ja) * 2012-06-11 2014-09-04 センター オブ ヒューマン−センタード インタラクション フォー コイグジステンス アイコンタクトが可能な3次元遠隔会議装置およびこれを用いた方法
US9077974B2 (en) 2012-06-11 2015-07-07 Center Of Human-Centered Interaction For Coexistence 3D video-teleconferencing apparatus capable of eye contact and method using the same
JP2015136063A (ja) * 2014-01-17 2015-07-27 オリンパス株式会社 表示機器、表示方法、撮影装置及び撮影システム
US10645296B2 (en) 2016-01-15 2020-05-05 Fujifilm Corporation Imaging system, imaging device, and method of operating imaging device
CN108476280B (zh) * 2016-01-15 2019-06-18 富士胶片株式会社 摄像系统、摄像装置及摄像装置的工作方法
WO2017122512A1 (ja) * 2016-01-15 2017-07-20 富士フイルム株式会社 撮像システム、撮像装置及び撮像装置の作動方法
CN108463991A (zh) * 2016-01-15 2018-08-28 富士胶片株式会社 摄像系统、透镜装置及透镜装置的工作方法
CN108476280A (zh) * 2016-01-15 2018-08-31 富士胶片株式会社 摄像系统、摄像装置及摄像装置的工作方法
JPWO2017122513A1 (ja) * 2016-01-15 2018-09-13 富士フイルム株式会社 撮像システム、レンズ装置及びレンズ装置の作動方法
JPWO2017122512A1 (ja) * 2016-01-15 2018-11-08 富士フイルム株式会社 撮像システム、撮像装置及び撮像装置の作動方法
US10574907B2 (en) 2016-01-15 2020-02-25 Fujifilm Corporation Imaging system, lens device, and method of operating lens device
WO2017122513A1 (ja) * 2016-01-15 2017-07-20 富士フイルム株式会社 撮像システム、レンズ装置及びレンズ装置の作動方法
CN108463991B (zh) * 2016-01-15 2019-06-11 富士胶片株式会社 摄像系统、透镜装置及透镜装置的工作方法
US20190121217A1 (en) * 2016-05-25 2019-04-25 Sony Corporation Information processing device, information processing method, and program
JPWO2017203796A1 (ja) * 2016-05-25 2019-03-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN109196853A (zh) * 2016-05-25 2019-01-11 索尼公司 信息处理装置、信息处理方法以及程序
US10606149B2 (en) 2016-05-25 2020-03-31 Sony Corporation Information processing device, information processing method, and program
WO2017203796A1 (ja) * 2016-05-25 2017-11-30 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN109196853B (zh) * 2016-05-25 2020-10-30 索尼公司 信息处理装置、信息处理方法以及计算机可读存储介质
JP2019140459A (ja) * 2018-02-07 2019-08-22 富士ゼロックス株式会社 表示情報作成装置、情報処理装置、撮影システムおよびプログラム
US11356632B2 (en) 2018-02-07 2022-06-07 Fujifilm Business Innovation Corp. Display-information generating apparatus, information processing apparatus, and imaging system
JP7130976B2 (ja) 2018-02-07 2022-09-06 富士フイルムビジネスイノベーション株式会社 表示情報作成装置、撮影システムおよびプログラム
WO2021193342A1 (ja) * 2020-03-27 2021-09-30 ソニーグループ株式会社 カメラシステム、通信方法、信号処理装置及びカメラ
WO2024084943A1 (ja) * 2022-10-21 2024-04-25 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Similar Documents

Publication Publication Date Title
JP2011130234A (ja) 放送用カメラシステム
EP3367662B1 (en) Control device, camera system, and program
JP5371686B2 (ja) 撮像装置、撮像方法、及び撮像システム
US8223214B2 (en) Camera system with masking processor
JP6398472B2 (ja) 画像表示システム、画像表示装置、画像表示方法、およびプログラム
JP6615545B2 (ja) 画像処理装置、画像処理方法および画像処理用プログラム
KR101685418B1 (ko) 3차원 영상을 생성하는 감시 시스템
KR20120108747A (ko) 3차원 영상을 생성하는 감시 카메라 및 그 방법
JP2015148765A (ja) 撮像装置、表示装置、光学装置、及び撮像システム
US20210377432A1 (en) Information processing apparatus, information processing method, program, and interchangeable lens
JP2016004163A (ja) 制御装置、制御方法及びプログラム
US20140210957A1 (en) Stereoscopic imaging apparatus and method of displaying in-focus state confirmation image
JP2010213249A (ja) ビデオカメラ撮像装置
JP2012109852A (ja) 遠隔画像表示システム、装置および方法
JP2019054369A (ja) 撮像装置、撮像装置の制御方法及びプログラム
KR20110044101A (ko) 듀얼 카메라를 이용한 실시간 감시장치
JP2010181826A (ja) 立体画像形成装置
KR101452342B1 (ko) 감시카메라 유닛 및 그 구동방법
US8908012B2 (en) Electronic device and method for creating three-dimensional image
KR101814714B1 (ko) 스마트폰 카메라 원격 제어 방법 및 시스템
JP5223096B2 (ja) 3d映像撮影制御システム、3d映像撮影制御方法、およびプログラム
JP5514062B2 (ja) 電子機器、情報付き撮像画面表示方法及びプログラム
JP2004128646A (ja) 監視システムおよび制御装置
JP5509986B2 (ja) 画像処理装置、画像処理システム、及び画像処理プログラム
JP2022105568A (ja) 3dツアーの比較表示システム及び方法