JP3792901B2 - Camera control system and control method thereof - Google Patents

Camera control system and control method thereof Download PDF

Info

Publication number
JP3792901B2
JP3792901B2 JP19268298A JP19268298A JP3792901B2 JP 3792901 B2 JP3792901 B2 JP 3792901B2 JP 19268298 A JP19268298 A JP 19268298A JP 19268298 A JP19268298 A JP 19268298A JP 3792901 B2 JP3792901 B2 JP 3792901B2
Authority
JP
Japan
Prior art keywords
camera
image
wide
angle
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP19268298A
Other languages
Japanese (ja)
Other versions
JP2000032319A (en
Inventor
衛 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP19268298A priority Critical patent/JP3792901B2/en
Priority to US09/346,256 priority patent/US6977676B1/en
Publication of JP2000032319A publication Critical patent/JP2000032319A/en
Application granted granted Critical
Publication of JP3792901B2 publication Critical patent/JP3792901B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明はカメラ制御システム及びその制御方法に関し、特に、カメラから入力されデジタル処理装置で処理された動画像データを遠隔で利用する映像データの通信処理システム、例えばTV会議システムや映像監視システムに用いて好適なものである。
【0002】
【従来の技術】
従来、TV会議や監視カメラなどの分野においては、カメラと、そのパラメータ等を遠隔からネットワークを介して制御可能なユーザ端末とによりシステムが構成され、ユーザが遠隔のカメラを遠隔から制御し、撮影された映像を受信して表示できるように構成されていた。そして、カメラとしては、撮影姿勢を可変とするために雲台付きカメラが用いられていた。
【0003】
この雲台付きカメラは、専用のコントローラを用いて、左右のパン、上下のチルトをボタンやジョイスティックで制御する方式をとっていた。また近年では、コンピュータのディスプレイ上に専用のコントローラをGUI等によって擬似的に表示し、それをマウス等で制御することも行われていた。
【0004】
また、監視カメラの多くは、雲台が付けられていても、あらかじめ決められた動きで雲台が制御され、あらかじめ決められた何箇所かの映像を監視するように構成されていた。
【0005】
【発明が解決しようとする課題】
しかしながら、これら従来のシステムでは、伝送されてくる映像は、ある時点で雲台付きカメラにより実際に撮影された映像だけであったので、その周りの状態は見ることができず、雲台を動かした後の映像を事前に直感することができなかった。そのため、所望の位置を撮影するためには、送られてきた映像を見て何度も雲台の位置を修正する必要があった。
【0006】
ところで、カメラマンがカメラを持って撮影現場で撮影をする場合は、片方の眼でカメラのファインダを覗いているが、もう片方では周辺を観察しており、次に撮影したいアングルにカメラを瞬時に向けることができる。このようなことができるのは、カメラマンが、実際に撮影しているファインダ内の映像だけでなく、他に撮影する可能性のある周辺も同時に見ているからである。
【0007】
このように、TV会議や遠隔監視などにおいて、映像を見ながら遠隔の雲台付きカメラの姿勢制御を対話的に行いたいとき、カメラが運動して撮影できるすべての領域の映像を見ながら雲台を制御すれば、利用者は、あたかも上述のカメラマンのようにカメラを持ってその場所に居ながら撮影範囲を制御しているかのように感じられ、容易に操作することができる。
【0008】
そのために従来とられてきた方法は、まずカメラを動かして撮影可能な領域をすべて撮影し、それらの画像を画像処理によって1枚の画像にする。そして、利用者がこれにより得られる静止画を見ながらカメラの撮影姿勢やズームを制御するものであった。
【0009】
しかしながら、このような画像処理で生成できる全体領域の画像は静止画像であり、リアルタイムな映像ではない。そのため、例えばTV会議において発言を求めている参加者にカメラを向けたり、遠隔監視において急な侵入者にカメラを向けるなどといったように、撮影したいアングルにカメラを瞬時に向けることが最も必要とされる場合が十分に支援されないという問題があった。
【0010】
本発明は、このような問題を解決するために成されたものであり、TV会議や遠隔監視などの際に、利用者の希望するカメラ姿勢等を簡単かつ瞬時に指示できるようにすることを目的とする。
【0011】
【課題を解決するための手段】
本発明のカメラ制御システムは、広い画角で画像を撮像する広角カメラ、および撮影状態を制御可能な可制御カメラを備えた第1の装置と、上記第1の装置とネットワーク接続され、上記可制御カメラの撮影状態を遠隔制御可能な第2の装置とにより構成されるカメラ制御システムであって、上記第1の装置は、上記広角カメラにより得られた第1フレーム画像を第1間隔で連続的に生成し出力する第1出力手段と、上記可制御カメラにより得られた第2フレーム画像を第2間隔で連続的に生成し出力する第2出力手段とを備え、上記第2の装置は、上記第1及び第2の出力手段から出力された第1及び第2のフレーム画像を表示するとともに、上記第1フレーム画像に上記可制御カメラの撮影領域を示す領域を重ねて表示する表示手段と、上記表示手段により表示された第1フレーム画像内で所望の領域を指示する指示手段と、上記指示手段により指示された領域に対応する画像を撮影するように上記可制御カメラのパン、チルト、ズームのうち少なくとも1つの制御命令を発行する制御手段とを備え、上記第1出力手段は、上記制御命令に応じて上記可制御カメラの制御が完了した上記第1間隔とは独立したタイミングで第1フレーム画像を生成して出力し、上記表示手段は上記タイミングに応答して第1フレーム画像を更新表示するようにしたことを特徴とする。
また、本発明のカメラ制御システムの制御方法は、広い画角で画像を撮像する広角カメラ、および撮影状態を制御可能な可制御カメラを備え、上記広角カメラにより得られた第1フレーム画像を第1間隔で連続的に生成し出力するとともに、上記可制御カメラにより得られた第2フレーム画像を第2間隔で連続的に生成し出力する第1の装置と、上記第1の装置とネットワーク接続され、上記可制御カメラの撮影状態を遠隔制御可能な第2の装置とにより構成されるカメラ制御システムの制御方法であって、上記第2の装置において、上記第1の装置から出力された第1及び第2のフレーム画像を表示するとともに、上記第1フレーム画像に上記可制御カメラの撮影領域を示す領域を重ねて表示する表示工程と、上記第2の装置において、上記表示工程により表示された第1フレーム画像内で所望の領域を指示する指示工程と、上記第2の装置において、上記指示工程により指示された領域に対応する画像を撮影するように上記可制御カメラのパン、チルト、ズームのうち少なくとも1つの制御命令を発行する制御工程と、上記第1の装置において、上記制御命令に応じて上記可制御カメラの制御が完了した上記第1間隔とは独立したタイミングで第1フレーム画像を生成して出力する出力工程と、上記第1の装置において、上記タイミングに応答して第1フレーム画像を更新表示する更新工程とを実行させることを特徴とする。
【0012】
【発明の実施の形態】
(第一の実施形態)
図1は、本発明の一実施形態に係るカメラ制御システムの概略構成を示すブロック図である。図1において、101は広い画角を撮影可能な広角カメラ、102は広角カメラ101で撮影した映像をデジタル化する画像デジタル化回路、103はデジタル化された映像を処理する画像処理回路、104は映像を符号化する画像符号化回路である。
【0013】
また、105はCPU、メモリ、ネットワークアダプタ等から成る通信制御回路、106は雲台付きカメラ110が備えるズームカメラ、107は雲台付きカメラ110が備える雲台、108は雲台付きカメラ110で撮影された映像をデジタル化する画像デジタル化回路、109はネットワークを介して遠隔に置かれた第2の装置である。なお、この第2の装置109に対して上記101〜108で構成されるのが第1の装置である。
【0014】
この第2の装置109について詳しくは述べないが、ネットワークに接続し、ハイパーテキストデータを表示するなどの機能を持つ既存のパーソナルコンピュータ(PC)やネットワークPC、あるいはワークステーションなどで構成される。本実施形態においては、第2の装置109として、JPEG画像などの表示ソフトを使ってデジタル画像を表示できるPCを使って説明する。
【0015】
図2は、本実施形態によるPC109への映像の表示例を示す図である。ここに示すように、映像はマルチウィンドウシステムの上に表示されている。図2において、201はディスプレイ、202は雲台付きカメラ110によって撮像された映像を表示する詳細映像表示ウィンドウ、203は広角カメラ101によって撮像された映像を表示するパノラマ映像表示ウィンドウである。
【0016】
また、204は詳細映像が全体映像(パノラマ映像)の中のどこに対応するかを示すための指示枠であり、パノラマ映像表示ウィンドウ203上に重畳して表示される。205はズームカメラ106のズーム制御を行うためのGUIによるスライダバー、206は雲台付きカメラ110の制御権を取得するためのGUIボタンである。
【0017】
図3は、本実施形態によるデータの流れを模式的にタイムチャートに表したものである。図3(図1も同様)において、112は広角カメラ101により撮影された映像信号、114は画像符号化回路104により圧縮符号化された映像信号、116は雲台付きカメラ110により撮影された映像信号、118はズームカメラ106および雲台107を制御するための制御信号である。
【0018】
また、115はネットワーク上を流れるネットワーク信号であり、これは、雲台カメラ映像要求信号115(a) 、雲台カメラ符号化映像信号115(b) 、広角カメラ映像要求信号115(c) 、雲台・ズーム制御信号115(d) 、広角カメラ符号化映像信号115(e) の5つに分かれる。なお、図3において横軸は時間を表している。
【0019】
図4は、広角カメラ101で撮影される映像を模式的に示したものである。本実施形態では、広角カメラ101として、正射影方式の魚眼レンズを持つカメラを用いた場合について説明する。
【0020】
図4(a)は、魚眼レンズに入る光を模式的に3次元で示したものであり、A〜Fは光軸を通る平面に対して垂直に立てられた柱である。柱Aは光軸に対して0°、柱Bは光軸に対して10°の角度を成して立てられており、以下C,D,E,Fの各柱は各々光軸に対して30°、45°、60°、90°の角度を成して立てられている。各柱A〜Fの魚眼レンズまでの距離は全て同じである。
【0021】
図4(b)は、図4(a)に示した各柱A〜Fを魚眼レンズで撮影して得られる画像を示している。図4(b)中のA′〜F′は、それぞれ図4(a)の各柱A〜Fの像である。
図4(c)は、図4(a)に示した各柱A〜Fを各々の像の光軸に対する角度が一定となるように表現したパノラマ映像を示している。図4(c)中のA″〜F″は、それぞれ図4(a)に示した各柱A〜Fの像である。
【0022】
図5は、広角カメラ101により撮影された映像に対応するパノラマ映像を示した図である。図5において、51は魚眼レンズによって撮影された半天の映像、52は半天映像51のうち実世界で横方向に±90°、縦方向に±30°の範囲を示したものである。54は実際に表示に用いられるパノラマ映像、矢印53,55は画像処理の方向を示したものである。また、括弧()で括られた数値は、各映像上の座標位置を示したものである。
【0023】
以下、本実施形態の動作を図1〜図5に従って説明する。まず、図1において映像データの流れを説明する。
魚眼レンズを有する広角カメラ101によって集光され電気信号に変換された映像信号111は、画像デジタル化回路102によってデジタルの映像信号112に変換され、さらに画像処理回路103によって後述する画像処理が施されることにより、パノラマ映像信号113となる。こうして生成されたパノラマ映像信号113は、画像符号化回路104によって例えばJPEGなどの符号化方式で圧縮符号化される。
【0024】
一方、雲台付きカメラ110のズームカメラ106によって集光され電気信号に変換された映像信号116は、画像デジタル化回路108によってデジタルの映像信号117に変換され、さらに画像符号化回路104によって圧縮符号化される。画像符号化回路104は、画像処理回路103より出力されるパノラマ映像信号113と、画像デジタル化回路108より出力されるデジタル映像信号117との何れかを選択して符号化する。
【0025】
上記画像符号化回路104によって符号化された映像信号114は、通信制御回路105に送られてネットワークヘ送出され、PC109に送られる。そして、このPC109において復号化の処理などが施され、ディスプレイ上に表示される。ここで、ネットワークとは、例えばTCP/IPを用いたインターネット準拠のコンピュータネットワークである。
【0026】
次に、図3に従って映像とカメラ制御の流れを説明する。
PC109に搭載されたコントロールプログラムは、まず、雲台カメラ映像要求信号115(a) (雲台カメラ映像要求A10)を送出する。このPC109からの雲台カメラ映像要求A10は、通信制御回路105で受け取られる。通信制御回路105は、画像符号化回路104に対して、画像デジタル化回路108からのデジタル映像信号117を選択する指示を行う。
【0027】
このとき画像デジタル化回路108に取り込まれる映像の1フレームが雲台付きカメラ映像信号116のフレームA11であり、これが画像符号化回路104によって符号化されて符号化映像信号114のフレームA12となる。さらに、通信制御回路105によって、雲台カメラ符号化映像信号115(b) のフレームA13となってネットワークに伝送され、PC109によって図2の詳細映像表示ウィンドウ202にフレームA14として表示される。この一連の動作は、ユーザによって終了が指示されるまで操り返される(雲台カメラ映像要求信号115(a) がA10に続いてA20,A30,……と一定間隔で出力される)。
【0028】
一方、PC109に搭載されたコントロールプログラムは、広角カメラ映像要求信号115(c) (パノラマ映像要求B10)を送出する。このPC109からのパノラマ映像要求B10は、通信制御回路105で受け取られる。通信制御回路105は、画像符号化回路104に対して、画像処理回路103からのパノラマ映像信号113を選択する指示を行う。
【0029】
このとき画像処理回路103に取り込まれる映像の1フレームが広角カメラ映像信号112のフレームB11であり、これが画像処理回路103によりパノラマ映像信号に変換された後、画像符号化回路104によって符号化されて符号化映像信号114のフレームB12となる。さらに、通信制御回路105によって、その時点での雲台107とズームカメラ106のパラメータが重畳され、広角カメラ符号化映像信号115(e) のフレームB13となってネットワークに伝送される。
【0030】
そして、PC109によって図2のパノラマ映像表示ウィンドウ203にフレームB14として表示される。このとき、PC109のコントロールプログラムは、フレームB13に重畳されている雲台107とズームカメラ106のパラメータをもとに、パノラマ映像表示ウィンドウ203に表示されているフレームB14のパノラマ映像上に矩形の指示枠204を重畳して表示する。
【0031】
利用者はこの時点でのディスプレイ201を観察し、雲台付きカメラ110がどこを向いているか、また、これからどこに雲台付きカメラ110を向けるかなどの意思決定を容易に行うことができる。これにより利用者は、PC109に搭載されたコントロールプログラムを用いて、雲台107の位置とズームカメラ106のズームとの制御指令を作成する。
【0032】
雲台107の位置は、例えばパノラマ映像表示ウィンドウ203上の所望の位置もしくは領域をマウスで指定することによって指示する。また、ズームカメラ106のズームは、図2に示したスライダバー205を用いて指示する。この指示に基づく制御指令は、雲台・ズーム制御信号115(d) の制御指令C10としてPC109よりネットワークに伝送される。そして、これが通信制御回路105によって受け取られ、雲台付きカメラ110にズーム・雲台制御信号118のズーム・雲台動作指令C13として伝達される。
【0033】
通信制御回路105は、雲台107、ズームカメラ106を監視制御し、上記制御指令C10に基づく動作が完了したとき、画像符号化回路104に対して画像処理回路103からのパノラマ映像信号113を選択する指示を出す。これにより、画像符号化回路104により、広角カメラ映像信号112から生成されたパノラマ映像B21を符号化して符号化映像信号114のフレームB22を生成する。
【0034】
さらに、上記フレームB22は、通信制御回路105により、その時点での雲台107とズームカメラ106のパラメータが重畳されて広角カメラ符号化映像信号115(e) のフレームB23となり、それがPC109に伝送される。この映像は、PC109のパノラマ映像表示ウィンドウ203にフレームB24として表示される。このときも、PC109のコントロールプログラムは、フレームB23に重畳されている雲台107とズームカメラ106のパラメータをもとに、パノラマ映像表示ウィンドウ203のフレームB24の映像上に矩形の指示枠204を重畳して表示する。
【0035】
図3に示したディスプレイ201の表示フレームにおいて、Aの符号が付されたフレームは雲台付きカメラ110で撮影された詳細映像であり、Bの符号が付されたフレームは広角カメラ101で撮影されたパノラマ映像である。これから分かるように、詳細映像とパノラマ映像は適時PC109に伝送されてディスプレイ201に表示されており、詳細映像の他に、雲台付きカメラ110で撮影可能な範囲の全てがパノラマ映像として同時に提供されるようになっている。
【0036】
したがって、広角カメラ映像要求信号115(c) も適当な間隔で出力することにより、詳細映像だけでなく、その周辺の映像もほぼリアルタイムに近い形で見ることができ、周辺の状況変化を的確に把握することができる。これにより、ディスプレイ201を見ながら雲台付きカメラ110のパラメータを遠隔制御することにより、例えばTV会議において発言を求めている参加者にカメラを向けたり、遠隔監視において急な侵入者にカメラを向けるなどといったように、撮影したいアングルにカメラを瞬時に向けることができるようになる。
【0037】
なお、PC109の利用者にとって詳細映像はパノラマ映像に比べて重要度が高いので、本実施形態においては、詳細映像のフレームを伝送する割合をパノラマ映像のフレームを伝送する割合よりも多くし、映像の変化がより滑らかになるようにしている。
【0038】
次に、本実施形態におけるパノラマ映像の生成方式について、図4および図5を用いて詳細に説明する。
本実施形態で用いるパノラマ映像は、詳細映像を取得するために用いる雲台付きカメラ110でパン・チルト・ズーム値を変化させて撮像できる最大範囲を1枚に含む映像である。
【0039】
なお、雲台付きカメラ110は、例えば、パンが±50°、チルトが±20°であり、ズーム倍率は8倍で最も望遠側では視野角が6.14°とし、最も広角側では視野角が45.84°とする。以上のパン・チルトの値は光軸に対するものであり、撮像される範囲を示すとパンは±80.5°、チルトは±42.9°である。
【0040】
本実施形態では、パノラマ映像として、視野角が一定となる映像を用いる。例えば、視野角の1°を1ピクセルに対応させると、上述のカメラの場合、パノラマ映像は161×86ピクセルの画像となる。
なお、以下では、説明を簡単にするためにパンの視野が±90°、チルトが±30°のカメラを想定して説明する。
【0041】
広角カメラ101で撮影されデジタル化されたデジタル映像信号112は、魚眼レンズによって広範囲の映像が撮像されているが、本実施形態で用いた正射影投影方式の魚眼レンズなどでは先に述べたパノラマ映像とは異なり、周辺での法線方向の角度は小さく、中心部での法線方向の角度は大きく射影されている。これを説明したのが図4(b)である。すなわち、本来A′とC′間の角度とE′とF′間の角度は共に30°であるが、中心部におけるA′とC′との間隔よりも周辺部におけるE′とF′との間隔の方が短くなっている。
【0042】
以下に、実世界と魚眼カメラによる映像とパノラマ映像との関係について説明する。
図4(a)に示した各柱A〜Fの像は、魚眼レンズによって撮像素子上に投射される。各柱A〜Fの像が撮像素子上にどのように投射されるかを模式的に示したのが図4(b)である。
【0043】
すなわち、正射影投影方式の魚眼レンズでは、像の光軸中心からの変位yと焦点距離ξ、入射角度φとの間に
y=ξ・sin(φ)
の関係がある。そのため、図4(a)の6本の柱A〜Fは、撮像素子上に図4(b)のA′〜F′のように結像する。
【0044】
柱Aと柱Cの間の角度(=30°)と柱Eと柱Fの間の角度(=30°)は、撮像素子上では、
{sin(30°) −sin( 0°) }:{sin(90°) −sin(60°) }=1:0.27
の違いが出てくる。これを画像処理で補正したパノラマ映像が、図4(c)である。つまり、柱Aと柱Cの間の30°と柱Eと柱Fの間の30°が、修正画像上で1:1にマッピングされるように(A″,C″間とE″,F″間の距離が同じとなるように)画像処理する。
【0045】
本実施形態では、広角カメラ101は、雲台付きカメラ110で撮像できる範囲全てを同時に撮像することで表示するパノラマ映像を提供するが、表示の方法としては、レンズに対する像の角度が映像面で同じ大きさに射影されるような投影方式を用いる。したがって、X座標はパン角を表し、Y座標はチルト角を表すこととなる。
【0046】
魚眼レンズで撮影した映像をパノラマ映像に変換するために、パノラマ映像上の位置を(θ,φ)、これに対応した魚眼レンズによる撮影映像上の位置を(η,ζ)とし、
η=ξ・cos(φ) sin(θ) ……(1)
ζ=a・ξ・φ/π ……(2)
の関係で補正する。ここで、aは定数、ξは魚眼レンズによる撮影映像上の映像部分の円の半径であり、図5ではξ=100を使っている。
【0047】
本実施形態でパノラマ映像として用いるのは、
−90≦θ≦+90、−30≦φ≦+30
の範囲内である。画像処理回路103は、この範囲内の全てのパノラマ映像の画素について、魚眼レンズによる撮影映像の対応する画素を求める。図5(b)に54で示した矩形がパノラマ映像の範囲であり、矢印55に従って各画素の値をラスタスキャンして求めていく。図5(a)の映像51は、画角180°の正射影投影方式の魚眼レンズが生成する半天映像であり、この中の範囲52の映像が、図5(b)のパノラマ映像54に対応する。
【0048】
画像処理回路103には、図示しない画像記憶手段が備えられており、ここに記憶されるパノラマ映像の全ての181×61画素の各々について、上記した式(1),(2) を用いて対応する魚眼レンズ映像の画素位置を算出する。このとき、一般には画素位置は整数にならないので、切り捨てを行う最近傍画素方式や近傍4点による重み付け平均方式などを使って画素の値を決定する。
【0049】
次に、指示枠204の重畳方法について説明する。パノラマ映像表示ウィンドウ203に重畳する矩形の指示枠204の位置は、雲台付きカメラ110のパン・チルト・ズーム値から計算される。すなわち、パン値をθ(水平角度、単位は度)、チルト値をφ(垂直角度、単位は度)、ズーム値をZ(画像対角の成す角度、単位は度)とし、ズーム値Zがあまり大きくないと仮定する。NTSC方式の画像は4:3の横と縦の比を持っているので、横方向の画角は(4Z/5)、縦方向の画角は(3Z/5)である。
【0050】
したがって、指示枠204は、
点(θ−(4Z/5),φ−(3Z/5))、
点(θ−(4Z/5),φ+(3Z/5))、
点(θ+(4Z/5),φ+(3Z/5))、
点(θ+(4Z/5),φ−(3Z/5))
を結んだ矩形となる。なお、以上の説明では、矩形の指示枠204をPC109で重畳していたが、画像符号化に先立ってパノラマ映像に重畳しても良い。
【0051】
以上詳しく説明したように、本実施形態では、雲台付きカメラ110で撮影した詳細映像と、雲台付きカメラ110で撮影できる全範囲を広角カメラ101により撮影したパノラマ映像とをPC109に伝送し、それぞれを異なるウィンドウ上に表示するようにしたので、PC109の利用者は、自分がいま所望する詳細映像だけでなく、その周辺の映像もほぼリアルタイムに近い形で見ることができる。これにより、これらのウィンドウを見ながら雲台付きカメラ110のパラメータを遠隔制御することにより、詳細映像の表示をその周辺の状況変化等に応じて瞬時に変えるようにすることができる。
【0052】
また、広角カメラ101によって撮像されたパノラマ映像上に、雲台付きカメラ110によって撮像されている詳細映像の視野に相当する指示枠204を重畳して表示するようにしたので、雲台付きカメラ110の現在の撮影姿勢等とそのときの周囲の映像とを容易に確認することができ、姿勢制御等の動作錯誤を防止することができる。
【0053】
(第2の実施形態)
図6は、本発明による第2の実施形態を示すブロック図である。図1に示した第1の実施形態では広角カメラ101を1台のみ使用していたが、第2の実施形態では複数台使用し、これらによって撮影された映像を画像処理によって合成して送出する。なお、図6において、図1に示した要素と同じ要素には同一の符号を付している。
【0054】
第2の実施形態では、2台の広角カメラ101,601を、それぞれに180°の角度を付けて図7のように固定する。図7において、71と72は広角カメラであり、73は雲台付きズームカメラである。この雲台付きズームカメラ73は、本体から分離可能な構成としても良い。
【0055】
図6において、広角カメラ601で撮影された映像信号611は、画像デジタル化回路602によってデジタル映像信号612とされ、画像処理回路603に与えられる。画像処理回路603は、画像デジタル化回路102からのデジタル映像信号112と、画像デジタル化回路602からのデジタル映像信号612とをそれぞれ歪みのないパノラマ映像に画像処理し、更にそれらを合成して出力する。これとは逆に、先に合成してから歪みのないパノラマ映像に画像処理するようにしても良い。
【0056】
以上のように、第2の実施形態によれば、第1の実施形態で説明したように、2つの広角カメラ101,601(図7では71,72)によってそれぞれパン方向180°のパノラマ映像を得ることができる。第2の実施形態では、これらのパノラマ映像をつなげて360°の映像を作成し、それを雲台付きカメラ110の制御に用いる。よって、より広い範囲を見ながら詳細映像の表示をその周辺の状況変化等に応じて瞬時に変えるようにすることができる。
【0057】
(第3の実施形態)
図8は、本発明による第3の実施形態に係るカメラ制御システムの構成を示すブロック図である。図8において、801は広角レンズ、802は広角レンズ801で結像した映像のための光センサとA/D変換器(以下、単にA/D変換器と記す)、803は画像符号化器、804はCPU、メモリ、ネットワークアダプタなどからなる通信制御装置、805は雲台付きカメラのズームレンズ、806は雲台付きカメラの光センサとA/D変換器(以下、単にA/D変換器と記す)、807は雲台である。
【0058】
図9は、本実施形態によるPC109への表示例を示す図であり、本実施形態においてもマルチウィンドウシステムで構成されている。図9において、901はディスプレイ、902はズームレンズ805とA/D変換器806とによって撮像された雲台付きカメラの映像表示ウィンドウ、903は広角レンズ801とA/D変換器802とによって撮像された広角カメラの映像表示ウィンドウ、904は広角映像表示ウィンドウ903上に重畳表示された指示枠である。
【0059】
図10は、本実施形態によるデータの流れを模式的にタイムチャートに表したものである。図10(図8も同様)において、811は広角カメラ映像信号、812は符号化映像信号、813は雲台付きカメラ映像信号、814は雲台制御信号、815はズーム制御信号である。
【0060】
また、816はネットワーク上を流れるネットワーク信号であり、これは、雲台カメラ映像要求信号816(a) 、雲台カメラ符号化映像信号816(b) 、広角カメラ映像要求信号816(c) 、雲台・ズーム制御信号816(d) 、広角カメラ符号化映像信号816(e) の5つに分かれる。なお、図10において横軸は時間を表している。
図11は、本実施形態によるカメラの実現例を示す外観図である。
【0061】
以下、本実施形態の動作を図8〜図10に従って説明する。まず、図8において映像データの流れを説明する。
広角レンズ801によって集光され、A/D変換器802によって電気信号に変換された映像信号811は、画像符号化器803によって例えばJPEGなどの符号化方式で圧縮符号化される。
【0062】
一方、ズームレンズ805によって集光され、A/D変換器806によって電気信号に変換された映像信号813も同様に、画像符号化器803によって圧縮符号化される。画像符号化器803は、A/D変換器802より出力される広角カメラ映像信号811と、A/D変換器806より出力される雲台付きカメラ映像信号813との何れかを選択して符号化する。
【0063】
上記画像符号化器803によって符号化された映像信号812は、通信制御装置804に送られてネットワークヘ送出され、PC109に送られる。そして、このPC109において復号化の処理などが施され、ディスプレイ上に表示される。ここで、ネットワークとは、例えばTCP/IPを用いたインターネット準拠のコンピュータネットワークである。
【0064】
次に、図10に従って映像とカメラ制御の流れを説明する。
PC109に搭載されたコントロールプログラムは、まず、雲台カメラ映像要求信号816(a) (雲台カメラ映像要求A10)を送出する。このPC109からの雲台カメラ映像要求A10は、通信制御装置804で受け取られる。通信制御装置804は、画像符号化器803に対して、A/D変換器806からの雲台付きカメラ映像信号813を選択する指示を行う。
【0065】
このとき画像符号化器803に取り込まれる映像の1フレームが雲台付きカメラ映像信号813のフレームA11であり、これが画像符号化器803によって符号化されて符号化映像信号812のフレームA12となる。さらに、通信制御装置804によって、雲台カメラ符号化映像信号816(b) のフレームA13となってネットワークに伝送され、PC109によって図9の雲台カメラ映像表示ウィンドウ902にフレームA14として表示される。この一連の動作は、ユーザによって終了が指示されるまで操り返される。
【0066】
一方、PC109に搭載されたコントロールプログラムは、広角カメラ映像要求信号816(c) (広角カメラ映像要求B10)を送出する。このPC109からの広角カメラ映像要求B10は、通信制御装置804で受け取られる。通信制御装置804は、画像符号化器803に対して、A/D変換器802からの広角カメラ映像信号811を選択する指示を行う。
【0067】
このとき画像符号化器803に取り込まれる映像の1フレームが広角カメラ映像信号811のフレームB11であり、これが画像符号化器803によって符号化されて符号化映像信号812のフレームB12となる。さらに、通信制御装置804によって、その時点での雲台807とズームレンズ805のパラメータが重畳され、広角カメラ符号化映像信号816(e) のフレームB13となってネットワークに伝送される。
【0068】
そして、PC109によって図9の広角映像表示ウィンドウ903にフレームB14として表示される。このとき、PC109のコントロールプログラムは、フレームB13に重畳されている雲台807とズームレンズ805のパラメータをもとに、広角映像表示ウィンドウ903に表示されるフレームB14の映像上に矩形の指示枠904を重畳して表示する。
【0069】
利用者はこの時点でのディスプレイ901を観察し、雲台付きカメラがどこを向いているか、また、これからどこに雲台付きカメラを向けるかなどの意思決定を容易に行うことができる。これにより利用者は、PC109に搭載されたコントロールプログラムを用いて、雲台807の位置とズームレンズ805のズームとの制御指令を作成する。
【0070】
これは、雲台・ズーム制御信号816(d) の制御指令C10としてPC109よりネットワークに伝送される。そして、これが通信制御装置804によって受け取られ、雲台807に雲台制御信号814の雲台動作指令C13として伝達される。また、ズーム制御信号815のズーム動作指令C12も同様に、ズームレンズ805に伝達される。
【0071】
通信制御装置804は、雲台807、ズームレンズ805を監視制御し、上記制御指令C10に基づく動作が完了したとき、画像符号化器803に対してA/D変換器802からの広角カメラ映像信号811を選択する指示を出す。これにより、画像符号化器803により、広角カメラ映像信号811のフレームB21を符号化して符号化映像信号812のフレームB22を生成する。
【0072】
さらに、上記フレームB22は、通信制御装置804により、その時点での雲台807とズームレンズ805のパラメータが重畳されて広角カメラ符号化映像信号816(e) のフレームB23となり、それがPC109に伝送される。この映像は、PC109の広角映像表示ウィンドウ903にフレームB24として表示される。このときも、PC109のコントロールプログラムは、フレームB23に重畳されている雲台807とズームレンズ805のパラメータをもとに、広角映像表示ウィンドウ903のフレームB24の映像上に矩形の指示枠904を重畳して表示する。
【0073】
以上詳しく説明したように、第3の実施形態によれば、第1の実施形態と同様に詳細映像の表示をその周辺の状況変化等に応じて瞬時に変えるようにすることができる。第3の実施形態では、広角レンズ801は魚眼レンズではなく、歪んだ映像を修正する画像処理手段も設けていないので、装置全体のコストを低く抑えることができるとともに、処理を高速化することができる。
【0074】
(第4の実施形態)
図12は、本発明による第4の実施形態に係るカメラ制御システムの構成を示すブロック図である。
第3の実施形態では、広角映像表示ウィンドウ903の映像に矩形の指示枠904を重畳する処理をPC109において行っていたが、以下に述べる第4の実施形態では、広角カメラ映像信号811に対して画像の形式で指示枠904を重畳して送出する。
【0075】
図12において、図8に示した要素と同じ要素には同一の符号を付し、重複する説明は省略する。第4の実施形態においては、図10に示したPC109からの広角カメラ映像要求B10は、通信制御装置804で受け取られ、画像符号化器803に対してA/D変換器802からの広角カメラ映像信号811を選択する指示が成される。
【0076】
このときA/D変換器802より出力される映像の1フレームが広角カメラ映像信号811のフレームB11であり、これが画像記憶装置1201によって一時的に記憶される。そして、通信制御装置804によって、この記憶されたフレームB11に対して、メモリアドレスデータ信号1212(その時点での雲台807とズームレンズ805のパラメータから求められる)を通じて矩形の指示枠904が描画され、その結果が画像符号化器803に与えられる。
【0077】
指示枠904が描画された広角カメラ映像信号1211のフレームB11は、画像符号化器803で符号化されて符号化映像信号812のフレームB12となる。さらに、通信制御装置804によって広角カメラ符号化映像信号816(e) のフレームB13とされてネットワークに伝送され、PC109によって図9の広角映像表示ウィンドウ903にフレームB14として表示される。
【0078】
その他の動作は、第3の実施形態と同様なので、重複する説明は省略する。
なお、この第4の実施形態では、画像記憶装置1201を用いてフレーム画像を一旦保存したが、これをラインバッファなどで置き換えてもよいことは明らかである。
【0079】
(第5の実施形態)
図13は、本発明による第5の実施形態に係るカメラ制御システムの構成を示すブロック図である。この第5の実施形態では、上述した第2の実施形態と同様に、広角カメラを複数台使用し、それらで撮影される広角映像を画像処理によって合成して送出するものである。
【0080】
つまり、図13において、広角カメラ801,1301で撮影された映像信号は、A/D変換器802,1302によってそれぞれデジタル化され、画像合成器1303に与えられる。画像合成器1303は、入力された2つのデジタル映像信号を合成して出力する。その他の構成および動作は、図8で述べたとの同様なので、ここでは詳しい説明を省略する。
【0081】
(本発明の他の実施形態)
上述した実施形態の機能を実現するべく各種のデバイスを動作させるように、該各種デバイスと接続された装置あるいはシステム内のコンピュータに対し、上記実施形態の機能を実現するためのソフトウェアのプログラムコードを供給し、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)に格納されたプログラムに従って上記各種デバイスを動作させることによって実施したものも、本発明の範疇に含まれる。
【0082】
また、この場合、上記ソフトウェアのプログラムコード自体が上述した実施形態の機能を実現することになり、そのプログラムコード自体、およびそのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムコードを格納した記録媒体は本発明を構成する。かかるプログラムコードを記憶する記録媒体としては、例えばフロッピーディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。
【0083】
また、コンピュータが供給されたプログラムコードを実行することにより、上述の実施形態の機能が実現されるだけでなく、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)あるいは他のアプリケーションソフト等の共同して上述の実施形態の機能が実現される場合にもかかるプログラムコードは本発明の実施形態に含まれることは言うまでもない。
【0084】
さらに、供給されたプログラムコードがコンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後、そのプログラムコードの指示に基づいてその機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって上述した実施形態の機能が実現される場合にも本発明に含まれることは言うまでもない。
【0085】
【発明の効果】
本発明は上述したように、可制御カメラで撮影した画像と、可制御カメラで撮影できる全範囲を広角カメラにより撮影した画像とを第1の装置から第2の装置に伝送し、それぞれを表示するようにしたので、第2の装置の利用者は、自分がいま所望する詳細な画像だけでなく、その周辺の画像もほぼリアルタイムに近い形で見ることができる。これにより、これらの表示を見ながら可制御カメラの撮影状態を遠隔制御することで、詳細画像の表示をその周辺の状況変化等に応じて瞬時に変えるようにすることができる。しかも、制御命令に応じたタイミングで第1フレーム画像が生成されるので、最新の広角画像を見ることができ、周辺の状況変化を的確に把握して、正確なカメラ制御が可能となる。
したがって、例えば、TV会議や遠隔監視など映像を見ながら、遠隔の可制御カメラの撮影状態の制御を対話的に行いたいとき、可制御カメラが運動して撮影できるすべての領域の映像を見ながら撮影状態を制御することができ、容易に操作することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係るカメラ制御システムの構成を示すブロック図である。
【図2】本発明の第1の実施形態の画像表示例を示す図である。
【図3】本発明の第1の実施形態の動作を説明するためのデータフロー図である。
【図4】第1の実施形態で使用した魚眼カメラによる撮影映像とパノラマ映像との関係を示す図である。
【図5】本発明の第1の実施形態に係る画像処理を説明するための図である。
【図6】本発明の第2の実施形態に係るカメラ制御システムの構成を示すブロック図である。
【図7】本発明の第2の実施形態に係るレンズ位置を説明するための第1の装置の外観構成図である。
【図8】本発明の第3の実施形態に係るカメラ制御システムの構成を示すブロック図である。
【図9】本発明の第3の実施形態の画像表示例を示す図である。
【図10】本発明の第3の実施形態の動作を説明するためのデータフロー図である。
【図11】本発明の第3の実施形態に係る第1の装置の実現例を示す外観構成図である。
【図12】本発明の第4の実施形態に係るカメラ制御システムの構成を示すブロック図である。
【図13】本発明の第5の実施形態に係るカメラ制御システムの構成を示すブロック図である。
【符号の説明】
101 広角カメラ
103 画像処理回路
105 通信制御回路
106 ズームカメラ
107 雲台
109 PC(第2の装置)
110 雲台付きカメラ
202 詳細映像表示ウィンドウ
203 パノラマ映像表示ウィンドウ
204 指示枠
601 広角カメラ
603 画像処理回路
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a camera control system and a control method therefor, and more particularly, to a video data communication processing system that remotely uses moving image data input from a camera and processed by a digital processing device, such as a TV conference system or a video surveillance system. And suitable.
[0002]
[Prior art]
Conventionally, in fields such as TV conferences and surveillance cameras, a system is configured by a camera and a user terminal capable of remotely controlling parameters thereof via a network, and the user controls the remote camera remotely to shoot. It was configured to receive and display the recorded video. As a camera, a camera with a pan head has been used in order to change the shooting posture.
[0003]
This camera with a pan head uses a dedicated controller to control the left and right pans and the top and bottom tilts with buttons and joysticks. In recent years, a dedicated controller is displayed on a computer display in a pseudo manner using a GUI or the like, and is controlled by a mouse or the like.
[0004]
Many surveillance cameras are configured to control a pan head with a predetermined movement and monitor a predetermined number of images even if the pan head is attached.
[0005]
[Problems to be solved by the invention]
However, in these conventional systems, the only video that was transmitted was the video that was actually captured by the camera with the pan head at a certain point in time, so the surrounding conditions could not be seen and the pan head was moved. I couldn't intuitively understand the video after that. Therefore, in order to photograph a desired position, it is necessary to correct the position of the pan head many times by looking at the transmitted video.
[0006]
By the way, when a cameraman takes a camera and shoots at the shooting site, he looks through the viewfinder of the camera with one eye, but the other is observing the surroundings, and then instantly places the camera at the desired angle. Can be directed. This is possible because the cameraman sees not only the image in the viewfinder that is actually photographed, but also other areas that may be photographed at the same time.
[0007]
In this way, when you want to interactively control the attitude of a remote camera with a pan head while watching the video in a TV conference or remote monitoring, the pan head while watching the video of all areas that the camera can shoot by moving. If the user is controlled, the user feels as if he / she is holding the camera like the above-mentioned photographer and is controlling the shooting range while being in that place, and can easily operate it.
[0008]
For this purpose, the conventional method is to first shoot all areas that can be photographed by moving the camera, and convert these images into one image by image processing. Then, the user controls the shooting posture and zoom of the camera while viewing the still image obtained thereby.
[0009]
However, the image of the entire area that can be generated by such image processing is a still image, not a real-time video. For this reason, it is most necessary to point the camera instantly at the angle at which the user wants to shoot, such as pointing the camera at a participant who is requesting a speech in a TV conference, or pointing the camera at a sudden intruder in remote monitoring. There was a problem that the case was not fully supported.
[0010]
The present invention has been made to solve such a problem, and it is possible to easily and instantaneously indicate a camera posture or the like desired by a user during a TV conference or remote monitoring. Objective.
[0011]
[Means for Solving the Problems]
The camera control system according to the present invention includes a wide-angle camera that captures an image with a wide angle of view, a first device that includes a controllable camera that can control a shooting state, and a network connection with the first device. A camera control system including a second device capable of remotely controlling a shooting state of a control camera, wherein the first device continuously transmits first frame images obtained by the wide-angle camera at a first interval. First output means for automatically generating and outputting, and second output means for continuously generating and outputting the second frame image obtained by the controllable camera at a second interval, wherein the second device comprises: Display means for displaying the first and second frame images output from the first and second output means and displaying an area indicating the imaging area of the controllable camera on the first frame image. When, Panning, tilting, and zooming of the controllable camera so as to capture an image corresponding to the area instructed by the instructing means, instructing means instructing a desired area in the first frame image displayed by the displaying means Control means for issuing at least one of the control commands, wherein the first output means is the first at a timing independent of the first interval at which the control of the controllable camera is completed according to the control command. A frame image is generated and output, and the display means updates and displays the first frame image in response to the timing.
In addition, the control method of the camera control system of the present invention includes a wide-angle camera that captures an image with a wide angle of view and a controllable camera that can control the shooting state, and the first frame image obtained by the wide-angle camera is a first frame image. A first device for continuously generating and outputting at one interval and generating and outputting a second frame image obtained by the controllable camera at a second interval; and a network connection with the first device And a control method of a camera control system configured by a second device capable of remotely controlling a shooting state of the controllable camera, wherein the second device outputs the first output from the first device. In the display step of displaying the first and second frame images and displaying the region indicating the imaging region of the controllable camera on the first frame image, An instruction step for indicating a desired area in the first frame image displayed by the display step, and the controllable camera so as to capture an image corresponding to the area indicated by the instruction step in the second apparatus. A control step of issuing at least one control command of panning, tilting, and zooming, and, in the first device, independent of the first interval at which control of the controllable camera is completed in response to the control command An output step of generating and outputting a first frame image at timing, and an update step of updating and displaying the first frame image in response to the timing in the first device are executed.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of a camera control system according to an embodiment of the present invention. In FIG. 1, 101 is a wide-angle camera capable of photographing a wide angle of view, 102 is an image digitizing circuit for digitizing video captured by the wide-angle camera 101, 103 is an image processing circuit for processing digitized video, and 104 is It is an image encoding circuit for encoding video.
[0013]
Reference numeral 105 denotes a communication control circuit including a CPU, a memory, a network adapter, and the like. 106 denotes a zoom camera included in the camera 110 with a pan head. 107 denotes a pan head included in the camera 110 with a pan head. An image digitizing circuit 109 for digitizing the recorded video is a second device placed remotely via a network. Note that the first device includes the above-described 101 to 108 with respect to the second device 109.
[0014]
Although the second device 109 will not be described in detail, the second device 109 is configured by an existing personal computer (PC), network PC, or workstation having a function of connecting to a network and displaying hypertext data. In this embodiment, the second device 109 will be described using a PC that can display a digital image using display software such as a JPEG image.
[0015]
FIG. 2 is a diagram showing a display example of video on the PC 109 according to the present embodiment. As shown here, the video is displayed on a multi-window system. In FIG. 2, 201 is a display, 202 is a detailed video display window for displaying video captured by the camera with pan head 110, and 203 is a panoramic video display window for displaying video captured by the wide-angle camera 101.
[0016]
Reference numeral 204 denotes an instruction frame for indicating where the detailed video corresponds in the entire video (panoramic video), and is displayed superimposed on the panoramic video display window 203. Reference numeral 205 denotes a GUI slider bar for performing zoom control of the zoom camera 106, and reference numeral 206 denotes a GUI button for acquiring control rights of the camera 110 with a pan head.
[0017]
FIG. 3 schematically shows a data flow according to the present embodiment in a time chart. In FIG. 3 (also in FIG. 1), 112 is a video signal photographed by the wide-angle camera 101, 114 is a video signal compression-coded by the image coding circuit 104, and 116 is a video photographed by the camera 110 with a pan head. A signal 118 is a control signal for controlling the zoom camera 106 and the pan head 107.
[0018]
Reference numeral 115 denotes a network signal that flows on the network, which includes a pan / tilt camera image request signal 115 (a), a pan / tilt camera encoded image signal 115 (b), a wide-angle camera image request signal 115 (c), a cloud, and the like. The table / zoom control signal 115 (d) and the wide-angle camera encoded video signal 115 (e) are divided into five. In FIG. 3, the horizontal axis represents time.
[0019]
FIG. 4 schematically shows an image captured by the wide-angle camera 101. In the present embodiment, a case where a camera having an orthographic fisheye lens is used as the wide-angle camera 101 will be described.
[0020]
FIG. 4A schematically shows light entering the fisheye lens in three dimensions, and A to F are pillars that are set up perpendicular to a plane passing through the optical axis. Column A is set at an angle of 0 ° with respect to the optical axis, and column B is set at an angle of 10 ° with respect to the optical axis. It stands at an angle of 30 °, 45 °, 60 ° and 90 °. The distances to the fisheye lenses of the pillars A to F are all the same.
[0021]
FIG. 4B shows an image obtained by photographing the pillars A to F shown in FIG. 4A with a fisheye lens. A ′ to F ′ in FIG. 4B are images of the pillars A to F in FIG.
FIG. 4C shows a panoramic image in which the pillars A to F shown in FIG. 4A are expressed so that the angle with respect to the optical axis of each image is constant. A ″ to F ″ in FIG. 4C are images of the pillars A to F shown in FIG.
[0022]
FIG. 5 is a view showing a panoramic image corresponding to an image captured by the wide-angle camera 101. In FIG. 5, 51 is a half-sky image taken by a fisheye lens, and 52 is a range of ± 90 ° in the horizontal direction and ± 30 ° in the vertical direction in the real world. 54 is a panoramic image actually used for display, and arrows 53 and 55 indicate the direction of image processing. The numerical value enclosed in parentheses () indicates the coordinate position on each video.
[0023]
The operation of this embodiment will be described below with reference to FIGS. First, the flow of video data will be described with reference to FIG.
The video signal 111 collected by the wide-angle camera 101 having a fisheye lens and converted into an electrical signal is converted into a digital video signal 112 by the image digitizing circuit 102 and further subjected to image processing to be described later by the image processing circuit 103. As a result, the panoramic video signal 113 is obtained. The panoramic video signal 113 generated in this way is compressed and encoded by the image encoding circuit 104 by an encoding method such as JPEG.
[0024]
On the other hand, the video signal 116 condensed by the zoom camera 106 of the camera with pan head 110 and converted into an electric signal is converted into a digital video signal 117 by the image digitizing circuit 108 and further compressed by the image encoding circuit 104. It becomes. The image encoding circuit 104 selects and encodes either the panoramic video signal 113 output from the image processing circuit 103 or the digital video signal 117 output from the image digitizing circuit 108.
[0025]
The video signal 114 encoded by the image encoding circuit 104 is sent to the communication control circuit 105, sent to the network, and sent to the PC 109. Then, the PC 109 performs decryption processing and the like, and displays them on the display. Here, the network is an Internet-compliant computer network using, for example, TCP / IP.
[0026]
Next, the flow of video and camera control will be described with reference to FIG.
First, the control program installed in the PC 109 sends a pan head camera image request signal 115 (a) (camera head image request A10). The camera platform image request A 10 from the PC 109 is received by the communication control circuit 105. The communication control circuit 105 instructs the image encoding circuit 104 to select the digital video signal 117 from the image digitizing circuit 108.
[0027]
At this time, one frame of the video captured by the image digitizing circuit 108 is a frame A11 of the camera video signal 116 with a pan head, which is encoded by the image encoding circuit 104 and becomes a frame A12 of the encoded video signal 114. Further, the communication control circuit 105 transmits the frame A13 of the camera platform encoded video signal 115 (b) to the network and displays it as the frame A14 in the detailed video display window 202 of FIG. This series of operations is repeated until the end is instructed by the user (the pan head camera image request signal 115 (a) is output at a constant interval of A20, A30,... Following A10).
[0028]
On the other hand, the control program installed in the PC 109 sends out a wide-angle camera video request signal 115 (c) (panoramic video request B10). The panorama video request B 10 from the PC 109 is received by the communication control circuit 105. The communication control circuit 105 instructs the image encoding circuit 104 to select the panoramic video signal 113 from the image processing circuit 103.
[0029]
At this time, one frame of the video captured by the image processing circuit 103 is a frame B11 of the wide-angle camera video signal 112, which is converted into a panoramic video signal by the image processing circuit 103 and then encoded by the image encoding circuit 104. This is the frame B12 of the encoded video signal 114. Further, the communication control circuit 105 superimposes the parameters of the camera platform 107 and the zoom camera 106 at that time, and transmits them to the network as a frame B13 of the wide-angle camera encoded video signal 115 (e).
[0030]
Then, it is displayed as a frame B14 by the PC 109 in the panoramic video display window 203 of FIG. At this time, the control program of the PC 109 designates a rectangle on the panoramic video of the frame B14 displayed in the panoramic video display window 203 based on the parameters of the pan head 107 and the zoom camera 106 superimposed on the frame B13. The frame 204 is superimposed and displayed.
[0031]
A user observes the display 201 at this point, and can easily make a decision such as where the camera 110 with a pan head is facing and where the camera 110 with a pan head is directed. Thus, the user creates a control command for the position of the pan head 107 and the zoom of the zoom camera 106 using a control program installed in the PC 109.
[0032]
The position of the pan head 107 is instructed by designating a desired position or region on the panoramic video display window 203 with a mouse, for example. The zoom of the zoom camera 106 is instructed using the slider bar 205 shown in FIG. A control command based on this instruction is transmitted from the PC 109 to the network as a control command C10 of the pan / zoom control signal 115 (d). This is received by the communication control circuit 105, and is transmitted to the camera with pan head 110 as a zoom / head operation command C 13 of the zoom / head control signal 118.
[0033]
The communication control circuit 105 monitors and controls the pan head 107 and the zoom camera 106, and selects the panoramic video signal 113 from the image processing circuit 103 to the image encoding circuit 104 when the operation based on the control command C10 is completed. Give instructions to do. As a result, the image encoding circuit 104 encodes the panoramic video B21 generated from the wide-angle camera video signal 112 to generate a frame B22 of the encoded video signal 114.
[0034]
Further, the communication control circuit 105 superimposes the parameters of the camera platform 107 and the zoom camera 106 on the frame B22 to form the frame B23 of the wide-angle camera encoded video signal 115 (e), which is transmitted to the PC 109. Is done. This video is displayed as a frame B24 in the panoramic video display window 203 of the PC 109. Also at this time, the control program of the PC 109 superimposes the rectangular instruction frame 204 on the video of the frame B24 of the panoramic video display window 203 based on the parameters of the pan head 107 and the zoom camera 106 superimposed on the frame B23. And display.
[0035]
In the display frame of the display 201 shown in FIG. 3, the frame with the symbol A is a detailed image captured by the camera 110 with the pan head, and the frame with the symbol B is captured by the wide-angle camera 101. Panoramic video. As can be seen, the detailed video and the panoramic video are transmitted to the PC 109 in a timely manner and displayed on the display 201. In addition to the detailed video, the entire range that can be photographed by the camera 110 with the pan head is simultaneously provided as a panoramic video. It has become so.
[0036]
Therefore, by outputting the wide-angle camera image request signal 115 (c) at an appropriate interval, not only the detailed image but also the surrounding image can be viewed in almost real time, and the change in the surrounding situation can be accurately observed. I can grasp it. Thus, by remotely controlling the parameters of the camera with pan head 110 while looking at the display 201, for example, the camera is directed to a participant who is requesting speech in a TV conference, or the camera is directed to a sudden intruder in remote monitoring. And so on, you can instantly point the camera to the angle you want to shoot.
[0037]
Since the detailed video is more important than the panoramic video for the user of the PC 109, in this embodiment, the rate of transmitting the frame of the detailed video is set higher than the rate of transmitting the frame of the panoramic video. The changes are made smoother.
[0038]
Next, a panoramic video generation method according to the present embodiment will be described in detail with reference to FIGS. 4 and 5.
The panoramic image used in the present embodiment is an image including the maximum range that can be captured by changing the pan / tilt / zoom values with the camera with pan head 110 used for acquiring the detailed image.
[0039]
The camera with pan head 110 has, for example, a pan of ± 50 ° and a tilt of ± 20 °, a zoom magnification of 8 times, a viewing angle of 6.14 ° on the telephoto side, and a viewing angle on the widest side. Is 45.84 °. The above pan / tilt values are relative to the optical axis. When the range to be imaged is shown, pan is ± 80.5 ° and tilt is ± 42.9 °.
[0040]
In the present embodiment, an image with a constant viewing angle is used as the panoramic image. For example, when the viewing angle of 1 ° corresponds to 1 pixel, in the case of the above-described camera, the panoramic image is an image of 161 × 86 pixels.
In the following description, for the sake of simplicity, a camera with a pan field of view of ± 90 ° and a tilt of ± 30 ° is assumed.
[0041]
The digital video signal 112 photographed and digitized by the wide-angle camera 101 has a wide range of images captured by the fisheye lens, but the orthographic projection type fisheye lens used in this embodiment is the panoramic image described above. In contrast, the angle in the normal direction at the periphery is small, and the angle in the normal direction at the center is greatly projected. This is illustrated in FIG. 4 (b). In other words, the angle between A ′ and C ′ and the angle between E ′ and F ′ are both 30 ° originally, but E ′ and F ′ in the peripheral part rather than the distance between A ′ and C ′ in the central part. The interval of is shorter.
[0042]
In the following, the relationship between the real world, a fisheye camera image, and a panoramic image will be described.
The images of the pillars A to F shown in FIG. 4A are projected onto the image sensor by the fisheye lens. FIG. 4B schematically shows how the images of the pillars A to F are projected onto the image sensor.
[0043]
That is, in the orthographic projection type fisheye lens, the displacement y from the optical axis center of the image, the focal length ξ, and the incident angle φ are between
y = ξ · sin (φ)
There is a relationship. Therefore, the six pillars A to F in FIG. 4A are imaged on the image sensor as A ′ to F ′ in FIG.
[0044]
The angle between the column A and the column C (= 30 °) and the angle between the column E and the column F (= 30 °) are as follows on the image sensor.
{Sin (30 °) −sin (0 °)}: {sin (90 °) −sin (60 °)} = 1: 0.27
The difference comes out. A panoramic image obtained by correcting this by image processing is shown in FIG. That is, 30 ° between the columns A and C and 30 ° between the columns E and F are mapped 1: 1 on the corrected image (between A ″ and C ″ and E ″, F). Process the images so that the distance between them is the same.
[0045]
In the present embodiment, the wide-angle camera 101 provides a panoramic image that is displayed by simultaneously imaging the entire range that can be imaged by the camera 110 with a pan head. As a display method, the angle of the image with respect to the lens is on the image plane. Use a projection method that projects to the same size. Therefore, the X coordinate represents the pan angle, and the Y coordinate represents the tilt angle.
[0046]
In order to convert a video shot with a fisheye lens into a panoramic video, the position on the panoramic video is (θ, φ), the corresponding position on the video shot with the fisheye lens is (η, ζ),
η = ξ · cos (φ) sin (θ) (1)
ζ = a · ξ · φ / π (2)
Correct the relationship. Here, a is a constant, ξ is the radius of the circle of the image portion on the image taken by the fisheye lens, and ξ = 100 is used in FIG.
[0047]
What is used as a panoramic image in this embodiment is
−90 ≦ θ ≦ + 90, −30 ≦ φ ≦ + 30
Is within the range. The image processing circuit 103 obtains corresponding pixels of the image captured by the fisheye lens for all panoramic image pixels within this range. A rectangle indicated by 54 in FIG. 5B is the range of the panoramic image, and the value of each pixel is obtained by raster scanning according to the arrow 55. A video 51 in FIG. 5A is a half-sky video generated by an orthographic projection fisheye lens having an angle of view of 180 °, and a video in a range 52 in the video corresponds to the panoramic video 54 in FIG. .
[0048]
The image processing circuit 103 is provided with an image storage means (not shown), and each of the 181 × 61 pixels of the panoramic video stored therein is handled by using the above equations (1) and (2). The pixel position of the fisheye lens image to be calculated is calculated. At this time, since the pixel position is generally not an integer, the pixel value is determined by using a nearest pixel method for rounding down or a weighted average method using four neighboring points.
[0049]
Next, a method for superimposing the instruction frame 204 will be described. The position of the rectangular instruction frame 204 superimposed on the panoramic video display window 203 is calculated from the pan / tilt / zoom values of the camera 110 with a pan head. That is, the pan value is θ (horizontal angle, unit is degree), the tilt value is φ (vertical angle, unit is degree), the zoom value is Z (angle formed by image diagonal, unit is degree), and the zoom value Z is Assume that it is not very large. Since the NTSC image has a 4: 3 aspect ratio, the field angle in the horizontal direction is (4Z / 5) and the field angle in the vertical direction is (3Z / 5).
[0050]
Therefore, the instruction frame 204 is
Point (θ− (4Z / 5), φ− (3Z / 5)),
Point (θ− (4Z / 5), φ + (3Z / 5)),
Point (θ + (4Z / 5), φ + (3Z / 5)),
Point (θ + (4Z / 5), φ− (3Z / 5))
It becomes a rectangle connecting. In the above description, the rectangular instruction frame 204 is superimposed on the PC 109, but may be superimposed on the panoramic video prior to image encoding.
[0051]
As described above in detail, in the present embodiment, the detailed image captured by the camera with pan head 110 and the panoramic image captured by the wide-angle camera 101 over the entire range that can be captured by the camera with pan head 110 are transmitted to the PC 109. Since each of them is displayed on a different window, the user of the PC 109 can view not only the detailed video that he / she desires but also the video around it in almost real time. Thus, by remotely controlling the parameters of the camera with pan head 110 while looking at these windows, the display of the detailed video can be instantaneously changed according to the surrounding situation change or the like.
[0052]
In addition, since the instruction frame 204 corresponding to the field of view of the detailed image captured by the camera 110 with the pan head is superimposed on the panoramic image captured by the wide-angle camera 101, the camera 110 with the pan head is displayed. Therefore, it is possible to easily confirm the current shooting posture and the surrounding image at that time, and to prevent operational errors such as posture control.
[0053]
(Second Embodiment)
FIG. 6 is a block diagram showing a second embodiment according to the present invention. In the first embodiment shown in FIG. 1, only one wide-angle camera 101 is used. However, in the second embodiment, a plurality of cameras are used, and images captured by these are combined and sent out by image processing. . In FIG. 6, the same elements as those shown in FIG.
[0054]
In the second embodiment, the two wide-angle cameras 101 and 601 are each fixed at an angle of 180 ° as shown in FIG. In FIG. 7, 71 and 72 are wide-angle cameras, and 73 is a zoom camera with a pan head. The pan-tilt zoom camera 73 may be configured to be separable from the main body.
[0055]
In FIG. 6, a video signal 611 photographed by the wide-angle camera 601 is converted into a digital video signal 612 by an image digitizing circuit 602 and given to an image processing circuit 603. The image processing circuit 603 processes the digital video signal 112 from the image digitizing circuit 102 and the digital video signal 612 from the image digitizing circuit 602 into panoramic images without distortion, and further synthesizes and outputs them. To do. On the contrary, the image may be processed into a panoramic image without distortion after being synthesized first.
[0056]
As described above, according to the second embodiment, as described in the first embodiment, panoramic images of 180 ° in the pan direction are respectively obtained by the two wide-angle cameras 101 and 601 (71 and 72 in FIG. 7). Obtainable. In the second embodiment, these panoramic images are connected to create a 360 ° image, which is used to control the camera 110 with a pan head. Therefore, it is possible to change the display of the detailed video instantaneously according to a change in the surrounding situation while viewing a wider range.
[0057]
(Third embodiment)
FIG. 8 is a block diagram showing a configuration of a camera control system according to the third embodiment of the present invention. In FIG. 8, 801 is a wide-angle lens, 802 is an optical sensor and an A / D converter (hereinafter simply referred to as an A / D converter) for an image formed by the wide-angle lens 801, 803 is an image encoder, Reference numeral 804 denotes a communication control device including a CPU, a memory, a network adapter, etc., 805 denotes a zoom lens of a camera with a pan head, 806 denotes an optical sensor of the camera with a pan head, and an A / D converter (hereinafter simply referred to as an A / D converter). 807 is a pan head.
[0058]
FIG. 9 is a diagram showing a display example on the PC 109 according to the present embodiment, and the present embodiment is also configured with a multi-window system. In FIG. 9, reference numeral 901 denotes a display, 902 denotes a video display window of a camera with a pan head picked up by a zoom lens 805 and an A / D converter 806, and 903 picks up an image by a wide-angle lens 801 and an A / D converter 802. A wide-angle video display window 904 is an instruction frame superimposed on the wide-angle video display window 903.
[0059]
FIG. 10 schematically shows a data flow according to the present embodiment in a time chart. In FIG. 10 (also in FIG. 8), 811 is a wide-angle camera video signal, 812 is an encoded video signal, 813 is a camera video signal with a pan head, 814 is a pan head control signal, and 815 is a zoom control signal.
[0060]
Reference numeral 816 denotes a network signal that flows on the network, which includes a pan / tilt camera video request signal 816 (a), a pan / tilt camera encoded video signal 816 (b), a wide-angle camera video request signal 816 (c), a cloud, and the like. The table / zoom control signal 816 (d) and the wide-angle camera encoded video signal 816 (e) are divided into five. In FIG. 10, the horizontal axis represents time.
FIG. 11 is an external view showing an implementation example of the camera according to the present embodiment.
[0061]
The operation of this embodiment will be described below with reference to FIGS. First, the flow of video data will be described with reference to FIG.
The video signal 811 collected by the wide-angle lens 801 and converted into an electrical signal by the A / D converter 802 is compressed and encoded by an image encoder 803 using an encoding method such as JPEG.
[0062]
On the other hand, the video signal 813 collected by the zoom lens 805 and converted into an electrical signal by the A / D converter 806 is similarly compression encoded by the image encoder 803. The image encoder 803 selects either the wide-angle camera image signal 811 output from the A / D converter 802 or the camera image signal 813 with a pan head output from the A / D converter 806 for encoding. Turn into.
[0063]
The video signal 812 encoded by the image encoder 803 is sent to the communication control device 804, sent to the network, and sent to the PC 109. Then, the PC 109 performs decryption processing and the like, and displays them on the display. Here, the network is an Internet-compliant computer network using, for example, TCP / IP.
[0064]
Next, the flow of video and camera control will be described with reference to FIG.
First, the control program installed in the PC 109 sends a pan head camera image request signal 816 (a) (head camera image request A10). The camera platform video request A10 from the PC 109 is received by the communication control device 804. The communication control device 804 instructs the image encoder 803 to select the camera image signal 813 with a pan head from the A / D converter 806.
[0065]
At this time, one frame of the video captured by the image encoder 803 is a frame A11 of the camera video signal 813 with a pan head, and this is encoded by the image encoder 803 to become a frame A12 of the encoded video signal 812. Further, the communication control device 804 transmits a frame A13 of the camera platform encoded video signal 816 (b) to the network, and the PC 109 displays the frame A14 in the camera platform video display window 902 of FIG. This series of operations is repeated until the end is instructed by the user.
[0066]
On the other hand, the control program installed in the PC 109 sends out a wide-angle camera image request signal 816 (c) (wide-angle camera image request B10). The wide-angle camera image request B10 from the PC 109 is received by the communication control device 804. The communication control device 804 instructs the image encoder 803 to select the wide-angle camera video signal 811 from the A / D converter 802.
[0067]
At this time, one frame of the video captured by the image encoder 803 is a frame B11 of the wide-angle camera video signal 811, which is encoded by the image encoder 803 to become a frame B12 of the encoded video signal 812. Further, the communication control device 804 superimposes the parameters of the camera platform 807 and the zoom lens 805 at that time, and transmits the frame B13 of the wide-angle camera encoded video signal 816 (e) to the network.
[0068]
Then, it is displayed as a frame B14 by the PC 109 in the wide-angle video display window 903 of FIG. At this time, the control program of the PC 109 uses a rectangular instruction frame 904 on the video of the frame B14 displayed on the wide-angle video display window 903 based on the parameters of the camera platform 807 and the zoom lens 805 superimposed on the frame B13. Is superimposed and displayed.
[0069]
The user can observe the display 901 at this point, and can easily make a decision such as where the camera with the pan head is facing and where the camera with the pan head is directed. Accordingly, the user creates a control command for the position of the camera platform 807 and the zoom of the zoom lens 805 using a control program installed in the PC 109.
[0070]
This is transmitted from the PC 109 to the network as a control command C10 of the pan / zoom control signal 816 (d). This is received by the communication control device 804 and transmitted to the camera platform 807 as the camera platform operation command C13 of the camera platform control signal 814. Similarly, the zoom operation command C12 of the zoom control signal 815 is transmitted to the zoom lens 805.
[0071]
The communication control device 804 monitors and controls the camera platform 807 and the zoom lens 805, and when the operation based on the control command C10 is completed, the wide-angle camera video signal from the A / D converter 802 is sent to the image encoder 803. An instruction to select 811 is issued. Accordingly, the image encoder 803 encodes the frame B21 of the wide-angle camera video signal 811 to generate the frame B22 of the encoded video signal 812.
[0072]
Further, the frame B22 is superimposed on the parameters of the camera platform 807 and the zoom lens 805 by the communication control device 804 to become a frame B23 of the wide-angle camera encoded video signal 816 (e), which is transmitted to the PC 109. Is done. This video is displayed as a frame B24 in the wide-angle video display window 903 of the PC 109. Also at this time, the control program of the PC 109 superimposes the rectangular instruction frame 904 on the image of the frame B24 of the wide-angle image display window 903 based on the parameters of the camera platform 807 and the zoom lens 805 superimposed on the frame B23. And display.
[0073]
As described above in detail, according to the third embodiment, as in the first embodiment, the display of the detailed video can be instantaneously changed according to the surrounding situation change or the like. In the third embodiment, the wide-angle lens 801 is not a fish-eye lens, and no image processing means for correcting a distorted image is provided, so that the cost of the entire apparatus can be kept low and the processing speed can be increased. .
[0074]
(Fourth embodiment)
FIG. 12 is a block diagram showing a configuration of a camera control system according to the fourth embodiment of the present invention.
In the third embodiment, the process of superimposing the rectangular instruction frame 904 on the video of the wide-angle video display window 903 is performed in the PC 109. However, in the fourth embodiment described below, the processing is performed on the wide-angle camera video signal 811. The instruction frame 904 is superimposed and sent out in the form of an image.
[0075]
In FIG. 12, the same elements as those shown in FIG. 8 are denoted by the same reference numerals, and redundant description is omitted. In the fourth embodiment, the wide-angle camera image request B10 from the PC 109 shown in FIG. 10 is received by the communication control device 804, and the wide-angle camera image from the A / D converter 802 is sent to the image encoder 803. An instruction to select signal 811 is made.
[0076]
At this time, one frame of the video output from the A / D converter 802 is a frame B11 of the wide-angle camera video signal 811 and is temporarily stored in the image storage device 1201. The communication control device 804 draws a rectangular instruction frame 904 on the stored frame B11 through the memory address data signal 1212 (obtained from the parameters of the camera platform 807 and the zoom lens 805 at that time). The result is given to the image encoder 803.
[0077]
The frame B11 of the wide-angle camera video signal 1211 in which the instruction frame 904 is drawn is encoded by the image encoder 803 to become a frame B12 of the encoded video signal 812. Further, the communication control device 804 transmits the frame B13 of the wide-angle camera encoded video signal 816 (e) to the network, and the PC 109 displays the frame B14 in the wide-angle video display window 903 of FIG.
[0078]
Since other operations are the same as those in the third embodiment, a duplicate description is omitted.
In the fourth embodiment, the frame image is temporarily stored using the image storage device 1201, but it is obvious that this may be replaced with a line buffer or the like.
[0079]
(Fifth embodiment)
FIG. 13 is a block diagram showing a configuration of a camera control system according to the fifth embodiment of the present invention. In the fifth embodiment, as in the second embodiment described above, a plurality of wide-angle cameras are used, and wide-angle images captured by these cameras are combined and sent out by image processing.
[0080]
That is, in FIG. 13, video signals photographed by the wide-angle cameras 801 and 1301 are digitized by the A / D converters 802 and 1302, respectively, and are supplied to the image synthesizer 1303. The image synthesizer 1303 synthesizes and outputs the two input digital video signals. Other configurations and operations are the same as those described with reference to FIG. 8, and thus detailed description thereof is omitted here.
[0081]
(Other embodiments of the present invention)
In order to operate various devices in order to realize the functions of the above-described embodiments, a program code of software for realizing the functions of the above-described embodiments is provided to an apparatus connected to the various devices or a computer in the system. What is implemented by operating the various devices according to a program supplied and stored in a computer (CPU or MPU) of the system or apparatus is also included in the scope of the present invention.
[0082]
In this case, the program code of the software itself realizes the functions of the above-described embodiments, and the program code itself and means for supplying the program code to the computer, for example, the program code is stored. The recording medium constitutes the present invention. As a recording medium for storing the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
[0083]
Further, by executing the program code supplied by the computer, not only the functions of the above-described embodiments are realized, but also the OS (operating system) or other application software in which the program code is running on the computer, etc. It goes without saying that the program code is also included in the embodiment of the present invention even when the functions of the above-described embodiment are realized jointly.
[0084]
Further, after the supplied program code is stored in the memory provided in the function expansion board of the computer or the function expansion unit connected to the computer, the CPU provided in the function expansion board or function expansion unit based on the instruction of the program code Needless to say, the present invention includes a case where the functions of the above-described embodiment are realized by performing part or all of the actual processing.
[0085]
【The invention's effect】
As described above, according to the present invention, an image captured by a controllable camera and an image captured by a wide-angle camera over the entire range that can be captured by the controllable camera are transmitted from the first device to the second device, and each is displayed. As a result, the user of the second apparatus can view not only the detailed image desired by the user but also the surrounding image in a form almost in real time. Thus, by remotely controlling the shooting state of the controllable camera while viewing these displays, it is possible to instantaneously change the display of the detailed image in accordance with the surrounding situation change or the like. In addition, since the first frame image is generated at the timing according to the control command, the latest wide-angle image can be viewed, the surrounding situation change can be accurately grasped, and accurate camera control can be performed.
Therefore, for example, when it is desired to interactively control the shooting state of a remote controllable camera while watching a video such as a TV conference or remote monitoring, while watching the video of all areas that the controllable camera can move and shoot The photographing state can be controlled and can be easily operated.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a camera control system according to a first embodiment of the present invention.
FIG. 2 is a diagram showing an image display example according to the first embodiment of the present invention.
FIG. 3 is a data flow diagram for explaining the operation of the first exemplary embodiment of the present invention.
FIG. 4 is a diagram showing a relationship between a video image captured by the fish-eye camera used in the first embodiment and a panoramic video image.
FIG. 5 is a diagram for explaining image processing according to the first embodiment of the present invention;
FIG. 6 is a block diagram illustrating a configuration of a camera control system according to a second embodiment of the present invention.
FIG. 7 is an external configuration diagram of a first apparatus for explaining a lens position according to a second embodiment of the present invention.
FIG. 8 is a block diagram showing a configuration of a camera control system according to a third embodiment of the present invention.
FIG. 9 is a diagram illustrating an image display example according to a third embodiment of the present invention.
FIG. 10 is a data flow diagram for explaining the operation of the third exemplary embodiment of the present invention.
FIG. 11 is an external configuration diagram showing an implementation example of the first device according to the third embodiment of the present invention.
FIG. 12 is a block diagram showing a configuration of a camera control system according to a fourth embodiment of the present invention.
FIG. 13 is a block diagram showing a configuration of a camera control system according to a fifth embodiment of the present invention.
[Explanation of symbols]
101 Wide-angle camera
103 Image processing circuit
105 Communication control circuit
106 Zoom camera
107 pan head
109 PC (second device)
110 Camera with pan head
202 Detailed video display window
203 Panorama image display window
204 Instruction frame
601 Wide angle camera
603 Image processing circuit

Claims (9)

広い画角で画像を撮像する広角カメラ、および撮影状態を制御可能な可制御カメラを備えた第1の装置と、上記第1の装置とネットワーク接続され、上記可制御カメラの撮影状態を遠隔制御可能な第2の装置とにより構成されるカメラ制御システムであって
上記第1の装置は、
上記広角カメラにより得られた第1フレーム画像を第1間隔で連続的に生成し出力する第1出力手段と、
上記可制御カメラにより得られた第2フレーム画像を第2間隔で連続的に生成し出力する第2出力手段とを備え、
上記第2の装置は、
上記第1及び第2の出力手段から出力された第1及び第2のフレーム画像を表示するとともに、上記第1フレーム画像に上記可制御カメラの撮影領域を示す領域を重ねて表示する表示手段と、
上記表示手段により表示された第1フレーム画像内で所望の領域を指示する指示手段と、
上記指示手段により指示された領域に対応する画像を撮影するように上記可制御カメラのパン、チルト、ズームのうち少なくとも1つの制御命令を発行する制御手段とを備え、
上記第1出力手段は、上記制御命令に応じて上記可制御カメラの制御が完了した上記第1間隔とは独立したタイミングで第1フレーム画像を生成して出力し、
上記表示手段は上記タイミングに応答して第1フレーム画像を更新表示するようにしたことを特徴とするカメラ制御システム。
A first apparatus having a wide-angle camera that captures an image with a wide angle of view, and a controllable camera capable of controlling the shooting state, and the first apparatus connected to the network, and remotely controlling the shooting state of the controllable camera a camera control system which is constituted by the second device and capable,
The first device includes:
First output means for continuously generating and outputting a first frame image obtained by the wide-angle camera at a first interval;
Second output means for continuously generating and outputting second frame images obtained by the controllable camera at a second interval;
The second device is
Display means for displaying the first and second frame images output from the first and second output means and displaying an area indicating the photographing area of the controllable camera on the first frame image; ,
Instruction means for indicating a desired region in the first frame image displayed by the display means;
Control means for issuing at least one control command of panning, tilting and zooming of the controllable camera so as to capture an image corresponding to the area designated by the instruction means;
The first output means generates and outputs a first frame image at a timing independent of the first interval at which the control of the controllable camera is completed according to the control command,
The camera control system according to claim 1, wherein the display means updates and displays the first frame image in response to the timing .
上記広角カメラによって撮像される第1フレーム画像はパノラマ画像であり、このパノラマ画像の縦横比は、上記可制御カメラが撮像できる全領域の縦横比と同じであることを特徴とする請求項1に記載のカメラ制御システム。 The first frame image captured by the wide-angle camera is a panoramic image, and the aspect ratio of the panoramic image is the same as the aspect ratio of the entire area that can be captured by the controllable camera. The camera control system described. 上記広角カメラは、撮像される画像に歪みが生じる超広角レンズを備え、
上記超広角レンズにより撮像された画像を画像処理して上記歪みをなくすことで上記第1フレーム画像としてのパノラマ画像を生成する画像処理手段を更に備えたことを特徴とする請求項1または2に記載のカメラ制御システム。
The wide-angle camera includes a super-wide-angle lens that causes distortion in a captured image,
3. The image processing apparatus according to claim 1, further comprising an image processing unit configured to generate a panoramic image as the first frame image by performing image processing on the image captured by the super wide-angle lens and eliminating the distortion. The camera control system described.
上記表示手段は上記領域として枠を重畳して表示するようにしたことを特徴とする請求項1〜3の何れか1項に記載のカメラ制御システム。 The camera control system according to any one of claims 1 to 3, wherein the display means displays the area as a frame in a superimposed manner. 上記第1の装置は、複数の広角カメラと、上記複数の広角カメラにより撮像された複数の画像を伝送に先立って画像処理して1つの画像に合成して上記第1フレーム画像を生成する第2の画像処理手段とを備えることを特徴とする請求項1〜の何れか1項に記載のカメラ制御システム。The first apparatus generates a first frame image by performing image processing on a plurality of wide-angle cameras and a plurality of images captured by the plurality of wide-angle cameras before transmission and combining them into one image . the camera control system according to any one of claims 1-4, characterized in that it comprises a second image processing means. 広い画角で画像を撮像する広角カメラ、および撮影状態を制御可能な可制御カメラを備え、上記広角カメラにより得られた第1フレーム画像を第1間隔で連続的に生成し出力するとともに、上記可制御カメラにより得られた第2フレーム画像を第2間隔で連続的に生成し出力する第1の装置と、上記第1の装置とネットワーク接続され、上記可制御カメラの撮影状態を遠隔制御可能な第2の装置とにより構成されるカメラ制御システムの制御方法であって
上記第2の装置において、上記第1の装置から出力された第1及び第2のフレーム画像を表示するとともに、上記第1フレーム画像に上記可制御カメラの撮影領域を示す領域を重ねて表示する表示工程と、
上記第2の装置において、上記表示工程により表示された第1フレーム画像内で所望の領域を指示する指示工程と、
上記第2の装置において、上記指示工程により指示された領域に対応する画像を撮影するように上記可制御カメラのパン、チルト、ズームのうち少なくとも1つの制御命令を発行する制御工程と、
上記第1の装置において、上記制御命令に応じて上記可制御カメラの制御が完了した上記第1間隔とは独立したタイミングで第1フレーム画像を生成して出力する出力工程と、
上記第1の装置において、上記タイミングに応答して第1フレーム画像を更新表示する更新工程とを実行させることを特徴とするカメラ制御システムの制御方法
A wide-angle camera that captures an image with a wide angle of view, and a controllable camera that can control the shooting state, and continuously generate and output the first frame image obtained by the wide-angle camera at a first interval. A first device that continuously generates and outputs a second frame image obtained by a controllable camera at a second interval, and is connected to the first device via a network so that the photographing state of the controllable camera can be remotely controlled. a method of controlling a camera control system which is constituted by a such a second device,
In the second apparatus, the first and second frame images output from the first apparatus are displayed, and an area indicating the imaging area of the controllable camera is displayed on the first frame image. Display process;
In the second apparatus, an instruction step for indicating a desired region in the first frame image displayed by the display step;
A control step of issuing at least one control command of panning, tilting and zooming of the controllable camera so as to capture an image corresponding to the region instructed by the instructing step in the second device;
An output step of generating and outputting a first frame image at a timing independent of the first interval at which the control of the controllable camera is completed in response to the control command in the first device;
A control method for a camera control system, characterized in that, in the first device, an update step of updating and displaying the first frame image in response to the timing is executed .
撮像される画像に歪みが生じる超広角レンズを備えた上記広角カメラによって撮像された画像に対し、画像処理を施して歪みをなくすことで、上記可制御カメラが撮像できる全領域の縦横比と同じ比率の上記第1フレーム画像としてのパノラマ画像を生成し、生成したパノラマ画像を上記第1の装置から第2の装置に伝送するようにしたことを特徴とする請求項に記載のカメラ制御システムの制御方法Same as the aspect ratio of the entire area that can be imaged by the controllable camera by applying image processing to the image captured by the wide-angle camera equipped with a super-wide-angle lens that causes distortion in the captured image. 7. The camera control system according to claim 6 , wherein a panorama image as the first frame image having a ratio is generated, and the generated panorama image is transmitted from the first device to the second device. Control method . 上記広角カメラによって撮像された画像に、上記可制御カメラによって撮像されている画像の視野に相当する枠の情報を重畳して表示するようにしたことを特徴とする請求項6または7に記載のカメラ制御システムの制御方法The image captured by the wide-angle camera, according to claim 6 or 7, characterized in that so as to display the superimposed information of the frame which corresponds to the visual field of the image being picked up by the controllable camera Control method of camera control system . 複数の広角カメラにより撮像された複数の画像を伝送に先立って画像処理して1つの画像に合成して上記第1フレーム画像を生成することを特徴とする請求項6〜8の何れか1項に記載のカメラ制御システムの制御方法9. The first frame image according to claim 6, wherein a plurality of images picked up by a plurality of wide-angle cameras are subjected to image processing prior to transmission and combined into one image to generate the first frame image. A control method for the camera control system according to claim 1 .
JP19268298A 1998-07-08 1998-07-08 Camera control system and control method thereof Expired - Fee Related JP3792901B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP19268298A JP3792901B2 (en) 1998-07-08 1998-07-08 Camera control system and control method thereof
US09/346,256 US6977676B1 (en) 1998-07-08 1999-07-01 Camera control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19268298A JP3792901B2 (en) 1998-07-08 1998-07-08 Camera control system and control method thereof

Publications (2)

Publication Number Publication Date
JP2000032319A JP2000032319A (en) 2000-01-28
JP3792901B2 true JP3792901B2 (en) 2006-07-05

Family

ID=16295301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19268298A Expired - Fee Related JP3792901B2 (en) 1998-07-08 1998-07-08 Camera control system and control method thereof

Country Status (1)

Country Link
JP (1) JP3792901B2 (en)

Families Citing this family (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4547694B2 (en) * 2000-09-07 2010-09-22 旭 中野 Dual operation type visual aid
JP2002218288A (en) * 2001-01-15 2002-08-02 Nippon Hoso Kyokai <Nhk> Camera display system
JP4892792B2 (en) * 2001-07-04 2012-03-07 コニカミノルタホールディングス株式会社 Measuring apparatus and measuring method
US6677979B1 (en) * 2001-06-12 2004-01-13 Cisco Technology, Inc. Method and apparatus for dual image video teleconferencing
JP2003009136A (en) * 2001-06-21 2003-01-10 Toshiba Corp Camera supervising system and video delivering server
JP3954439B2 (en) * 2002-05-31 2007-08-08 株式会社リコー Video recording system, program, and recording medium
JP4373645B2 (en) * 2002-05-31 2009-11-25 株式会社リコー Video distribution system, program, and recording medium
JP3870124B2 (en) 2002-06-14 2007-01-17 キヤノン株式会社 Image processing apparatus and method, computer program, and computer-readable storage medium
US7593030B2 (en) * 2002-07-25 2009-09-22 Intouch Technologies, Inc. Tele-robotic videoconferencing in a corporate environment
US6925357B2 (en) 2002-07-25 2005-08-02 Intouch Health, Inc. Medical tele-robotic system
US20040162637A1 (en) 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
US6839067B2 (en) * 2002-07-26 2005-01-04 Fuji Xerox Co., Ltd. Capturing and producing shared multi-resolution video
JP2004135209A (en) * 2002-10-15 2004-04-30 Hitachi Ltd Generation device and method for wide-angle view high-resolution video image
US8126155B2 (en) * 2003-07-02 2012-02-28 Fuji Xerox Co., Ltd. Remote audio device management system
JP2005136669A (en) * 2003-10-30 2005-05-26 Victor Co Of Japan Ltd Imaging apparatus
US7813836B2 (en) 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US20050204438A1 (en) 2004-02-26 2005-09-15 Yulun Wang Graphical interface for a remote presence system
JP4565909B2 (en) * 2004-07-02 2010-10-20 Hoya株式会社 camera
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
US7769492B2 (en) 2006-02-22 2010-08-03 Intouch Technologies, Inc. Graphical interface for a remote presence system
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
US7761185B2 (en) 2006-10-03 2010-07-20 Intouch Technologies, Inc. Remote presence display through remotely controlled robot
JP4451892B2 (en) * 2007-03-19 2010-04-14 株式会社リコー Video playback device, video playback method, and video playback program
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
US8116910B2 (en) 2007-08-23 2012-02-14 Intouch Technologies, Inc. Telepresence robot with a printer
JP5003458B2 (en) * 2007-12-17 2012-08-15 ソニー株式会社 Image signal processing device, display device, image signal processing method, program, and recording medium
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
US8179418B2 (en) 2008-04-14 2012-05-15 Intouch Technologies, Inc. Robotic based health care system
US8170241B2 (en) 2008-04-17 2012-05-01 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
JP2009284452A (en) * 2008-05-23 2009-12-03 Advas Co Ltd Hybrid video camera imaging apparatus and system
JP2009301175A (en) * 2008-06-11 2009-12-24 Ihi Aerospace Co Ltd Monitoring method
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
US11399153B2 (en) 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
JP2011114500A (en) * 2009-11-25 2011-06-09 Olympus Imaging Corp Camera system
CN102714711A (en) * 2010-02-01 2012-10-03 (株)荣国电子 Tracking and monitoring camera device and remote monitoring system using same
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US9014848B2 (en) 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US10343283B2 (en) 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
KR102018763B1 (en) 2011-01-28 2019-09-05 인터치 테크놀로지스 인코퍼레이티드 Interfacing with a mobile telepresence robot
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
JP2013055541A (en) * 2011-09-05 2013-03-21 Ricoh Co Ltd Imaging device
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
US9251313B2 (en) 2012-04-11 2016-02-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
WO2013176758A1 (en) 2012-05-22 2013-11-28 Intouch Technologies, Inc. Clinical workflows utilizing autonomous and semi-autonomous telemedicine devices
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
JP6136189B2 (en) * 2012-10-22 2017-05-31 株式会社ニコン Auxiliary imaging device and main imaging device
JP6192940B2 (en) * 2013-01-23 2017-09-06 オリンパス株式会社 Photography equipment and cooperative photography method
JP6786253B2 (en) 2016-04-15 2020-11-18 キヤノン株式会社 Imaging system, information processing device, control method of imaging system, control method of information processing device, and program
US10483007B2 (en) 2017-07-25 2019-11-19 Intouch Technologies, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
JP6412222B2 (en) * 2017-08-09 2018-10-24 オリンパス株式会社 Shooting device, linked shooting method, and linked shooting program
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
JP7013210B2 (en) * 2017-11-10 2022-01-31 キヤノン株式会社 Imaging device, imaging method, display device and display method
US10617299B2 (en) 2018-04-27 2020-04-14 Intouch Technologies, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching
CN110661979B (en) * 2019-09-12 2023-02-24 北京字节跳动网络技术有限公司 Image pickup method, image pickup device, terminal and storage medium
JP6844055B1 (en) * 2020-05-29 2021-03-17 丸善インテック株式会社 Surveillance camera
KR102501749B1 (en) * 2020-08-11 2023-03-02 모피어스 주식회사 Virtual Remote Filming System and Method

Also Published As

Publication number Publication date
JP2000032319A (en) 2000-01-28

Similar Documents

Publication Publication Date Title
JP3792901B2 (en) Camera control system and control method thereof
US6977676B1 (en) Camera control system
JP6587113B2 (en) Image processing apparatus and image processing method
US7450165B2 (en) Multiple-view processing in wide-angle video camera
JP4332231B2 (en) Imaging device controller and imaging system
JP4914171B2 (en) Imaging device control method and camera system
KR20120108747A (en) Monitoring camera for generating 3 dimensional scene and method thereof
JP3744147B2 (en) Panorama image generating apparatus and method
JP2000341574A (en) Camera device and camera control system
KR101630290B1 (en) Photographing Method For Producing Image Of Traced Moving Path And Apparatus Using The Same
JP4583717B2 (en) Imaging apparatus and method, image information providing system, program, and control apparatus
JP2008187393A (en) Exposure control system, exposure control method, its program and recording medium, camera control system and camera
KR102009988B1 (en) Method for compensating image camera system for compensating distortion of lens using super wide angle camera and Transport Video Interface Apparatus used in it
JP2002101408A (en) Supervisory camera system
TW201410015A (en) A multiple camera system and method therefore
JP2004153605A (en) Image pickup device and system for transmitting pick-up image
JP4448001B2 (en) Imaging device
JP2006025340A (en) Wide angle imaging apparatus, imaging system, and control method thereof
JP2012099887A (en) Imaging device
CN112073630A (en) Image pickup apparatus, control method for image pickup apparatus, and recording medium
JP4332580B2 (en) Control device, control method, and monitoring system
JP3066594U (en) Image conversion device
JPH03217978A (en) Picture display device
JP3812069B2 (en) Imaging device controller and imaging device
JP2005005816A (en) Wide angle camera and wide angle camera system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060406

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090414

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100414

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110414

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120414

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130414

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130414

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140414

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees