JP3792901B2 - Camera control system and control method thereof - Google Patents
Camera control system and control method thereof Download PDFInfo
- Publication number
- JP3792901B2 JP3792901B2 JP19268298A JP19268298A JP3792901B2 JP 3792901 B2 JP3792901 B2 JP 3792901B2 JP 19268298 A JP19268298 A JP 19268298A JP 19268298 A JP19268298 A JP 19268298A JP 3792901 B2 JP3792901 B2 JP 3792901B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- wide
- angle
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明はカメラ制御システム及びその制御方法に関し、特に、カメラから入力されデジタル処理装置で処理された動画像データを遠隔で利用する映像データの通信処理システム、例えばTV会議システムや映像監視システムに用いて好適なものである。
【0002】
【従来の技術】
従来、TV会議や監視カメラなどの分野においては、カメラと、そのパラメータ等を遠隔からネットワークを介して制御可能なユーザ端末とによりシステムが構成され、ユーザが遠隔のカメラを遠隔から制御し、撮影された映像を受信して表示できるように構成されていた。そして、カメラとしては、撮影姿勢を可変とするために雲台付きカメラが用いられていた。
【0003】
この雲台付きカメラは、専用のコントローラを用いて、左右のパン、上下のチルトをボタンやジョイスティックで制御する方式をとっていた。また近年では、コンピュータのディスプレイ上に専用のコントローラをGUI等によって擬似的に表示し、それをマウス等で制御することも行われていた。
【0004】
また、監視カメラの多くは、雲台が付けられていても、あらかじめ決められた動きで雲台が制御され、あらかじめ決められた何箇所かの映像を監視するように構成されていた。
【0005】
【発明が解決しようとする課題】
しかしながら、これら従来のシステムでは、伝送されてくる映像は、ある時点で雲台付きカメラにより実際に撮影された映像だけであったので、その周りの状態は見ることができず、雲台を動かした後の映像を事前に直感することができなかった。そのため、所望の位置を撮影するためには、送られてきた映像を見て何度も雲台の位置を修正する必要があった。
【0006】
ところで、カメラマンがカメラを持って撮影現場で撮影をする場合は、片方の眼でカメラのファインダを覗いているが、もう片方では周辺を観察しており、次に撮影したいアングルにカメラを瞬時に向けることができる。このようなことができるのは、カメラマンが、実際に撮影しているファインダ内の映像だけでなく、他に撮影する可能性のある周辺も同時に見ているからである。
【0007】
このように、TV会議や遠隔監視などにおいて、映像を見ながら遠隔の雲台付きカメラの姿勢制御を対話的に行いたいとき、カメラが運動して撮影できるすべての領域の映像を見ながら雲台を制御すれば、利用者は、あたかも上述のカメラマンのようにカメラを持ってその場所に居ながら撮影範囲を制御しているかのように感じられ、容易に操作することができる。
【0008】
そのために従来とられてきた方法は、まずカメラを動かして撮影可能な領域をすべて撮影し、それらの画像を画像処理によって1枚の画像にする。そして、利用者がこれにより得られる静止画を見ながらカメラの撮影姿勢やズームを制御するものであった。
【0009】
しかしながら、このような画像処理で生成できる全体領域の画像は静止画像であり、リアルタイムな映像ではない。そのため、例えばTV会議において発言を求めている参加者にカメラを向けたり、遠隔監視において急な侵入者にカメラを向けるなどといったように、撮影したいアングルにカメラを瞬時に向けることが最も必要とされる場合が十分に支援されないという問題があった。
【0010】
本発明は、このような問題を解決するために成されたものであり、TV会議や遠隔監視などの際に、利用者の希望するカメラ姿勢等を簡単かつ瞬時に指示できるようにすることを目的とする。
【0011】
【課題を解決するための手段】
本発明のカメラ制御システムは、広い画角で画像を撮像する広角カメラ、および撮影状態を制御可能な可制御カメラを備えた第1の装置と、上記第1の装置とネットワーク接続され、上記可制御カメラの撮影状態を遠隔制御可能な第2の装置とにより構成されるカメラ制御システムであって、上記第1の装置は、上記広角カメラにより得られた第1フレーム画像を第1間隔で連続的に生成し出力する第1出力手段と、上記可制御カメラにより得られた第2フレーム画像を第2間隔で連続的に生成し出力する第2出力手段とを備え、上記第2の装置は、上記第1及び第2の出力手段から出力された第1及び第2のフレーム画像を表示するとともに、上記第1フレーム画像に上記可制御カメラの撮影領域を示す領域を重ねて表示する表示手段と、上記表示手段により表示された第1フレーム画像内で所望の領域を指示する指示手段と、上記指示手段により指示された領域に対応する画像を撮影するように上記可制御カメラのパン、チルト、ズームのうち少なくとも1つの制御命令を発行する制御手段とを備え、上記第1出力手段は、上記制御命令に応じて上記可制御カメラの制御が完了した上記第1間隔とは独立したタイミングで第1フレーム画像を生成して出力し、上記表示手段は上記タイミングに応答して第1フレーム画像を更新表示するようにしたことを特徴とする。
また、本発明のカメラ制御システムの制御方法は、広い画角で画像を撮像する広角カメラ、および撮影状態を制御可能な可制御カメラを備え、上記広角カメラにより得られた第1フレーム画像を第1間隔で連続的に生成し出力するとともに、上記可制御カメラにより得られた第2フレーム画像を第2間隔で連続的に生成し出力する第1の装置と、上記第1の装置とネットワーク接続され、上記可制御カメラの撮影状態を遠隔制御可能な第2の装置とにより構成されるカメラ制御システムの制御方法であって、上記第2の装置において、上記第1の装置から出力された第1及び第2のフレーム画像を表示するとともに、上記第1フレーム画像に上記可制御カメラの撮影領域を示す領域を重ねて表示する表示工程と、上記第2の装置において、上記表示工程により表示された第1フレーム画像内で所望の領域を指示する指示工程と、上記第2の装置において、上記指示工程により指示された領域に対応する画像を撮影するように上記可制御カメラのパン、チルト、ズームのうち少なくとも1つの制御命令を発行する制御工程と、上記第1の装置において、上記制御命令に応じて上記可制御カメラの制御が完了した上記第1間隔とは独立したタイミングで第1フレーム画像を生成して出力する出力工程と、上記第1の装置において、上記タイミングに応答して第1フレーム画像を更新表示する更新工程とを実行させることを特徴とする。
【0012】
【発明の実施の形態】
(第一の実施形態)
図1は、本発明の一実施形態に係るカメラ制御システムの概略構成を示すブロック図である。図1において、101は広い画角を撮影可能な広角カメラ、102は広角カメラ101で撮影した映像をデジタル化する画像デジタル化回路、103はデジタル化された映像を処理する画像処理回路、104は映像を符号化する画像符号化回路である。
【0013】
また、105はCPU、メモリ、ネットワークアダプタ等から成る通信制御回路、106は雲台付きカメラ110が備えるズームカメラ、107は雲台付きカメラ110が備える雲台、108は雲台付きカメラ110で撮影された映像をデジタル化する画像デジタル化回路、109はネットワークを介して遠隔に置かれた第2の装置である。なお、この第2の装置109に対して上記101〜108で構成されるのが第1の装置である。
【0014】
この第2の装置109について詳しくは述べないが、ネットワークに接続し、ハイパーテキストデータを表示するなどの機能を持つ既存のパーソナルコンピュータ(PC)やネットワークPC、あるいはワークステーションなどで構成される。本実施形態においては、第2の装置109として、JPEG画像などの表示ソフトを使ってデジタル画像を表示できるPCを使って説明する。
【0015】
図2は、本実施形態によるPC109への映像の表示例を示す図である。ここに示すように、映像はマルチウィンドウシステムの上に表示されている。図2において、201はディスプレイ、202は雲台付きカメラ110によって撮像された映像を表示する詳細映像表示ウィンドウ、203は広角カメラ101によって撮像された映像を表示するパノラマ映像表示ウィンドウである。
【0016】
また、204は詳細映像が全体映像(パノラマ映像)の中のどこに対応するかを示すための指示枠であり、パノラマ映像表示ウィンドウ203上に重畳して表示される。205はズームカメラ106のズーム制御を行うためのGUIによるスライダバー、206は雲台付きカメラ110の制御権を取得するためのGUIボタンである。
【0017】
図3は、本実施形態によるデータの流れを模式的にタイムチャートに表したものである。図3(図1も同様)において、112は広角カメラ101により撮影された映像信号、114は画像符号化回路104により圧縮符号化された映像信号、116は雲台付きカメラ110により撮影された映像信号、118はズームカメラ106および雲台107を制御するための制御信号である。
【0018】
また、115はネットワーク上を流れるネットワーク信号であり、これは、雲台カメラ映像要求信号115(a) 、雲台カメラ符号化映像信号115(b) 、広角カメラ映像要求信号115(c) 、雲台・ズーム制御信号115(d) 、広角カメラ符号化映像信号115(e) の5つに分かれる。なお、図3において横軸は時間を表している。
【0019】
図4は、広角カメラ101で撮影される映像を模式的に示したものである。本実施形態では、広角カメラ101として、正射影方式の魚眼レンズを持つカメラを用いた場合について説明する。
【0020】
図4(a)は、魚眼レンズに入る光を模式的に3次元で示したものであり、A〜Fは光軸を通る平面に対して垂直に立てられた柱である。柱Aは光軸に対して0°、柱Bは光軸に対して10°の角度を成して立てられており、以下C,D,E,Fの各柱は各々光軸に対して30°、45°、60°、90°の角度を成して立てられている。各柱A〜Fの魚眼レンズまでの距離は全て同じである。
【0021】
図4(b)は、図4(a)に示した各柱A〜Fを魚眼レンズで撮影して得られる画像を示している。図4(b)中のA′〜F′は、それぞれ図4(a)の各柱A〜Fの像である。
図4(c)は、図4(a)に示した各柱A〜Fを各々の像の光軸に対する角度が一定となるように表現したパノラマ映像を示している。図4(c)中のA″〜F″は、それぞれ図4(a)に示した各柱A〜Fの像である。
【0022】
図5は、広角カメラ101により撮影された映像に対応するパノラマ映像を示した図である。図5において、51は魚眼レンズによって撮影された半天の映像、52は半天映像51のうち実世界で横方向に±90°、縦方向に±30°の範囲を示したものである。54は実際に表示に用いられるパノラマ映像、矢印53,55は画像処理の方向を示したものである。また、括弧()で括られた数値は、各映像上の座標位置を示したものである。
【0023】
以下、本実施形態の動作を図1〜図5に従って説明する。まず、図1において映像データの流れを説明する。
魚眼レンズを有する広角カメラ101によって集光され電気信号に変換された映像信号111は、画像デジタル化回路102によってデジタルの映像信号112に変換され、さらに画像処理回路103によって後述する画像処理が施されることにより、パノラマ映像信号113となる。こうして生成されたパノラマ映像信号113は、画像符号化回路104によって例えばJPEGなどの符号化方式で圧縮符号化される。
【0024】
一方、雲台付きカメラ110のズームカメラ106によって集光され電気信号に変換された映像信号116は、画像デジタル化回路108によってデジタルの映像信号117に変換され、さらに画像符号化回路104によって圧縮符号化される。画像符号化回路104は、画像処理回路103より出力されるパノラマ映像信号113と、画像デジタル化回路108より出力されるデジタル映像信号117との何れかを選択して符号化する。
【0025】
上記画像符号化回路104によって符号化された映像信号114は、通信制御回路105に送られてネットワークヘ送出され、PC109に送られる。そして、このPC109において復号化の処理などが施され、ディスプレイ上に表示される。ここで、ネットワークとは、例えばTCP/IPを用いたインターネット準拠のコンピュータネットワークである。
【0026】
次に、図3に従って映像とカメラ制御の流れを説明する。
PC109に搭載されたコントロールプログラムは、まず、雲台カメラ映像要求信号115(a) (雲台カメラ映像要求A10)を送出する。このPC109からの雲台カメラ映像要求A10は、通信制御回路105で受け取られる。通信制御回路105は、画像符号化回路104に対して、画像デジタル化回路108からのデジタル映像信号117を選択する指示を行う。
【0027】
このとき画像デジタル化回路108に取り込まれる映像の1フレームが雲台付きカメラ映像信号116のフレームA11であり、これが画像符号化回路104によって符号化されて符号化映像信号114のフレームA12となる。さらに、通信制御回路105によって、雲台カメラ符号化映像信号115(b) のフレームA13となってネットワークに伝送され、PC109によって図2の詳細映像表示ウィンドウ202にフレームA14として表示される。この一連の動作は、ユーザによって終了が指示されるまで操り返される(雲台カメラ映像要求信号115(a) がA10に続いてA20,A30,……と一定間隔で出力される)。
【0028】
一方、PC109に搭載されたコントロールプログラムは、広角カメラ映像要求信号115(c) (パノラマ映像要求B10)を送出する。このPC109からのパノラマ映像要求B10は、通信制御回路105で受け取られる。通信制御回路105は、画像符号化回路104に対して、画像処理回路103からのパノラマ映像信号113を選択する指示を行う。
【0029】
このとき画像処理回路103に取り込まれる映像の1フレームが広角カメラ映像信号112のフレームB11であり、これが画像処理回路103によりパノラマ映像信号に変換された後、画像符号化回路104によって符号化されて符号化映像信号114のフレームB12となる。さらに、通信制御回路105によって、その時点での雲台107とズームカメラ106のパラメータが重畳され、広角カメラ符号化映像信号115(e) のフレームB13となってネットワークに伝送される。
【0030】
そして、PC109によって図2のパノラマ映像表示ウィンドウ203にフレームB14として表示される。このとき、PC109のコントロールプログラムは、フレームB13に重畳されている雲台107とズームカメラ106のパラメータをもとに、パノラマ映像表示ウィンドウ203に表示されているフレームB14のパノラマ映像上に矩形の指示枠204を重畳して表示する。
【0031】
利用者はこの時点でのディスプレイ201を観察し、雲台付きカメラ110がどこを向いているか、また、これからどこに雲台付きカメラ110を向けるかなどの意思決定を容易に行うことができる。これにより利用者は、PC109に搭載されたコントロールプログラムを用いて、雲台107の位置とズームカメラ106のズームとの制御指令を作成する。
【0032】
雲台107の位置は、例えばパノラマ映像表示ウィンドウ203上の所望の位置もしくは領域をマウスで指定することによって指示する。また、ズームカメラ106のズームは、図2に示したスライダバー205を用いて指示する。この指示に基づく制御指令は、雲台・ズーム制御信号115(d) の制御指令C10としてPC109よりネットワークに伝送される。そして、これが通信制御回路105によって受け取られ、雲台付きカメラ110にズーム・雲台制御信号118のズーム・雲台動作指令C13として伝達される。
【0033】
通信制御回路105は、雲台107、ズームカメラ106を監視制御し、上記制御指令C10に基づく動作が完了したとき、画像符号化回路104に対して画像処理回路103からのパノラマ映像信号113を選択する指示を出す。これにより、画像符号化回路104により、広角カメラ映像信号112から生成されたパノラマ映像B21を符号化して符号化映像信号114のフレームB22を生成する。
【0034】
さらに、上記フレームB22は、通信制御回路105により、その時点での雲台107とズームカメラ106のパラメータが重畳されて広角カメラ符号化映像信号115(e) のフレームB23となり、それがPC109に伝送される。この映像は、PC109のパノラマ映像表示ウィンドウ203にフレームB24として表示される。このときも、PC109のコントロールプログラムは、フレームB23に重畳されている雲台107とズームカメラ106のパラメータをもとに、パノラマ映像表示ウィンドウ203のフレームB24の映像上に矩形の指示枠204を重畳して表示する。
【0035】
図3に示したディスプレイ201の表示フレームにおいて、Aの符号が付されたフレームは雲台付きカメラ110で撮影された詳細映像であり、Bの符号が付されたフレームは広角カメラ101で撮影されたパノラマ映像である。これから分かるように、詳細映像とパノラマ映像は適時PC109に伝送されてディスプレイ201に表示されており、詳細映像の他に、雲台付きカメラ110で撮影可能な範囲の全てがパノラマ映像として同時に提供されるようになっている。
【0036】
したがって、広角カメラ映像要求信号115(c) も適当な間隔で出力することにより、詳細映像だけでなく、その周辺の映像もほぼリアルタイムに近い形で見ることができ、周辺の状況変化を的確に把握することができる。これにより、ディスプレイ201を見ながら雲台付きカメラ110のパラメータを遠隔制御することにより、例えばTV会議において発言を求めている参加者にカメラを向けたり、遠隔監視において急な侵入者にカメラを向けるなどといったように、撮影したいアングルにカメラを瞬時に向けることができるようになる。
【0037】
なお、PC109の利用者にとって詳細映像はパノラマ映像に比べて重要度が高いので、本実施形態においては、詳細映像のフレームを伝送する割合をパノラマ映像のフレームを伝送する割合よりも多くし、映像の変化がより滑らかになるようにしている。
【0038】
次に、本実施形態におけるパノラマ映像の生成方式について、図4および図5を用いて詳細に説明する。
本実施形態で用いるパノラマ映像は、詳細映像を取得するために用いる雲台付きカメラ110でパン・チルト・ズーム値を変化させて撮像できる最大範囲を1枚に含む映像である。
【0039】
なお、雲台付きカメラ110は、例えば、パンが±50°、チルトが±20°であり、ズーム倍率は8倍で最も望遠側では視野角が6.14°とし、最も広角側では視野角が45.84°とする。以上のパン・チルトの値は光軸に対するものであり、撮像される範囲を示すとパンは±80.5°、チルトは±42.9°である。
【0040】
本実施形態では、パノラマ映像として、視野角が一定となる映像を用いる。例えば、視野角の1°を1ピクセルに対応させると、上述のカメラの場合、パノラマ映像は161×86ピクセルの画像となる。
なお、以下では、説明を簡単にするためにパンの視野が±90°、チルトが±30°のカメラを想定して説明する。
【0041】
広角カメラ101で撮影されデジタル化されたデジタル映像信号112は、魚眼レンズによって広範囲の映像が撮像されているが、本実施形態で用いた正射影投影方式の魚眼レンズなどでは先に述べたパノラマ映像とは異なり、周辺での法線方向の角度は小さく、中心部での法線方向の角度は大きく射影されている。これを説明したのが図4(b)である。すなわち、本来A′とC′間の角度とE′とF′間の角度は共に30°であるが、中心部におけるA′とC′との間隔よりも周辺部におけるE′とF′との間隔の方が短くなっている。
【0042】
以下に、実世界と魚眼カメラによる映像とパノラマ映像との関係について説明する。
図4(a)に示した各柱A〜Fの像は、魚眼レンズによって撮像素子上に投射される。各柱A〜Fの像が撮像素子上にどのように投射されるかを模式的に示したのが図4(b)である。
【0043】
すなわち、正射影投影方式の魚眼レンズでは、像の光軸中心からの変位yと焦点距離ξ、入射角度φとの間に
y=ξ・sin(φ)
の関係がある。そのため、図4(a)の6本の柱A〜Fは、撮像素子上に図4(b)のA′〜F′のように結像する。
【0044】
柱Aと柱Cの間の角度(=30°)と柱Eと柱Fの間の角度(=30°)は、撮像素子上では、
{sin(30°) −sin( 0°) }:{sin(90°) −sin(60°) }=1:0.27
の違いが出てくる。これを画像処理で補正したパノラマ映像が、図4(c)である。つまり、柱Aと柱Cの間の30°と柱Eと柱Fの間の30°が、修正画像上で1:1にマッピングされるように(A″,C″間とE″,F″間の距離が同じとなるように)画像処理する。
【0045】
本実施形態では、広角カメラ101は、雲台付きカメラ110で撮像できる範囲全てを同時に撮像することで表示するパノラマ映像を提供するが、表示の方法としては、レンズに対する像の角度が映像面で同じ大きさに射影されるような投影方式を用いる。したがって、X座標はパン角を表し、Y座標はチルト角を表すこととなる。
【0046】
魚眼レンズで撮影した映像をパノラマ映像に変換するために、パノラマ映像上の位置を(θ,φ)、これに対応した魚眼レンズによる撮影映像上の位置を(η,ζ)とし、
η=ξ・cos(φ) sin(θ) ……(1)
ζ=a・ξ・φ/π ……(2)
の関係で補正する。ここで、aは定数、ξは魚眼レンズによる撮影映像上の映像部分の円の半径であり、図5ではξ=100を使っている。
【0047】
本実施形態でパノラマ映像として用いるのは、
−90≦θ≦+90、−30≦φ≦+30
の範囲内である。画像処理回路103は、この範囲内の全てのパノラマ映像の画素について、魚眼レンズによる撮影映像の対応する画素を求める。図5(b)に54で示した矩形がパノラマ映像の範囲であり、矢印55に従って各画素の値をラスタスキャンして求めていく。図5(a)の映像51は、画角180°の正射影投影方式の魚眼レンズが生成する半天映像であり、この中の範囲52の映像が、図5(b)のパノラマ映像54に対応する。
【0048】
画像処理回路103には、図示しない画像記憶手段が備えられており、ここに記憶されるパノラマ映像の全ての181×61画素の各々について、上記した式(1),(2) を用いて対応する魚眼レンズ映像の画素位置を算出する。このとき、一般には画素位置は整数にならないので、切り捨てを行う最近傍画素方式や近傍4点による重み付け平均方式などを使って画素の値を決定する。
【0049】
次に、指示枠204の重畳方法について説明する。パノラマ映像表示ウィンドウ203に重畳する矩形の指示枠204の位置は、雲台付きカメラ110のパン・チルト・ズーム値から計算される。すなわち、パン値をθ(水平角度、単位は度)、チルト値をφ(垂直角度、単位は度)、ズーム値をZ(画像対角の成す角度、単位は度)とし、ズーム値Zがあまり大きくないと仮定する。NTSC方式の画像は4:3の横と縦の比を持っているので、横方向の画角は(4Z/5)、縦方向の画角は(3Z/5)である。
【0050】
したがって、指示枠204は、
点(θ−(4Z/5),φ−(3Z/5))、
点(θ−(4Z/5),φ+(3Z/5))、
点(θ+(4Z/5),φ+(3Z/5))、
点(θ+(4Z/5),φ−(3Z/5))
を結んだ矩形となる。なお、以上の説明では、矩形の指示枠204をPC109で重畳していたが、画像符号化に先立ってパノラマ映像に重畳しても良い。
【0051】
以上詳しく説明したように、本実施形態では、雲台付きカメラ110で撮影した詳細映像と、雲台付きカメラ110で撮影できる全範囲を広角カメラ101により撮影したパノラマ映像とをPC109に伝送し、それぞれを異なるウィンドウ上に表示するようにしたので、PC109の利用者は、自分がいま所望する詳細映像だけでなく、その周辺の映像もほぼリアルタイムに近い形で見ることができる。これにより、これらのウィンドウを見ながら雲台付きカメラ110のパラメータを遠隔制御することにより、詳細映像の表示をその周辺の状況変化等に応じて瞬時に変えるようにすることができる。
【0052】
また、広角カメラ101によって撮像されたパノラマ映像上に、雲台付きカメラ110によって撮像されている詳細映像の視野に相当する指示枠204を重畳して表示するようにしたので、雲台付きカメラ110の現在の撮影姿勢等とそのときの周囲の映像とを容易に確認することができ、姿勢制御等の動作錯誤を防止することができる。
【0053】
(第2の実施形態)
図6は、本発明による第2の実施形態を示すブロック図である。図1に示した第1の実施形態では広角カメラ101を1台のみ使用していたが、第2の実施形態では複数台使用し、これらによって撮影された映像を画像処理によって合成して送出する。なお、図6において、図1に示した要素と同じ要素には同一の符号を付している。
【0054】
第2の実施形態では、2台の広角カメラ101,601を、それぞれに180°の角度を付けて図7のように固定する。図7において、71と72は広角カメラであり、73は雲台付きズームカメラである。この雲台付きズームカメラ73は、本体から分離可能な構成としても良い。
【0055】
図6において、広角カメラ601で撮影された映像信号611は、画像デジタル化回路602によってデジタル映像信号612とされ、画像処理回路603に与えられる。画像処理回路603は、画像デジタル化回路102からのデジタル映像信号112と、画像デジタル化回路602からのデジタル映像信号612とをそれぞれ歪みのないパノラマ映像に画像処理し、更にそれらを合成して出力する。これとは逆に、先に合成してから歪みのないパノラマ映像に画像処理するようにしても良い。
【0056】
以上のように、第2の実施形態によれば、第1の実施形態で説明したように、2つの広角カメラ101,601(図7では71,72)によってそれぞれパン方向180°のパノラマ映像を得ることができる。第2の実施形態では、これらのパノラマ映像をつなげて360°の映像を作成し、それを雲台付きカメラ110の制御に用いる。よって、より広い範囲を見ながら詳細映像の表示をその周辺の状況変化等に応じて瞬時に変えるようにすることができる。
【0057】
(第3の実施形態)
図8は、本発明による第3の実施形態に係るカメラ制御システムの構成を示すブロック図である。図8において、801は広角レンズ、802は広角レンズ801で結像した映像のための光センサとA/D変換器(以下、単にA/D変換器と記す)、803は画像符号化器、804はCPU、メモリ、ネットワークアダプタなどからなる通信制御装置、805は雲台付きカメラのズームレンズ、806は雲台付きカメラの光センサとA/D変換器(以下、単にA/D変換器と記す)、807は雲台である。
【0058】
図9は、本実施形態によるPC109への表示例を示す図であり、本実施形態においてもマルチウィンドウシステムで構成されている。図9において、901はディスプレイ、902はズームレンズ805とA/D変換器806とによって撮像された雲台付きカメラの映像表示ウィンドウ、903は広角レンズ801とA/D変換器802とによって撮像された広角カメラの映像表示ウィンドウ、904は広角映像表示ウィンドウ903上に重畳表示された指示枠である。
【0059】
図10は、本実施形態によるデータの流れを模式的にタイムチャートに表したものである。図10(図8も同様)において、811は広角カメラ映像信号、812は符号化映像信号、813は雲台付きカメラ映像信号、814は雲台制御信号、815はズーム制御信号である。
【0060】
また、816はネットワーク上を流れるネットワーク信号であり、これは、雲台カメラ映像要求信号816(a) 、雲台カメラ符号化映像信号816(b) 、広角カメラ映像要求信号816(c) 、雲台・ズーム制御信号816(d) 、広角カメラ符号化映像信号816(e) の5つに分かれる。なお、図10において横軸は時間を表している。
図11は、本実施形態によるカメラの実現例を示す外観図である。
【0061】
以下、本実施形態の動作を図8〜図10に従って説明する。まず、図8において映像データの流れを説明する。
広角レンズ801によって集光され、A/D変換器802によって電気信号に変換された映像信号811は、画像符号化器803によって例えばJPEGなどの符号化方式で圧縮符号化される。
【0062】
一方、ズームレンズ805によって集光され、A/D変換器806によって電気信号に変換された映像信号813も同様に、画像符号化器803によって圧縮符号化される。画像符号化器803は、A/D変換器802より出力される広角カメラ映像信号811と、A/D変換器806より出力される雲台付きカメラ映像信号813との何れかを選択して符号化する。
【0063】
上記画像符号化器803によって符号化された映像信号812は、通信制御装置804に送られてネットワークヘ送出され、PC109に送られる。そして、このPC109において復号化の処理などが施され、ディスプレイ上に表示される。ここで、ネットワークとは、例えばTCP/IPを用いたインターネット準拠のコンピュータネットワークである。
【0064】
次に、図10に従って映像とカメラ制御の流れを説明する。
PC109に搭載されたコントロールプログラムは、まず、雲台カメラ映像要求信号816(a) (雲台カメラ映像要求A10)を送出する。このPC109からの雲台カメラ映像要求A10は、通信制御装置804で受け取られる。通信制御装置804は、画像符号化器803に対して、A/D変換器806からの雲台付きカメラ映像信号813を選択する指示を行う。
【0065】
このとき画像符号化器803に取り込まれる映像の1フレームが雲台付きカメラ映像信号813のフレームA11であり、これが画像符号化器803によって符号化されて符号化映像信号812のフレームA12となる。さらに、通信制御装置804によって、雲台カメラ符号化映像信号816(b) のフレームA13となってネットワークに伝送され、PC109によって図9の雲台カメラ映像表示ウィンドウ902にフレームA14として表示される。この一連の動作は、ユーザによって終了が指示されるまで操り返される。
【0066】
一方、PC109に搭載されたコントロールプログラムは、広角カメラ映像要求信号816(c) (広角カメラ映像要求B10)を送出する。このPC109からの広角カメラ映像要求B10は、通信制御装置804で受け取られる。通信制御装置804は、画像符号化器803に対して、A/D変換器802からの広角カメラ映像信号811を選択する指示を行う。
【0067】
このとき画像符号化器803に取り込まれる映像の1フレームが広角カメラ映像信号811のフレームB11であり、これが画像符号化器803によって符号化されて符号化映像信号812のフレームB12となる。さらに、通信制御装置804によって、その時点での雲台807とズームレンズ805のパラメータが重畳され、広角カメラ符号化映像信号816(e) のフレームB13となってネットワークに伝送される。
【0068】
そして、PC109によって図9の広角映像表示ウィンドウ903にフレームB14として表示される。このとき、PC109のコントロールプログラムは、フレームB13に重畳されている雲台807とズームレンズ805のパラメータをもとに、広角映像表示ウィンドウ903に表示されるフレームB14の映像上に矩形の指示枠904を重畳して表示する。
【0069】
利用者はこの時点でのディスプレイ901を観察し、雲台付きカメラがどこを向いているか、また、これからどこに雲台付きカメラを向けるかなどの意思決定を容易に行うことができる。これにより利用者は、PC109に搭載されたコントロールプログラムを用いて、雲台807の位置とズームレンズ805のズームとの制御指令を作成する。
【0070】
これは、雲台・ズーム制御信号816(d) の制御指令C10としてPC109よりネットワークに伝送される。そして、これが通信制御装置804によって受け取られ、雲台807に雲台制御信号814の雲台動作指令C13として伝達される。また、ズーム制御信号815のズーム動作指令C12も同様に、ズームレンズ805に伝達される。
【0071】
通信制御装置804は、雲台807、ズームレンズ805を監視制御し、上記制御指令C10に基づく動作が完了したとき、画像符号化器803に対してA/D変換器802からの広角カメラ映像信号811を選択する指示を出す。これにより、画像符号化器803により、広角カメラ映像信号811のフレームB21を符号化して符号化映像信号812のフレームB22を生成する。
【0072】
さらに、上記フレームB22は、通信制御装置804により、その時点での雲台807とズームレンズ805のパラメータが重畳されて広角カメラ符号化映像信号816(e) のフレームB23となり、それがPC109に伝送される。この映像は、PC109の広角映像表示ウィンドウ903にフレームB24として表示される。このときも、PC109のコントロールプログラムは、フレームB23に重畳されている雲台807とズームレンズ805のパラメータをもとに、広角映像表示ウィンドウ903のフレームB24の映像上に矩形の指示枠904を重畳して表示する。
【0073】
以上詳しく説明したように、第3の実施形態によれば、第1の実施形態と同様に詳細映像の表示をその周辺の状況変化等に応じて瞬時に変えるようにすることができる。第3の実施形態では、広角レンズ801は魚眼レンズではなく、歪んだ映像を修正する画像処理手段も設けていないので、装置全体のコストを低く抑えることができるとともに、処理を高速化することができる。
【0074】
(第4の実施形態)
図12は、本発明による第4の実施形態に係るカメラ制御システムの構成を示すブロック図である。
第3の実施形態では、広角映像表示ウィンドウ903の映像に矩形の指示枠904を重畳する処理をPC109において行っていたが、以下に述べる第4の実施形態では、広角カメラ映像信号811に対して画像の形式で指示枠904を重畳して送出する。
【0075】
図12において、図8に示した要素と同じ要素には同一の符号を付し、重複する説明は省略する。第4の実施形態においては、図10に示したPC109からの広角カメラ映像要求B10は、通信制御装置804で受け取られ、画像符号化器803に対してA/D変換器802からの広角カメラ映像信号811を選択する指示が成される。
【0076】
このときA/D変換器802より出力される映像の1フレームが広角カメラ映像信号811のフレームB11であり、これが画像記憶装置1201によって一時的に記憶される。そして、通信制御装置804によって、この記憶されたフレームB11に対して、メモリアドレスデータ信号1212(その時点での雲台807とズームレンズ805のパラメータから求められる)を通じて矩形の指示枠904が描画され、その結果が画像符号化器803に与えられる。
【0077】
指示枠904が描画された広角カメラ映像信号1211のフレームB11は、画像符号化器803で符号化されて符号化映像信号812のフレームB12となる。さらに、通信制御装置804によって広角カメラ符号化映像信号816(e) のフレームB13とされてネットワークに伝送され、PC109によって図9の広角映像表示ウィンドウ903にフレームB14として表示される。
【0078】
その他の動作は、第3の実施形態と同様なので、重複する説明は省略する。
なお、この第4の実施形態では、画像記憶装置1201を用いてフレーム画像を一旦保存したが、これをラインバッファなどで置き換えてもよいことは明らかである。
【0079】
(第5の実施形態)
図13は、本発明による第5の実施形態に係るカメラ制御システムの構成を示すブロック図である。この第5の実施形態では、上述した第2の実施形態と同様に、広角カメラを複数台使用し、それらで撮影される広角映像を画像処理によって合成して送出するものである。
【0080】
つまり、図13において、広角カメラ801,1301で撮影された映像信号は、A/D変換器802,1302によってそれぞれデジタル化され、画像合成器1303に与えられる。画像合成器1303は、入力された2つのデジタル映像信号を合成して出力する。その他の構成および動作は、図8で述べたとの同様なので、ここでは詳しい説明を省略する。
【0081】
(本発明の他の実施形態)
上述した実施形態の機能を実現するべく各種のデバイスを動作させるように、該各種デバイスと接続された装置あるいはシステム内のコンピュータに対し、上記実施形態の機能を実現するためのソフトウェアのプログラムコードを供給し、そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)に格納されたプログラムに従って上記各種デバイスを動作させることによって実施したものも、本発明の範疇に含まれる。
【0082】
また、この場合、上記ソフトウェアのプログラムコード自体が上述した実施形態の機能を実現することになり、そのプログラムコード自体、およびそのプログラムコードをコンピュータに供給するための手段、例えばかかるプログラムコードを格納した記録媒体は本発明を構成する。かかるプログラムコードを記憶する記録媒体としては、例えばフロッピーディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。
【0083】
また、コンピュータが供給されたプログラムコードを実行することにより、上述の実施形態の機能が実現されるだけでなく、そのプログラムコードがコンピュータにおいて稼働しているOS(オペレーティングシステム)あるいは他のアプリケーションソフト等の共同して上述の実施形態の機能が実現される場合にもかかるプログラムコードは本発明の実施形態に含まれることは言うまでもない。
【0084】
さらに、供給されたプログラムコードがコンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後、そのプログラムコードの指示に基づいてその機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって上述した実施形態の機能が実現される場合にも本発明に含まれることは言うまでもない。
【0085】
【発明の効果】
本発明は上述したように、可制御カメラで撮影した画像と、可制御カメラで撮影できる全範囲を広角カメラにより撮影した画像とを第1の装置から第2の装置に伝送し、それぞれを表示するようにしたので、第2の装置の利用者は、自分がいま所望する詳細な画像だけでなく、その周辺の画像もほぼリアルタイムに近い形で見ることができる。これにより、これらの表示を見ながら可制御カメラの撮影状態を遠隔制御することで、詳細画像の表示をその周辺の状況変化等に応じて瞬時に変えるようにすることができる。しかも、制御命令に応じたタイミングで第1フレーム画像が生成されるので、最新の広角画像を見ることができ、周辺の状況変化を的確に把握して、正確なカメラ制御が可能となる。
したがって、例えば、TV会議や遠隔監視など映像を見ながら、遠隔の可制御カメラの撮影状態の制御を対話的に行いたいとき、可制御カメラが運動して撮影できるすべての領域の映像を見ながら撮影状態を制御することができ、容易に操作することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係るカメラ制御システムの構成を示すブロック図である。
【図2】本発明の第1の実施形態の画像表示例を示す図である。
【図3】本発明の第1の実施形態の動作を説明するためのデータフロー図である。
【図4】第1の実施形態で使用した魚眼カメラによる撮影映像とパノラマ映像との関係を示す図である。
【図5】本発明の第1の実施形態に係る画像処理を説明するための図である。
【図6】本発明の第2の実施形態に係るカメラ制御システムの構成を示すブロック図である。
【図7】本発明の第2の実施形態に係るレンズ位置を説明するための第1の装置の外観構成図である。
【図8】本発明の第3の実施形態に係るカメラ制御システムの構成を示すブロック図である。
【図9】本発明の第3の実施形態の画像表示例を示す図である。
【図10】本発明の第3の実施形態の動作を説明するためのデータフロー図である。
【図11】本発明の第3の実施形態に係る第1の装置の実現例を示す外観構成図である。
【図12】本発明の第4の実施形態に係るカメラ制御システムの構成を示すブロック図である。
【図13】本発明の第5の実施形態に係るカメラ制御システムの構成を示すブロック図である。
【符号の説明】
101 広角カメラ
103 画像処理回路
105 通信制御回路
106 ズームカメラ
107 雲台
109 PC(第2の装置)
110 雲台付きカメラ
202 詳細映像表示ウィンドウ
203 パノラマ映像表示ウィンドウ
204 指示枠
601 広角カメラ
603 画像処理回路[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a camera control system and a control method therefor, and more particularly, to a video data communication processing system that remotely uses moving image data input from a camera and processed by a digital processing device, such as a TV conference system or a video surveillance system. And suitable.
[0002]
[Prior art]
Conventionally, in fields such as TV conferences and surveillance cameras, a system is configured by a camera and a user terminal capable of remotely controlling parameters thereof via a network, and the user controls the remote camera remotely to shoot. It was configured to receive and display the recorded video. As a camera, a camera with a pan head has been used in order to change the shooting posture.
[0003]
This camera with a pan head uses a dedicated controller to control the left and right pans and the top and bottom tilts with buttons and joysticks. In recent years, a dedicated controller is displayed on a computer display in a pseudo manner using a GUI or the like, and is controlled by a mouse or the like.
[0004]
Many surveillance cameras are configured to control a pan head with a predetermined movement and monitor a predetermined number of images even if the pan head is attached.
[0005]
[Problems to be solved by the invention]
However, in these conventional systems, the only video that was transmitted was the video that was actually captured by the camera with the pan head at a certain point in time, so the surrounding conditions could not be seen and the pan head was moved. I couldn't intuitively understand the video after that. Therefore, in order to photograph a desired position, it is necessary to correct the position of the pan head many times by looking at the transmitted video.
[0006]
By the way, when a cameraman takes a camera and shoots at the shooting site, he looks through the viewfinder of the camera with one eye, but the other is observing the surroundings, and then instantly places the camera at the desired angle. Can be directed. This is possible because the cameraman sees not only the image in the viewfinder that is actually photographed, but also other areas that may be photographed at the same time.
[0007]
In this way, when you want to interactively control the attitude of a remote camera with a pan head while watching the video in a TV conference or remote monitoring, the pan head while watching the video of all areas that the camera can shoot by moving. If the user is controlled, the user feels as if he / she is holding the camera like the above-mentioned photographer and is controlling the shooting range while being in that place, and can easily operate it.
[0008]
For this purpose, the conventional method is to first shoot all areas that can be photographed by moving the camera, and convert these images into one image by image processing. Then, the user controls the shooting posture and zoom of the camera while viewing the still image obtained thereby.
[0009]
However, the image of the entire area that can be generated by such image processing is a still image, not a real-time video. For this reason, it is most necessary to point the camera instantly at the angle at which the user wants to shoot, such as pointing the camera at a participant who is requesting a speech in a TV conference, or pointing the camera at a sudden intruder in remote monitoring. There was a problem that the case was not fully supported.
[0010]
The present invention has been made to solve such a problem, and it is possible to easily and instantaneously indicate a camera posture or the like desired by a user during a TV conference or remote monitoring. Objective.
[0011]
[Means for Solving the Problems]
The camera control system according to the present invention includes a wide-angle camera that captures an image with a wide angle of view, a first device that includes a controllable camera that can control a shooting state, and a network connection with the first device. A camera control system including a second device capable of remotely controlling a shooting state of a control camera, wherein the first device continuously transmits first frame images obtained by the wide-angle camera at a first interval. First output means for automatically generating and outputting, and second output means for continuously generating and outputting the second frame image obtained by the controllable camera at a second interval, wherein the second device comprises: Display means for displaying the first and second frame images output from the first and second output means and displaying an area indicating the imaging area of the controllable camera on the first frame image. When, Panning, tilting, and zooming of the controllable camera so as to capture an image corresponding to the area instructed by the instructing means, instructing means instructing a desired area in the first frame image displayed by the displaying means Control means for issuing at least one of the control commands, wherein the first output means is the first at a timing independent of the first interval at which the control of the controllable camera is completed according to the control command. A frame image is generated and output, and the display means updates and displays the first frame image in response to the timing.
In addition, the control method of the camera control system of the present invention includes a wide-angle camera that captures an image with a wide angle of view and a controllable camera that can control the shooting state, and the first frame image obtained by the wide-angle camera is a first frame image. A first device for continuously generating and outputting at one interval and generating and outputting a second frame image obtained by the controllable camera at a second interval; and a network connection with the first device And a control method of a camera control system configured by a second device capable of remotely controlling a shooting state of the controllable camera, wherein the second device outputs the first output from the first device. In the display step of displaying the first and second frame images and displaying the region indicating the imaging region of the controllable camera on the first frame image, An instruction step for indicating a desired area in the first frame image displayed by the display step, and the controllable camera so as to capture an image corresponding to the area indicated by the instruction step in the second apparatus. A control step of issuing at least one control command of panning, tilting, and zooming, and, in the first device, independent of the first interval at which control of the controllable camera is completed in response to the control command An output step of generating and outputting a first frame image at timing, and an update step of updating and displaying the first frame image in response to the timing in the first device are executed.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of a camera control system according to an embodiment of the present invention. In FIG. 1, 101 is a wide-angle camera capable of photographing a wide angle of view, 102 is an image digitizing circuit for digitizing video captured by the wide-
[0013]
[0014]
Although the
[0015]
FIG. 2 is a diagram showing a display example of video on the PC 109 according to the present embodiment. As shown here, the video is displayed on a multi-window system. In FIG. 2, 201 is a display, 202 is a detailed video display window for displaying video captured by the camera with
[0016]
[0017]
FIG. 3 schematically shows a data flow according to the present embodiment in a time chart. In FIG. 3 (also in FIG. 1), 112 is a video signal photographed by the wide-
[0018]
[0019]
FIG. 4 schematically shows an image captured by the wide-
[0020]
FIG. 4A schematically shows light entering the fisheye lens in three dimensions, and A to F are pillars that are set up perpendicular to a plane passing through the optical axis. Column A is set at an angle of 0 ° with respect to the optical axis, and column B is set at an angle of 10 ° with respect to the optical axis. It stands at an angle of 30 °, 45 °, 60 ° and 90 °. The distances to the fisheye lenses of the pillars A to F are all the same.
[0021]
FIG. 4B shows an image obtained by photographing the pillars A to F shown in FIG. 4A with a fisheye lens. A ′ to F ′ in FIG. 4B are images of the pillars A to F in FIG.
FIG. 4C shows a panoramic image in which the pillars A to F shown in FIG. 4A are expressed so that the angle with respect to the optical axis of each image is constant. A ″ to F ″ in FIG. 4C are images of the pillars A to F shown in FIG.
[0022]
FIG. 5 is a view showing a panoramic image corresponding to an image captured by the wide-
[0023]
The operation of this embodiment will be described below with reference to FIGS. First, the flow of video data will be described with reference to FIG.
The
[0024]
On the other hand, the
[0025]
The
[0026]
Next, the flow of video and camera control will be described with reference to FIG.
First, the control program installed in the
[0027]
At this time, one frame of the video captured by the
[0028]
On the other hand, the control program installed in the
[0029]
At this time, one frame of the video captured by the
[0030]
Then, it is displayed as a frame B14 by the
[0031]
A user observes the
[0032]
The position of the
[0033]
The
[0034]
Further, the
[0035]
In the display frame of the
[0036]
Therefore, by outputting the wide-angle camera image request signal 115 (c) at an appropriate interval, not only the detailed image but also the surrounding image can be viewed in almost real time, and the change in the surrounding situation can be accurately observed. I can grasp it. Thus, by remotely controlling the parameters of the camera with
[0037]
Since the detailed video is more important than the panoramic video for the user of the
[0038]
Next, a panoramic video generation method according to the present embodiment will be described in detail with reference to FIGS. 4 and 5.
The panoramic image used in the present embodiment is an image including the maximum range that can be captured by changing the pan / tilt / zoom values with the camera with
[0039]
The camera with
[0040]
In the present embodiment, an image with a constant viewing angle is used as the panoramic image. For example, when the viewing angle of 1 ° corresponds to 1 pixel, in the case of the above-described camera, the panoramic image is an image of 161 × 86 pixels.
In the following description, for the sake of simplicity, a camera with a pan field of view of ± 90 ° and a tilt of ± 30 ° is assumed.
[0041]
The
[0042]
In the following, the relationship between the real world, a fisheye camera image, and a panoramic image will be described.
The images of the pillars A to F shown in FIG. 4A are projected onto the image sensor by the fisheye lens. FIG. 4B schematically shows how the images of the pillars A to F are projected onto the image sensor.
[0043]
That is, in the orthographic projection type fisheye lens, the displacement y from the optical axis center of the image, the focal length ξ, and the incident angle φ are between
y = ξ · sin (φ)
There is a relationship. Therefore, the six pillars A to F in FIG. 4A are imaged on the image sensor as A ′ to F ′ in FIG.
[0044]
The angle between the column A and the column C (= 30 °) and the angle between the column E and the column F (= 30 °) are as follows on the image sensor.
{Sin (30 °) −sin (0 °)}: {sin (90 °) −sin (60 °)} = 1: 0.27
The difference comes out. A panoramic image obtained by correcting this by image processing is shown in FIG. That is, 30 ° between the columns A and C and 30 ° between the columns E and F are mapped 1: 1 on the corrected image (between A ″ and C ″ and E ″, F). Process the images so that the distance between them is the same.
[0045]
In the present embodiment, the wide-
[0046]
In order to convert a video shot with a fisheye lens into a panoramic video, the position on the panoramic video is (θ, φ), the corresponding position on the video shot with the fisheye lens is (η, ζ),
η = ξ · cos (φ) sin (θ) (1)
ζ = a · ξ · φ / π (2)
Correct the relationship. Here, a is a constant, ξ is the radius of the circle of the image portion on the image taken by the fisheye lens, and ξ = 100 is used in FIG.
[0047]
What is used as a panoramic image in this embodiment is
−90 ≦ θ ≦ + 90, −30 ≦ φ ≦ + 30
Is within the range. The
[0048]
The
[0049]
Next, a method for superimposing the
[0050]
Therefore, the
Point (θ− (4Z / 5), φ− (3Z / 5)),
Point (θ− (4Z / 5), φ + (3Z / 5)),
Point (θ + (4Z / 5), φ + (3Z / 5)),
Point (θ + (4Z / 5), φ− (3Z / 5))
It becomes a rectangle connecting. In the above description, the
[0051]
As described above in detail, in the present embodiment, the detailed image captured by the camera with
[0052]
In addition, since the
[0053]
(Second Embodiment)
FIG. 6 is a block diagram showing a second embodiment according to the present invention. In the first embodiment shown in FIG. 1, only one wide-
[0054]
In the second embodiment, the two wide-
[0055]
In FIG. 6, a
[0056]
As described above, according to the second embodiment, as described in the first embodiment, panoramic images of 180 ° in the pan direction are respectively obtained by the two wide-
[0057]
(Third embodiment)
FIG. 8 is a block diagram showing a configuration of a camera control system according to the third embodiment of the present invention. In FIG. 8, 801 is a wide-angle lens, 802 is an optical sensor and an A / D converter (hereinafter simply referred to as an A / D converter) for an image formed by the wide-
[0058]
FIG. 9 is a diagram showing a display example on the
[0059]
FIG. 10 schematically shows a data flow according to the present embodiment in a time chart. In FIG. 10 (also in FIG. 8), 811 is a wide-angle camera video signal, 812 is an encoded video signal, 813 is a camera video signal with a pan head, 814 is a pan head control signal, and 815 is a zoom control signal.
[0060]
FIG. 11 is an external view showing an implementation example of the camera according to the present embodiment.
[0061]
The operation of this embodiment will be described below with reference to FIGS. First, the flow of video data will be described with reference to FIG.
The
[0062]
On the other hand, the
[0063]
The
[0064]
Next, the flow of video and camera control will be described with reference to FIG.
First, the control program installed in the
[0065]
At this time, one frame of the video captured by the
[0066]
On the other hand, the control program installed in the
[0067]
At this time, one frame of the video captured by the
[0068]
Then, it is displayed as a frame B14 by the
[0069]
The user can observe the
[0070]
This is transmitted from the
[0071]
The
[0072]
Further, the frame B22 is superimposed on the parameters of the
[0073]
As described above in detail, according to the third embodiment, as in the first embodiment, the display of the detailed video can be instantaneously changed according to the surrounding situation change or the like. In the third embodiment, the wide-
[0074]
(Fourth embodiment)
FIG. 12 is a block diagram showing a configuration of a camera control system according to the fourth embodiment of the present invention.
In the third embodiment, the process of superimposing the
[0075]
In FIG. 12, the same elements as those shown in FIG. 8 are denoted by the same reference numerals, and redundant description is omitted. In the fourth embodiment, the wide-angle camera image request B10 from the
[0076]
At this time, one frame of the video output from the A /
[0077]
The frame B11 of the wide-angle
[0078]
Since other operations are the same as those in the third embodiment, a duplicate description is omitted.
In the fourth embodiment, the frame image is temporarily stored using the
[0079]
(Fifth embodiment)
FIG. 13 is a block diagram showing a configuration of a camera control system according to the fifth embodiment of the present invention. In the fifth embodiment, as in the second embodiment described above, a plurality of wide-angle cameras are used, and wide-angle images captured by these cameras are combined and sent out by image processing.
[0080]
That is, in FIG. 13, video signals photographed by the wide-
[0081]
(Other embodiments of the present invention)
In order to operate various devices in order to realize the functions of the above-described embodiments, a program code of software for realizing the functions of the above-described embodiments is provided to an apparatus connected to the various devices or a computer in the system. What is implemented by operating the various devices according to a program supplied and stored in a computer (CPU or MPU) of the system or apparatus is also included in the scope of the present invention.
[0082]
In this case, the program code of the software itself realizes the functions of the above-described embodiments, and the program code itself and means for supplying the program code to the computer, for example, the program code is stored. The recording medium constitutes the present invention. As a recording medium for storing the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
[0083]
Further, by executing the program code supplied by the computer, not only the functions of the above-described embodiments are realized, but also the OS (operating system) or other application software in which the program code is running on the computer, etc. It goes without saying that the program code is also included in the embodiment of the present invention even when the functions of the above-described embodiment are realized jointly.
[0084]
Further, after the supplied program code is stored in the memory provided in the function expansion board of the computer or the function expansion unit connected to the computer, the CPU provided in the function expansion board or function expansion unit based on the instruction of the program code Needless to say, the present invention includes a case where the functions of the above-described embodiment are realized by performing part or all of the actual processing.
[0085]
【The invention's effect】
As described above, according to the present invention, an image captured by a controllable camera and an image captured by a wide-angle camera over the entire range that can be captured by the controllable camera are transmitted from the first device to the second device, and each is displayed. As a result, the user of the second apparatus can view not only the detailed image desired by the user but also the surrounding image in a form almost in real time. Thus, by remotely controlling the shooting state of the controllable camera while viewing these displays, it is possible to instantaneously change the display of the detailed image in accordance with the surrounding situation change or the like. In addition, since the first frame image is generated at the timing according to the control command, the latest wide-angle image can be viewed, the surrounding situation change can be accurately grasped, and accurate camera control can be performed.
Therefore, for example, when it is desired to interactively control the shooting state of a remote controllable camera while watching a video such as a TV conference or remote monitoring, while watching the video of all areas that the controllable camera can move and shoot The photographing state can be controlled and can be easily operated.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a camera control system according to a first embodiment of the present invention.
FIG. 2 is a diagram showing an image display example according to the first embodiment of the present invention.
FIG. 3 is a data flow diagram for explaining the operation of the first exemplary embodiment of the present invention.
FIG. 4 is a diagram showing a relationship between a video image captured by the fish-eye camera used in the first embodiment and a panoramic video image.
FIG. 5 is a diagram for explaining image processing according to the first embodiment of the present invention;
FIG. 6 is a block diagram illustrating a configuration of a camera control system according to a second embodiment of the present invention.
FIG. 7 is an external configuration diagram of a first apparatus for explaining a lens position according to a second embodiment of the present invention.
FIG. 8 is a block diagram showing a configuration of a camera control system according to a third embodiment of the present invention.
FIG. 9 is a diagram illustrating an image display example according to a third embodiment of the present invention.
FIG. 10 is a data flow diagram for explaining the operation of the third exemplary embodiment of the present invention.
FIG. 11 is an external configuration diagram showing an implementation example of the first device according to the third embodiment of the present invention.
FIG. 12 is a block diagram showing a configuration of a camera control system according to a fourth embodiment of the present invention.
FIG. 13 is a block diagram showing a configuration of a camera control system according to a fifth embodiment of the present invention.
[Explanation of symbols]
101 Wide-angle camera
103 Image processing circuit
105 Communication control circuit
106 Zoom camera
107 pan head
109 PC (second device)
110 Camera with pan head
202 Detailed video display window
203 Panorama image display window
204 Instruction frame
601 Wide angle camera
603 Image processing circuit
Claims (9)
上記第1の装置は、
上記広角カメラにより得られた第1フレーム画像を第1間隔で連続的に生成し出力する第1出力手段と、
上記可制御カメラにより得られた第2フレーム画像を第2間隔で連続的に生成し出力する第2出力手段とを備え、
上記第2の装置は、
上記第1及び第2の出力手段から出力された第1及び第2のフレーム画像を表示するとともに、上記第1フレーム画像に上記可制御カメラの撮影領域を示す領域を重ねて表示する表示手段と、
上記表示手段により表示された第1フレーム画像内で所望の領域を指示する指示手段と、
上記指示手段により指示された領域に対応する画像を撮影するように上記可制御カメラのパン、チルト、ズームのうち少なくとも1つの制御命令を発行する制御手段とを備え、
上記第1出力手段は、上記制御命令に応じて上記可制御カメラの制御が完了した上記第1間隔とは独立したタイミングで第1フレーム画像を生成して出力し、
上記表示手段は上記タイミングに応答して第1フレーム画像を更新表示するようにしたことを特徴とするカメラ制御システム。A first apparatus having a wide-angle camera that captures an image with a wide angle of view, and a controllable camera capable of controlling the shooting state, and the first apparatus connected to the network, and remotely controlling the shooting state of the controllable camera a camera control system which is constituted by the second device and capable,
The first device includes:
First output means for continuously generating and outputting a first frame image obtained by the wide-angle camera at a first interval;
Second output means for continuously generating and outputting second frame images obtained by the controllable camera at a second interval;
The second device is
Display means for displaying the first and second frame images output from the first and second output means and displaying an area indicating the photographing area of the controllable camera on the first frame image; ,
Instruction means for indicating a desired region in the first frame image displayed by the display means;
Control means for issuing at least one control command of panning, tilting and zooming of the controllable camera so as to capture an image corresponding to the area designated by the instruction means;
The first output means generates and outputs a first frame image at a timing independent of the first interval at which the control of the controllable camera is completed according to the control command,
The camera control system according to claim 1, wherein the display means updates and displays the first frame image in response to the timing .
上記超広角レンズにより撮像された画像を画像処理して上記歪みをなくすことで上記第1フレーム画像としてのパノラマ画像を生成する画像処理手段を更に備えたことを特徴とする請求項1または2に記載のカメラ制御システム。The wide-angle camera includes a super-wide-angle lens that causes distortion in a captured image,
3. The image processing apparatus according to claim 1, further comprising an image processing unit configured to generate a panoramic image as the first frame image by performing image processing on the image captured by the super wide-angle lens and eliminating the distortion. The camera control system described.
上記第2の装置において、上記第1の装置から出力された第1及び第2のフレーム画像を表示するとともに、上記第1フレーム画像に上記可制御カメラの撮影領域を示す領域を重ねて表示する表示工程と、
上記第2の装置において、上記表示工程により表示された第1フレーム画像内で所望の領域を指示する指示工程と、
上記第2の装置において、上記指示工程により指示された領域に対応する画像を撮影するように上記可制御カメラのパン、チルト、ズームのうち少なくとも1つの制御命令を発行する制御工程と、
上記第1の装置において、上記制御命令に応じて上記可制御カメラの制御が完了した上記第1間隔とは独立したタイミングで第1フレーム画像を生成して出力する出力工程と、
上記第1の装置において、上記タイミングに応答して第1フレーム画像を更新表示する更新工程とを実行させることを特徴とするカメラ制御システムの制御方法。A wide-angle camera that captures an image with a wide angle of view, and a controllable camera that can control the shooting state, and continuously generate and output the first frame image obtained by the wide-angle camera at a first interval. A first device that continuously generates and outputs a second frame image obtained by a controllable camera at a second interval, and is connected to the first device via a network so that the photographing state of the controllable camera can be remotely controlled. a method of controlling a camera control system which is constituted by a such a second device,
In the second apparatus, the first and second frame images output from the first apparatus are displayed, and an area indicating the imaging area of the controllable camera is displayed on the first frame image. Display process;
In the second apparatus, an instruction step for indicating a desired region in the first frame image displayed by the display step;
A control step of issuing at least one control command of panning, tilting and zooming of the controllable camera so as to capture an image corresponding to the region instructed by the instructing step in the second device;
An output step of generating and outputting a first frame image at a timing independent of the first interval at which the control of the controllable camera is completed in response to the control command in the first device;
A control method for a camera control system, characterized in that, in the first device, an update step of updating and displaying the first frame image in response to the timing is executed .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP19268298A JP3792901B2 (en) | 1998-07-08 | 1998-07-08 | Camera control system and control method thereof |
US09/346,256 US6977676B1 (en) | 1998-07-08 | 1999-07-01 | Camera control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP19268298A JP3792901B2 (en) | 1998-07-08 | 1998-07-08 | Camera control system and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000032319A JP2000032319A (en) | 2000-01-28 |
JP3792901B2 true JP3792901B2 (en) | 2006-07-05 |
Family
ID=16295301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP19268298A Expired - Fee Related JP3792901B2 (en) | 1998-07-08 | 1998-07-08 | Camera control system and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3792901B2 (en) |
Families Citing this family (71)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4547694B2 (en) * | 2000-09-07 | 2010-09-22 | 旭 中野 | Dual operation type visual aid |
JP2002218288A (en) * | 2001-01-15 | 2002-08-02 | Nippon Hoso Kyokai <Nhk> | Camera display system |
JP4892792B2 (en) * | 2001-07-04 | 2012-03-07 | コニカミノルタホールディングス株式会社 | Measuring apparatus and measuring method |
US6677979B1 (en) * | 2001-06-12 | 2004-01-13 | Cisco Technology, Inc. | Method and apparatus for dual image video teleconferencing |
JP2003009136A (en) * | 2001-06-21 | 2003-01-10 | Toshiba Corp | Camera supervising system and video delivering server |
JP3954439B2 (en) * | 2002-05-31 | 2007-08-08 | 株式会社リコー | Video recording system, program, and recording medium |
JP4373645B2 (en) * | 2002-05-31 | 2009-11-25 | 株式会社リコー | Video distribution system, program, and recording medium |
JP3870124B2 (en) | 2002-06-14 | 2007-01-17 | キヤノン株式会社 | Image processing apparatus and method, computer program, and computer-readable storage medium |
US7593030B2 (en) * | 2002-07-25 | 2009-09-22 | Intouch Technologies, Inc. | Tele-robotic videoconferencing in a corporate environment |
US6925357B2 (en) | 2002-07-25 | 2005-08-02 | Intouch Health, Inc. | Medical tele-robotic system |
US20040162637A1 (en) | 2002-07-25 | 2004-08-19 | Yulun Wang | Medical tele-robotic system with a master remote station with an arbitrator |
US6839067B2 (en) * | 2002-07-26 | 2005-01-04 | Fuji Xerox Co., Ltd. | Capturing and producing shared multi-resolution video |
JP2004135209A (en) * | 2002-10-15 | 2004-04-30 | Hitachi Ltd | Generation device and method for wide-angle view high-resolution video image |
US8126155B2 (en) * | 2003-07-02 | 2012-02-28 | Fuji Xerox Co., Ltd. | Remote audio device management system |
JP2005136669A (en) * | 2003-10-30 | 2005-05-26 | Victor Co Of Japan Ltd | Imaging apparatus |
US7813836B2 (en) | 2003-12-09 | 2010-10-12 | Intouch Technologies, Inc. | Protocol for a remotely controlled videoconferencing robot |
US20050204438A1 (en) | 2004-02-26 | 2005-09-15 | Yulun Wang | Graphical interface for a remote presence system |
JP4565909B2 (en) * | 2004-07-02 | 2010-10-20 | Hoya株式会社 | camera |
US8077963B2 (en) | 2004-07-13 | 2011-12-13 | Yulun Wang | Mobile robot with a head-based movement mapping scheme |
US9198728B2 (en) | 2005-09-30 | 2015-12-01 | Intouch Technologies, Inc. | Multi-camera mobile teleconferencing platform |
US7769492B2 (en) | 2006-02-22 | 2010-08-03 | Intouch Technologies, Inc. | Graphical interface for a remote presence system |
US8849679B2 (en) | 2006-06-15 | 2014-09-30 | Intouch Technologies, Inc. | Remote controlled robot system that provides medical images |
US7761185B2 (en) | 2006-10-03 | 2010-07-20 | Intouch Technologies, Inc. | Remote presence display through remotely controlled robot |
JP4451892B2 (en) * | 2007-03-19 | 2010-04-14 | 株式会社リコー | Video playback device, video playback method, and video playback program |
US9160783B2 (en) | 2007-05-09 | 2015-10-13 | Intouch Technologies, Inc. | Robot system that operates through a network firewall |
US8116910B2 (en) | 2007-08-23 | 2012-02-14 | Intouch Technologies, Inc. | Telepresence robot with a printer |
JP5003458B2 (en) * | 2007-12-17 | 2012-08-15 | ソニー株式会社 | Image signal processing device, display device, image signal processing method, program, and recording medium |
US10875182B2 (en) | 2008-03-20 | 2020-12-29 | Teladoc Health, Inc. | Remote presence system mounted to operating room hardware |
US8179418B2 (en) | 2008-04-14 | 2012-05-15 | Intouch Technologies, Inc. | Robotic based health care system |
US8170241B2 (en) | 2008-04-17 | 2012-05-01 | Intouch Technologies, Inc. | Mobile tele-presence system with a microphone system |
JP2009284452A (en) * | 2008-05-23 | 2009-12-03 | Advas Co Ltd | Hybrid video camera imaging apparatus and system |
JP2009301175A (en) * | 2008-06-11 | 2009-12-24 | Ihi Aerospace Co Ltd | Monitoring method |
US9193065B2 (en) | 2008-07-10 | 2015-11-24 | Intouch Technologies, Inc. | Docking system for a tele-presence robot |
US9842192B2 (en) | 2008-07-11 | 2017-12-12 | Intouch Technologies, Inc. | Tele-presence robot system with multi-cast features |
US8340819B2 (en) | 2008-09-18 | 2012-12-25 | Intouch Technologies, Inc. | Mobile videoconferencing robot system with network adaptive driving |
US8996165B2 (en) | 2008-10-21 | 2015-03-31 | Intouch Technologies, Inc. | Telepresence robot with a camera boom |
US8463435B2 (en) | 2008-11-25 | 2013-06-11 | Intouch Technologies, Inc. | Server connectivity control for tele-presence robot |
US9138891B2 (en) | 2008-11-25 | 2015-09-22 | Intouch Technologies, Inc. | Server connectivity control for tele-presence robot |
US8849680B2 (en) | 2009-01-29 | 2014-09-30 | Intouch Technologies, Inc. | Documentation through a remote presence robot |
US8897920B2 (en) | 2009-04-17 | 2014-11-25 | Intouch Technologies, Inc. | Tele-presence robot system with software modularity, projector and laser pointer |
US11399153B2 (en) | 2009-08-26 | 2022-07-26 | Teladoc Health, Inc. | Portable telepresence apparatus |
US8384755B2 (en) | 2009-08-26 | 2013-02-26 | Intouch Technologies, Inc. | Portable remote presence robot |
JP2011114500A (en) * | 2009-11-25 | 2011-06-09 | Olympus Imaging Corp | Camera system |
CN102714711A (en) * | 2010-02-01 | 2012-10-03 | (株)荣国电子 | Tracking and monitoring camera device and remote monitoring system using same |
US11154981B2 (en) | 2010-02-04 | 2021-10-26 | Teladoc Health, Inc. | Robot user interface for telepresence robot system |
US8670017B2 (en) | 2010-03-04 | 2014-03-11 | Intouch Technologies, Inc. | Remote presence system including a cart that supports a robot face and an overhead camera |
US9014848B2 (en) | 2010-05-20 | 2015-04-21 | Irobot Corporation | Mobile robot system |
US10343283B2 (en) | 2010-05-24 | 2019-07-09 | Intouch Technologies, Inc. | Telepresence robot system that can be accessed by a cellular phone |
US9264664B2 (en) | 2010-12-03 | 2016-02-16 | Intouch Technologies, Inc. | Systems and methods for dynamic bandwidth allocation |
US9323250B2 (en) | 2011-01-28 | 2016-04-26 | Intouch Technologies, Inc. | Time-dependent navigation of telepresence robots |
KR102018763B1 (en) | 2011-01-28 | 2019-09-05 | 인터치 테크놀로지스 인코퍼레이티드 | Interfacing with a mobile telepresence robot |
US10769739B2 (en) | 2011-04-25 | 2020-09-08 | Intouch Technologies, Inc. | Systems and methods for management of information among medical providers and facilities |
US9098611B2 (en) | 2012-11-26 | 2015-08-04 | Intouch Technologies, Inc. | Enhanced video interaction for a user interface of a telepresence network |
US20140139616A1 (en) | 2012-01-27 | 2014-05-22 | Intouch Technologies, Inc. | Enhanced Diagnostics for a Telepresence Robot |
JP2013055541A (en) * | 2011-09-05 | 2013-03-21 | Ricoh Co Ltd | Imaging device |
US8836751B2 (en) | 2011-11-08 | 2014-09-16 | Intouch Technologies, Inc. | Tele-presence system with a user interface that displays different communication links |
US9251313B2 (en) | 2012-04-11 | 2016-02-02 | Intouch Technologies, Inc. | Systems and methods for visualizing and managing telepresence devices in healthcare networks |
US8902278B2 (en) | 2012-04-11 | 2014-12-02 | Intouch Technologies, Inc. | Systems and methods for visualizing and managing telepresence devices in healthcare networks |
WO2013176758A1 (en) | 2012-05-22 | 2013-11-28 | Intouch Technologies, Inc. | Clinical workflows utilizing autonomous and semi-autonomous telemedicine devices |
US9361021B2 (en) | 2012-05-22 | 2016-06-07 | Irobot Corporation | Graphical user interfaces including touchpad driving interfaces for telemedicine devices |
JP6136189B2 (en) * | 2012-10-22 | 2017-05-31 | 株式会社ニコン | Auxiliary imaging device and main imaging device |
JP6192940B2 (en) * | 2013-01-23 | 2017-09-06 | オリンパス株式会社 | Photography equipment and cooperative photography method |
JP6786253B2 (en) | 2016-04-15 | 2020-11-18 | キヤノン株式会社 | Imaging system, information processing device, control method of imaging system, control method of information processing device, and program |
US10483007B2 (en) | 2017-07-25 | 2019-11-19 | Intouch Technologies, Inc. | Modular telehealth cart with thermal imaging and touch screen user interface |
JP6412222B2 (en) * | 2017-08-09 | 2018-10-24 | オリンパス株式会社 | Shooting device, linked shooting method, and linked shooting program |
US11636944B2 (en) | 2017-08-25 | 2023-04-25 | Teladoc Health, Inc. | Connectivity infrastructure for a telehealth platform |
JP7013210B2 (en) * | 2017-11-10 | 2022-01-31 | キヤノン株式会社 | Imaging device, imaging method, display device and display method |
US10617299B2 (en) | 2018-04-27 | 2020-04-14 | Intouch Technologies, Inc. | Telehealth cart that supports a removable tablet with seamless audio/video switching |
CN110661979B (en) * | 2019-09-12 | 2023-02-24 | 北京字节跳动网络技术有限公司 | Image pickup method, image pickup device, terminal and storage medium |
JP6844055B1 (en) * | 2020-05-29 | 2021-03-17 | 丸善インテック株式会社 | Surveillance camera |
KR102501749B1 (en) * | 2020-08-11 | 2023-03-02 | 모피어스 주식회사 | Virtual Remote Filming System and Method |
-
1998
- 1998-07-08 JP JP19268298A patent/JP3792901B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000032319A (en) | 2000-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3792901B2 (en) | Camera control system and control method thereof | |
US6977676B1 (en) | Camera control system | |
JP6587113B2 (en) | Image processing apparatus and image processing method | |
US7450165B2 (en) | Multiple-view processing in wide-angle video camera | |
JP4332231B2 (en) | Imaging device controller and imaging system | |
JP4914171B2 (en) | Imaging device control method and camera system | |
KR20120108747A (en) | Monitoring camera for generating 3 dimensional scene and method thereof | |
JP3744147B2 (en) | Panorama image generating apparatus and method | |
JP2000341574A (en) | Camera device and camera control system | |
KR101630290B1 (en) | Photographing Method For Producing Image Of Traced Moving Path And Apparatus Using The Same | |
JP4583717B2 (en) | Imaging apparatus and method, image information providing system, program, and control apparatus | |
JP2008187393A (en) | Exposure control system, exposure control method, its program and recording medium, camera control system and camera | |
KR102009988B1 (en) | Method for compensating image camera system for compensating distortion of lens using super wide angle camera and Transport Video Interface Apparatus used in it | |
JP2002101408A (en) | Supervisory camera system | |
TW201410015A (en) | A multiple camera system and method therefore | |
JP2004153605A (en) | Image pickup device and system for transmitting pick-up image | |
JP4448001B2 (en) | Imaging device | |
JP2006025340A (en) | Wide angle imaging apparatus, imaging system, and control method thereof | |
JP2012099887A (en) | Imaging device | |
CN112073630A (en) | Image pickup apparatus, control method for image pickup apparatus, and recording medium | |
JP4332580B2 (en) | Control device, control method, and monitoring system | |
JP3066594U (en) | Image conversion device | |
JPH03217978A (en) | Picture display device | |
JP3812069B2 (en) | Imaging device controller and imaging device | |
JP2005005816A (en) | Wide angle camera and wide angle camera system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050803 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060406 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090414 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100414 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110414 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120414 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130414 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130414 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140414 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |