JP4035211B2 - Video control apparatus, control method, and storage medium - Google Patents

Video control apparatus, control method, and storage medium Download PDF

Info

Publication number
JP4035211B2
JP4035211B2 JP26727497A JP26727497A JP4035211B2 JP 4035211 B2 JP4035211 B2 JP 4035211B2 JP 26727497 A JP26727497 A JP 26727497A JP 26727497 A JP26727497 A JP 26727497A JP 4035211 B2 JP4035211 B2 JP 4035211B2
Authority
JP
Japan
Prior art keywords
information
camera
image
control
network device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26727497A
Other languages
Japanese (ja)
Other versions
JPH11112857A (en
Inventor
貴弘 黒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP26727497A priority Critical patent/JP4035211B2/en
Priority to US08/995,394 priority patent/US6654060B1/en
Publication of JPH11112857A publication Critical patent/JPH11112857A/en
Priority to US10/679,322 priority patent/US7355633B2/en
Application granted granted Critical
Publication of JP4035211B2 publication Critical patent/JP4035211B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は映像制御装置及び制御方法及び記憶媒体、詳しく遠隔のクライアントからの要求に従って、入力した映像をそのクライアントに向けて転送する映像制御装置及び制御方法及び記憶媒体に関するものである。
【0002】
【従来の技術】
既存のネットワークを介して遠隔にあるカメラサーバ(カメラを制御し、撮影映像をクライアントに転送する装置)に接続して、撮影された映像をクライアントから見ることができるシステムを、本願出願人は既にいくつか出願している。
【0003】
カメラサーバは、例えばパーソナルコンピュータやワークステーション等の汎用装置を用い、それにビデオキャプチャ機能を有するカード(もしくはボード)を装着し、そのカードにビデオカメラを接続した形態となる。また、クライアントがカメラサーバのカメラアングル(パン、チルト、ズーム等)を制御することを可能にするため、カメラ装置がズーム値を変更可能とするとともに、そのカメラ装置を所定の雲台に搭載させ、カメラサーバ本体からアングルを制御するための信号を所定のインタフェース(例えばパーソナルコンピュータが標準で有するシリアルインタフェース)を介してカメラ装置に出力する提案もしている。
【0004】
一方、クライアントであるが、これもパーソナルコンピュータやワークステーション等の汎用装置で構成されることになる。
【0005】
【発明が解決しようとする課題】
しかしながら、上記提案では、遠隔にあるカメラで撮影された映像を確認することはできても、表示されている個々のオブジェクトについて、そのオブジェクトの映像以上の情報を得るには至っていない。
【0006】
本発明はかかる問題点に鑑みなされたものであり、映像中のオブジェクトの詳細を確認することを可能にする映像制御装置及び制御方法及び記憶媒体を提供しようとするものである。
【0007】
【課題を解決するための手段】
この課題を解決するため、例えば本発明の映像制御装置は以下に示す構成を備える。すなわち、
遠隔のクライアントからネットワークを介して受信したカメラの制御要求に従って入力したカメラからの画像を前記ネットワークを介して要求元の前記クライアントに向けて転送する映像制御装置であって、
前記ネットワークに接続された複数のネットワーク機器それぞれの位置を示す位置情報を記憶する記憶手段と、
前記クライアントからの前記カメラのアングルの制御要求を受けた場合、要求されたアングルに従って前記カメラを制御するカメラ制御手段と、
前記カメラ制御手段で前記カメラのアングルを制御する場合、前記記憶手段に記憶された各ネットワーク機器の位置情報に基づき、いずれのネットワーク機器が前記カメラの視野内に含まれるかを判断する判断手段と、
前記判断手段により前記カメラの視野内にネットワーク機器が含まれると判断された場合、該当するネットワーク機器に関する第1の情報を取得する取得手段と、
前記クライアントからのアングルの制御要求に基づき、前記カメラの視野内における前記ネットワーク機器の位置を算定し、前記カメラ制御手段の制御によって得られた撮像した画像内の前記算定した位置の近傍に、前記取得した第1の情報を示す画像を重畳し、重畳した画像に前記クライアント側で所定の指示があった場合に指示要求情報が返送されてくるように、所定の情報を組み込んで前記画像を転送する第1の転送制御手段と、
前記クライアントから前記指示要求情報の返送があった場合、前記所定の情報に応答する指示要求情報に従い、前記第1の転送制御手段によって重畳対象となった前記ネットワーク機器に関する第2の情報を前記クライアントに向けて転送する第2の転送制御手段とを備える。
【0008】
【発明の実施の形態】
以下、本発明に係る実施形態の一例を詳細に説明する前に、その前提部分を説明する。その後で、実施形態を説明する。
【0009】
<概要の説明>
既存のネットワークを介して、遠隔にあるカメラサーバに接続されているカメラの映像を、クライアント側で見ることができ、しかも、クライアント側からそのアングル(パン、チルト、ズーム値等)を制御できる提案については、先に説明した如く、本願出願人が提案している。
【0010】
この提案の主たる特徴の1つは、世間一般に知られている監視カメラ等ではなく、汎用ネットワーク(インターネット)のプロトコルを用い、そのプロトコルの範囲内でカメラを制御するものである。
【0011】
図1は、カメラサーバ装置のブロック図であり、以下の各手段により構成される。1003はカメラアングルや撮影条件などを制御可能なカメラ、1001は外部装置1002からの指示によりカメラ1003を制御し撮影した映像を返答する制御装置であり、たとえばパーソナルコンピュータをベースに実現される。制御装置1001はカメラ1003をRS−232Cインターフェース等を介して制御信号を出力し、カメラアングルを制御するカメラ制御部1017、カメラ1003の撮影映像を画像キャプチャ装置などで入力する映像入力部1018、ネットワークアダプタ等で本装置と他の装置とが情報交換を行うための通信インターフェース部1011を有する。そして、これらの資源に加え、コンピュータのCPUや記憶装置や補助記憶装置などの各資源を利用したプログラムおよびメモリデータとして実現することで、以下の部を有する。
【0012】
すなわち、1012のコマンド解釈部、1013の受付コード生成部、1015の時限部、1019の画像記憶部、1014の予約登録部である(これらについて後述する説明から明らかになるであろう)。
【0013】
外部装置1002は、例えばWWWサーバやWWWブラウザである。外部装置1002がWWWサーバである場合には、本装置がWWWサーバの管理下に置かれることになり、WWWブラウザ(クライアント)からは、文書データやイメージデータの格納先であるWWWサーバに対して、対象とするデータの格納先が示されたURLLに従ってその情報を提示する。WWWサーバは、これに応えて、対応する文書データやイメージデータをWWWブラウザに返答する。
【0014】
また、外部装置1002がWWWブラウザである場合には、上記のWWWサーバの機能を本装置に取り込んだと解釈すれば良い。
【0015】
但し、説明を簡単にするため、外部装置1002はWWWサーバであり、それらの間をHTTPプロトコルで通信を行い、本構成例の制御装置1001は、映像データの応用では、あたかもWWWサーバとして機能する例を説明する。これは、WWWサーバの通信方法を本制御装置でも用いれば実現できる。
【0016】
一般にWWW文書中にイメージデータを貼り込む時には、以下のような記述が用いられることは周知である。
【0017】
<img src="http://www.foo.co.jp/image001.gif">
この意味は、www.foo.co.jpというWWWサーバにあるimage001.gifというファイルに格納されたイメージデータの転送を行なわせるものであるが、後段のファイル名の部分をコマンドとして解釈する。
【0018】
一例としては、カメラアングルを指定するパン、チルト、ズームは、それぞれ英字の「P」、「T」、「Z」で示し、その後に、それぞれの制御量を数字で表す。たとえば、パン角度は-50度から50度、チルト角度は、-20度から20度、ズームが1〜8の8段階を選べるカメラを有するサーバに対して、パン角度を20度、チルトを5度、2倍ズームで撮影し、gif形式の画像データとして貼り込みたい(転送してもらいたい)場合は、以下のように記述する。なお、本装置のネットワークアドレスは、cam.foo.co.jpであるとする。
【0019】
<img src="http://www.foo.co.jp/P20T5Z2.gif">
以上のような、HTML文書記述があった場合、WWWブラウザである外部装置1002は、制御装置1001に画像データの要求を行う。すなわち、通信インターフェース部1011を介して、制御装置1001に要求が入ると、コマンド解釈部1012が起動され、要求の解釈とそれに対する応答の処理が開始される。
【0020】
その処理例を図2のフローチャートに示す。まず、ステップS101で、ファイル名として記述されたコマンドを解釈する。すなわち要求の先頭が「P」であれば撮影コマンドと認識し、ステップS102に進む。ここでは、カメラ制御部1017を介し、指定されたパン、チルト、ズームの各値でカメラを操作し(ステップS102)、撮影された画像を指定された方法の画像フォーマットに変換し、通信インターフェース部1011を介して要求元の外部装置1002に返答する。
【0021】
このとき、通信インターフェース部1011では、HTTPプロトコルを用いるため、画像フォーマットに応じた内容種別情報やステータス情報等が先頭に付加される。そして、本処理を終了する。
【0022】
これにより、HTML文書に、あたかもWWWサーバのファイルに格納されたイメージデータのように撮影された映像が貼り込まれて表示されるようになる。
【0023】
ステップS101における条件判断で、要求の先頭が「R」であれば予約コマンドと認識され、ステップS104の条件判断を介し、ステップS105に進む。
【0024】
予約コマンドとは、撮影映像の取り込みを予約し、後でその撮影された映像をクライアントに転送するサービスである。この場合には、英字「R」で始まり、年、月、日、時、分をそれぞれ整数で表し、ピリオドで区切ったものが続く。そして、その後に撮影条件であるパン・チルト・ズームの指示が続き、最後には、画像フォーマットを表す名称を付ける。
【0025】
たとえば、1996年7月6日13時15分にパン角25度、チルト角0度で3倍ズームの映像をgifフォーマットで撮影予約したい場合には、以下のように記述する。
【0026】
<img src="http://www.foo.co.jp/R1996.7.6.13.15P25T0Z3.gif">
以上のような、予約コマンドが指定された場合、カメラサーバは、ステップS105において、受付コード生成部1013より、ユニークな識別番号を受付コードとして外部装置1002に転送する。これを受け取った外部装置1002は、後程、その受付コードをカメラサーバに転送することで、予約して撮影された映像を取り込むことが可能になる。受付コードは、たとえば、生成要求ごとに+1されるカウンターとして実現してもいいし、要求された年月日の時刻を表す数値によって実現してもよい。
【0027】
そして、この受付コードと予約時刻と撮影条件と画像フォーマットの情報を予約登録部1014に登録し(ステップS106)、受付コードを通信インターフェース部1011を介して要求元の外部装置1002に返答する(ステップS107)。
【0028】
なおこの時も、返答内容が受付コードであることを示した内容種別情報やステータス情報等が先頭に付加される。そして、本処理を終了する。
【0029】
単純にこのような撮影予約を含んだHTML文書を作成して、それを、一般のWWWブラウザで表示しようとした場合には、画像データの代わりに受付コードが帰ってくるだけなので、結局画像は表示されないが、WWWサーバのCGIプログラム等によって、制御装置1001に対して、撮影予約をWWWブラウザと同様の方法で行い、受付コードが得られたら、後述する画像取り出しコマンドでその受付コードを指定したイメージデータ記述を含んだHTML文書を生成すれば、この生成された文書をWWWブラウザで表示すると、予約したとおりに撮影が行われ、その画像データが表示されるようになる。
【0030】
なお、取り出しコマンドは、英字「G」で始まり、受付コードが続き、最後には、画像フォーマットを表す名称を付ける。ここの受付コードは、外部装置1002に予約を行ったときに返答されるものである。
【0031】
たとえば「12543」が受付コードとして返された時、撮影予約した画像を撮影後に取り出す時には、以下のような記述を用いる。
【0032】
<img src="http://www.foo.co.jp/G12543.gif">
予約登録部1014は、たとえば、図3のような、表の形式で制御装置1001の記憶装置や補助記憶装置中に実現することができる。たとえば、上記の予約例の場合で、受付コードが「12543」であったとき、第1欄のように記録される。
【0033】
予約登録が完了すると後述する時限部によって、予約した時刻に指示通りの撮影が行われ、画像記憶部1019に画像データが保持される。
【0034】
画像記憶部1019は、たとえば、図4のような、表の形式で、制御装置1001の記憶装置や補助記憶装置中に実現することができる。たとえば、上記の予約例の撮影結果は、受付コードと画像フォーマットの情報とともに、指定されたフォーマットに従った画像データとして、第1欄のように記録される。
【0035】
ステップS101における条件判断で、要求の先頭が「G」であれば画像取り出しコマンドであると認識し、ステップS104とステップS108の条件判断を介し、ステップS109に進み、画像記憶部1019に保存されるデータを検索する。
【0036】
そして、画像取り出しコマンドとして記述された受付コードと同じ値で格納されているかどうかを判断し(ステップS110)、登録されているならば、その画像データを取り出し、通信インターフェース部1011を介して要求元の外部装置1002に返答する。
【0037】
このときも、通信インターフェース部1011では、HTTPプロトコルを用いるため、画像フォーマットに応じた内容種別情報やステータス情報等が先頭に付加される(ステップS111)。そして、ステップS112で、いま取り出した画像データが格納されている画像記憶部1019の欄を消去する。そして、本処理を終了する。
【0038】
ステップS110で、指定された受付コードに対応する画像データが格納されていないと判断したら、対象画像が未撮影というエラー情報を通信インターフェース部1011を介して要求元の外部装置1002に返答し、本処理を終了する。
【0039】
また、ステップS108で、外部装置1002よりの要求の先頭が「G」でない場合は、未定義コマンドであるというエラー情報を通信インターフェース部1011を介して要求元の外部装置1002に返答し、本処理を終了する。
【0040】
以上のようにして、外部装置1002と本発明の制御装置1001との情報交換が行われる。
【0041】
次に、予約登録部1014に登録された予約データに基づき、カメラ制御と撮影と撮影結果の格納を行う時限部1015について説明する。
【0042】
時限部1015においては、定時間間隔、たとえば1分おきに、時限プログラムが起動される。これは、コンピュータのタイマーを利用したりすれば実現できる。時限プログラムの動作を、図5のフローチャートを用いて説明する。
【0043】
まず、現在時刻を制御装置1001のタイマーから読み出し(ステップS201)、ステップS202に進む。ステップS202では、予約登録部1014から順に一欄づつ登録された予約項目を取り出す。ステップS203で、すべて取り出し終ったと判断できたら本処理を終了し、予約項目が取り出せたなら、ステップS204に進む。対象の予約項目における設定時刻が、現在時刻より未来である時は、ステップS202に戻って処理を繰り返す。そうでない時は、設定時刻になったと判断し、ステップS205に進み、取り出した予約項目の撮影条件に従って、カメラ制御部1017を介しカメラ1003を制御し、撮影を行う。そして、撮影された画像を予約項目で指定された方法の画像フォーマットに変換し、この画像データを受付コードと画像フォーマット情報とともに画像記憶部1019に格納する(ステップS206)。 続いて、現在取り出した、予約項目を予約登録部1014から消去し(ステップS207)、ステップS202に戻って処理を繰り返す。
【0044】
これにより、予約通りの撮影が行われ、その結果が保管され、後に、画像取り出しコマンドが外部装置1002から要求されると、この画像データが返答されることになる。
【0045】
以上のように、カメラ制御装置をWWWシステムのネットワークに接続し、カメラ制御装置のアドレスにカメラの撮影条件の記述を加えたURLをイメージデータのソースとして記述するだけで、簡単に遠隔のカメラを操作したライブ画像(すなわち、今現在の映像)をWWW文書中に貼り込むことが可能になる。なお、これだけを実現するには、1013の受付コード部、時限部1015、画像記憶部1019、予約登録部1014のそれぞれは、不要であり、コマンド解釈部1012のステップS104以降のステップは不要である。
【0046】
また、時限部1015、画像記憶部1019、予約登録部1014を設けたことにより、WWWサーバのCGIプログラムなどを利用すれば、カメラ撮影の予約を行い、その結果を後刻WWWページに取り込んで表示を行うことが可能になる。特に、ネットワークが混雑するような時間帯に遠隔のカメラで撮影しようとしても、画像の転送に時間がかかり、思うように画像データを収集できないが、本構成例によれば、その時間帯でそれぞれ特定のカメラアングルで必要な時刻分だけあらかじめ予約を行っておき、夜間等、ネットワークがすいた時に、蓄積された画像データを取り出して利用することができるようになる。
【0047】
特に、同一カメラアングルで、短い間隔で複数枚の画像を撮影することが、ネットワークの伝送容量の大きさに関わらず可能となる。
【0048】
もちろん、ここでは、外部装置1002とのインターフェースをHTTPプロトコルとして説明したが、どういう通信インターフェースを用いても構わない。
【0049】
なお、本構成例では、予約に対する撮影データを同定するために受付コードを用いたが、受付コード発生部を用いずに、画像要求する外部装置1002側で、ユニークな要求番号を生成し、予約コマンドの一部として要求を行い、制御装置では、外部装置1002と要求番号との組みにより、対象となる画像データを同定する方法を用いてもよい。
【0050】
また、予約時刻は分単位としたが、秒単位やミリ秒単位まで拡張しても構わない。
【0051】
また、画像フォーマットは、gifを例に挙げたが、JPEGをjpgというファイルエクステンションで表現し、どちらかを切り替えられるようにしてもよいし、それ以外のファイル形式を採用しても構わない。
【0052】
また、ファイル名をコマンドとみなしたが、URLのパラメータ記述を利用してもよい。たとえば、パン、チルト、ズーム、画像フォーマットをそれぞれ、25度、5度、2倍、gifとしたとき、以下のように記述するようにしてもよい。
【0053】
<img src="http://cam.foo.co.jp/cameraimage?P=20,T=5,Z=2,F=gif">
また、本制御装置にWWWサーバを同時に実装してもよい。その場合には、たとえば、WWWサーバのCGIプログラムとしてコマンド解釈部1012のプログラムにcamctl.exeなる名称をつけ、以下のような記述を行うことで、実現できる。
【0054】
<img src="http://cam.foo.co.jp/cgi-bin/camctl.exe?P=20,T=5,Z=2,F=gif">
<第2例>
上記構成例(第1例)では、一度に一画像しかカメラ撮影予約ができなかった。本構成例(第2例)においては、予約コマンドを「+」で複数個結合してできたファイル名に画像フォーマットを表すファイルエクステンションを付加して、一度に複数の時刻やカメラアングルの予約を可能にする。
【0055】
たとえば、1996年7月6日13時15分と30分と45分にパン角25度チルト角0度で3倍ズームで撮影し、3枚の画像をgifフォーマットで後に取り出す場合には、以下のように記述する。
【0056】
<img src="http://www.foo.co.jp/R1996.7.6.13.15P25T0Z3+R1996.7.6.13.30P25T0Z3+R1996.7.6.13.45P25T0Z3.gif">
ここで、「"」と「"」とで囲まれている文字列が2行以上にまたがって表示されているかもしれないが、実際の記述は、改行を含まない、一行で記述する。
【0057】
なお、日時や時間が同じであったり、カメラアングルが同じである場合は、それらを省略可能してももよい。その場合は、上記と同じ予約を以下のように記述できる。
【0058】
<img src="http://www.foo.co.jp/R1996.7.6.13.15P25T0Z3+R....30+R....45.gif">
本第2例は、第1例と以下の変更点を除き同一である。
【0059】
すなわちコマンド解釈部1012が、そのプログラムのステップS106とテップS111とステップS112とを、上記のような記述を解釈できるようにすることである。
【0060】
すなわち、ステップS106では、要求されたコマンドはひとつと限定せず、「+」で結合された複数の予約コマンドとして解析し、ステップS105で生成された予約コードと画像フォーマット情報は同一にして、それぞれの予約コマンドで指定された予約時刻と撮影条件を、複数の予約として予約登録部1014に登録する。
【0061】
一方、ステップS111では、同じ予約コードで登録されている複数の画像データを取り出し、あらためて、複数枚の画像データが含まれるひとつの画像データとしてフォーマットし直し、通信インターフェース部1011を介して要求元の外部装置1002に返答する。このときも、通信インターフェース部1011では、HTTPプロトコルを用いるため、画像フォーマットに応じた内容種別情報やステータス情報等が先頭に付加される。
【0062】
ステップS112では、取り出した複数の画像データに関して、それぞれに対応する画像記憶部1019の欄を消去する。
【0063】
以上のように構成することにより、一度に多くの予約ができ、それらを複数枚の画像からなるひとつの画像データとしてまとめて取り扱うことが可能になり、それぞれの画像データごとに対応する複数の受付コードを管理する手間が省ける。
【0064】
また、植物の成長記録等、間欠写真撮影などに適用すると、複数枚の撮影画像がひとつの画像データに納まる疑似動画として取り扱うことも可能になる。
【0065】
<第3例>
上記第2例では、同一のカメラアングルで同一時間間隔で間欠撮影する場合にも、撮影する数だけ予約コマンドを連結して指定しなければならない。本3例においては、予約コマンドの時刻指定の直後に、終了時刻と間欠時間を付加し、その後にカメラアングル等の撮影条件や画像フォーマットを指定するようにする。終了時刻は、「t」に続き時刻を指定し、間欠時間は「e」に続き分単位の時間を指定する。
【0066】
たとえば、1996年7月6日13時15分と30分と45分(つまり、15分間隔)にパン角25度チルト角0度で3倍ズームで撮影し、3枚の画像をgifフォーマットで後に取り出す場合には、以下のように記述する。
【0067】
<img src="http://www.foo.co.jp/R1996.7.6.13.15t1996.7.6.13.45e15P25T0Z3.gif">
ここで、「"」と「"」とで囲まれている文字列が2行以上にまたがって表示されているかもしれないが、実際の記述は、改行を含まない、一行で記述する。
【0068】
もちろん、この場合も終了時刻の日時や時間が同じであった場合は、省略可能としてもよい。その場合は、上記と同じ予約を以下のように記述できる。
【0069】
<img src="http://www.foo.co.jp/R1996.7.6.13.15t....45e15P25T0Z3.gif">
本第3例の基本構成は、第1例と以下の変更点を除き同じである。
【0070】
すなわちコマンド解釈部1012が、そのプログラムのステップS106とステップS111とステップS112とをそれぞれ、上記の記述を解釈できるようにする点である。
【0071】
ただし、このときの、予約登録部1014は、その管理テーブルの構成が図6のようにする必要はある。つまり、図示の如く、間欠時間の項目を必要とすることになる。
【0072】
そして、ステップS106では、要求された予約コマンドが、終了時刻と間欠時刻を持つ形であったら、予約時刻を撮影時刻として、受付コード、撮影条件、画像フォーマットとともに、予約登録部1014に登録する。要求された予約コマンドが単純な予約であり、終了時刻と間欠時刻を持たなかったら、終了時刻は撮影時刻と同じにし、間欠時刻は1に設定する。
【0073】
また、ステップS111では、同じ予約コードで登録されている複数の画像データを取り出し、あらためて、複数枚の画像データが含まれるひとつの画像データとしてフォーマットし直し、通信インターフェース部1011を介して要求元の外部装置1002に返答する。
このときも、通信インターフェース部1011では、HTTPプロトコルを用いるため、画像フォーマットに応じた内容種別情報やステータス情報等が先頭に付加される。また、ステップS112では、取り出した複数の画像データに関して、それぞれに対応する画像記憶部1019の欄を消去する。
【0074】
一方、時限部3015においては、ステップS3207では、取り出した予約項目の間欠時間を撮影時刻に加えたもので、登録された予約情報を更新し、撮影時刻が終了時刻より未来になったらこの項目を、予約登録部2014から消去する。
【0075】
以上のように構成することで、間欠写真が短いコマンドで、簡単に取れるようになる。
【0076】
特に、長期間に渡って間欠写真を取る場合、第2例のような方法だと、コマンドが非常に長くなり、実質的には実現できなくなる場合が多いが、本構成例によれば、画像データを蓄積する記憶装置の記憶量さえ充分に用意すれば実現できるようになる。
【0077】
<第4例>
第3例では、間欠撮影した結果を複数枚の静止画データとして取り出す形態を取ったが、本構成例では、動画データとして取り出す形態も付加する。
【0078】
動画データとして取り出す時には、ファイルエクステンションを「mpg」にする。たとえば以下のように記述する。
【0079】
<img src="http://www.foo.co.jp/R1996.7.6.13.15t....45P25T0Z3.mpg">
本構成例の基本構成は図7に示す通りである。これは、第3例と以下の変更点を除き同じである。すなわちMPEG1圧縮装置等の動画像圧縮部2021が追加される点と、コマンド解釈部3012が上記コマンドを解釈実行できるようにした点である。
【0080】
たとえば、ステップS111のところでは、画像フォーマット指定がjpgやgif等の静止画フォーマットであれば、同じ予約コードで登録されている複数の画像データを取り出し、あらためて、複数枚の画像データが含まれるひとつの画像データとしてフォーマットし直し、通信インターフェース部1011を介して要求元の外部装置1002に返答する。また、画像フォーマットがmpgと指定されていたら、同じ予約コードで登録されている複数の画像データを取り出しそれぞれの画像を復元し、動画像圧縮部2021に引渡して圧縮をかけ、その結果の動画像データを通信インターフェース部1011を介して要求元の外部装置1002に返答する。
【0081】
このときも、通信インターフェース部1011では、HTTPプロトコルを用いるため、画像フォーマットに応じた内容種別情報やステータス情報等が先頭に付加される。
以上のように構成することにより、画像フレーム間の関連を用いた圧縮が行われ、特に、余り変化のない間欠写真などでは、大幅な画像データ圧縮が行われるため、後に画像データを取り出す時の通信量を削減でき、通信時間を大幅に短縮することが可能になる。
【0082】
<第5例>
第3例では、撮影するカメラアングルは同一のものであったが、本第5例においては、予約コマンドの時刻指定の直前に、制御変数の定義を付加し、その後に時刻指定、その後にカメラアングル等の撮影条件や画像フォーマットを指定した繰り返し撮影が出来るようにする。時刻指定と撮影条件に制御変数の参照を指定できるようにしようとするのである。
【0083】
制御変数の定義は
「$(」ではじまり、定義本体があって、「)」で終る。
【0084】
定義本体には2つの書き方がある。1つは初期値と終値、増分を指定する方法で、増分が正か負かに依って更に2つの書き方に分かれる。また別の書式は制御変数のとる値を全て書き下す書き方である。
【0085】
すなわち
$(<制御変数>=初期値,upto終値,up増分)
$(<制御変数>=初期値,downto終値,down増分)
または
$(<制御変数>=値1,値2,値3,値4,...値n)
である。
【0086】
ここで<制御変数>は英文字1文字以上からなる文字列で、制御変数の識別子である。
【0087】
制御変数の参照は
「$(」ではじまり、参照本体があって、「)」で終る。参照本体は制御変数を含む4則演算式である。
【0088】
たとえば、1996年7月6日13時15分になったら
パン角25度チルト角0度で3倍ズーム、
パン角30度チルト角0度で3倍ズーム、
パン角35度チルト角0度で3倍ズーム、
で撮影(実際にはアングルを変更するわけであるから、これらの間でタイムラグは発生する)し、3枚の画像をgifフォーマットで後に取り出す場合には、以下のように記述する。
【0089】
"http://www.foo.co.jp/R$(pan=25,upto35,up5)1996.7.6.13.15P$(pan)T0Z3.gif"
又は
"http://www.foo.co.jp/R$(pan=0,upto10,up5)1996.7.6.13.15P$(pan+25)T0Z3.gif"
又は
"http://www.foo.co.jp/R$(pan=35,downto25,down5)1996.7.6.13.15P$(pan)T0Z3.gif"
又は
"http://www.foo.co.jp/R$(pan=25,30,35)1996.7.6.13.15P$(pan)T0Z3.gif"
ここで、「"」と「"」とで囲まれている文字列が2行以上にまたがって表示されているかもしれないが、実際の記述は、改行を含まない、一行で記述する。
【0090】
本構成例は、第2例と比較し、コマンド解釈部2012内で上記の記述を解釈できるようにする点で異なるものの、その他は同じである。
【0091】
例えば、ステップS106の内部を示すと図8のようになる。
【0092】
「R」の次の文字が$である場合これは制御変数の定義であるので、第5例の予約コマンドとなる。ステップS501で「$(」で始まり「)」で終る1つの制御変数定義を取得し、ステップS502で全ての定義を取り出したかを検査する。制御変数定義を全て取り出した後ステップS503で制御変数に初期値を束縛する。
【0093】
ステップS504でコマンドの残りの部分をスキャンし「$(」で始まり「)」で終る制御変数参照を検索し全ての参照を束縛されている値で置き換える。ステップS506でこの結果の文字列を先に述べた繰り返し撮影の予約コマンドとして解析し、ステップS105で生成された予約コードと画像フォーマット情報は同一にしてそれぞれの予約コマンドで指定された予約時刻と撮影条件を、複数の予約として予約登録部1014に登録する。これを制御変数が全て終値になるまで繰り返す。
【0094】
以上のように構成することで、カメラアングルを変化させた間欠写真が短いコマンドで、簡単に取れるようになる。
【0095】
また、説明では制御変数の定義を1つだけ使ったが、この定義は複数書くことが出来、その場合定義は入れ子になる解釈をするものとする。
【0096】
なお、本構成例では、繰り返し構文の導入について説明したが、同様にして、条件判断構文や変数定義、変数代入や四則演算などの構文を導入することもできる。
【0097】
すなわち、コマンド解釈部をプログラムインタプリタとして実現し、URLの内容をプログラムとしてみなして保持し、解釈実行させるようにできる。このようにすると、複雑なカメラ制御等も自動的に実行できるようになる。
【0098】
<第6例>
第5例では、撮影するカメラアングルの指定は全て同じURLに記述しなくてはならない。本第6例においては、予約コマンドの一部をマクロライブラリとして別に登録しておくことが出来るようにする。時刻指定と撮影条件を記述したデータを外部装置に格納しておく例で説明する。
【0099】
説明のためたとえば、1996年7月6日13時から以下のカメラアングルに1分毎に順に変化させ撮影を行うことを想定する。
【0100】
パン角25度チルト角0度で3倍ズーム、
パン角30度チルト角0度で3倍ズーム、
パン角35度チルト角0度で3倍ズーム、
パン角35度チルト角1度で4倍ズーム、
パン角30度チルト角2度で4倍ズーム、
パン角35度チルト角3度で5倍ズーム、
パン角35度チルト角4度で5倍ズーム、
パン角35度チルト角5度で6倍ズーム、
パン角35度チルト角5度で7倍ズーム、
パン角35度チルト角5度で8倍ズーム
これを指示するコマンドを、第2の外部装置
http://www.bar.co.jp/camcon-a.ctl
に格納しておく。
【0101】
これは、たとえば、以下のようになる。
【0102】
R1996.7.6.13.0P25T0Z3+R1996.7.6.13.1P30T0Z3+R1996.7.6.13.2P35T0Z3+R1996.7.6.13.3P35T1Z4+R1996.7.6.13.4P35T2Z4+R1996.7.6.13.5P35T3Z5+R1996.7.6.13.6P35T4Z5+R1996.7.6.13.3P35T5Z6+R1996.7.6.13.4P35T5Z7+R1996.7.6.13.3P35T5Z8.gif
これを利用するため制御装置に与えるコマンドは「%23(」で始まり、URLが引続き、「)」で終る外部参照コマンドである。例を示すと次の通りである。
【0103】
"http://www.foo.co.jp/%23(httpd%3e//www.bar.co.jp/camcon-a.ctl)"
この場合、www.bar.co.jpが上記の第2の外部装置に相当することになる。つまり、カメラサーバwww.foo.co.jpに対して、www.bar.co.jp/camcon-a.ctlに記述された内容に従って制御を依頼するという意味にである。camcon-a.ctlには上記の“R1996…”の記述が格納されていることになる。
【0104】
本第6例を図9に示す。第5例と比較すると、コマンド解釈部6012が、上記のコマンドを解釈できるようになっている点が異なり、その他は実質的に同じである。
【0105】
コマンド解釈部6012の動作を図10にしたがって説明する。
【0106】
ステップS621で、ファイル名として記述されたコマンドを解釈する。要求の先頭が「%23」であれば外部参照コマンドと認識し、ステップS622に進む。ステップS622では、そして、「(」と「)」にはさまれた部分を、コマンドが記述されて格納されたファイルの指定のURLとみなし、URLにしたがって要求を送る。以上の例では、第2の外部装置1004に要求を出すことになる。そして、ステップS623で、返答を待つ。
【0107】
返答は、たとえば、上記のような、長い予約コマンドが返されることになる。
ここで解釈した外部参照コマンドをこれに置き換えるようにして展開し、以降のコマンド解釈に適用できるようにする(ステップS624)。そして、ステップS101に進む。
【0108】
また、ステップS621で、外部参照コマンドではなかった場合もステップS101に進む。
【0109】
ステップS101以降の処理は、第1例の説明を行った時に用いた図2と同じであるので、説明は割愛する。なお、それぞれ、第2例から第5例への拡張も同様に適用できる。
【0110】
以上のように構成することで、複雑な時間予約やカメラアングルを複雑に変化させた間欠写真が短いコマンドで、簡単に取れるようになる。
【0111】
ここでは説明のために、制御装置と外部装置を異なる装置のように説明したが、この2つの装置が同じであってもよい。その場合、URLは以下のように記述できよう。
【0112】
"http://www.foo.co.jp/%23(httpd%3e//www.foo.co.jp/camcon-a.ctl)"
又は
"http://www.foo.co.jp/%23(camcon-a.ctl)"
もちろん、最初に要求をかける外部装置にコマンドが格納されているならば、そのアドレスを用いればよい。その時は、第2の外部装置は不要である。
【0113】
<実施形態の説明>
以上説明したように、第1〜第6例は、その記述法には様々なものが使用でき、生の映像や予約して撮影済みの映像をWWWブラウザで見ることができるものの、それ以上の情報、すなわち、表示された映像中の所望とするオブジェクトのより詳しい情報(付加情報)を得ることはできない。そこで、本実施形態ではこれを可能にする。
【0114】
説明を簡単にするため、本実施形態では、社内に設置されたネットワーク上に上記のようなカメラサーバとなる装置と、クライアントが設けられている場合を説明する。なお、カメラサーバとクライアントはそれぞれ複数あっても良いのは勿論である。
【0115】
一般に、ネットワークを構築する場合、そこには様々なサーバを設置することが可能である。特に、近年では、それまでスタンドアロンとして使用してきた装置、例えば、複写機やファクシミリ装置等もネットワーク上に接続することで、統合化システムを構築する試みがなされている。
【0116】
ネットワークを構築して、例えば遠隔にあるプリントサーバでもって印刷させようとすると、クライアントから見れば、印刷データの出力はごく短時間で完了する。これはプリントサーバが、印刷データをスプールしてしまうからである。プリントサーバは、いくつものクライアントから印刷データを受信することも可能であるので、スプールした順番に印刷データをプリンタに出力することになる。
【0117】
ここで問題になるのは、プリントサーバがクライアントのごく近い場所にない場合である。いくつものクライアントが同時に印刷処理を行なうと、印刷データはキューされることになり、印刷結果を取りに行った結果、未だ別の印刷を行なっている、という事態が往々にして良くあるものである。
【0118】
本実施形態では、遠隔にあるカメラを制御して、その視野内に目的とするプリンタを見た場合に、そのプリンタの状況を付加情報としてカメラ映像に付加させ、それをクライアントに向けて転送することをも可能にする。
【0119】
図11は実施形態のサーバのブロック図であり、以下の各部により構成される。
【0120】
1003はカメラアングルや撮影条件などを制御可能なカメラ、1001は外部装置1002からの指示によりカメラ1003を制御し撮影した映像を返答する制御装置であり、たとえばパーソナルコンピュータをベースに実現される。
【0121】
制御装置1001はさらに、カメラ1003をRS−232Cインターフェース等で制御するカメラ制御部1017、カメラ1003の撮影映像を画像キャプチャ装置などで入力する映像入力部1018、ネットワークアダプタ等で本装置と他の装置とが情報交換を行うための通信インターフェース部1011を有し、これらの資源に加え、コンピュータのCPUや記憶装置や補助記憶装置などの各資源を利用したプログラムおよびメモリデータとして実現される以下の部を有する。
【0122】
すなわち、1012のコマンド解釈部、1013の受付コード生成部、1015の時限部、1019の画像記憶部、1014の予約登録部,映像入力部1018から得られた映像を必要に応じて加工する映像加工部7020である。また、更に、本実施形態ではクライアントの表示画面をユーザがマウス等のポインティングデバイスでクリックされる(指示される)対象となるアンカーを生成するためのアンカー生成手段7031、クリックされたアンカー情報を解釈するアンカー解釈手段7032とを備える。
【0123】
外部装置1002は、たとえば、WWWサーバやWWWブラウザであり、これらの間は、HTTPプロトコルで通信を行う。すなわち、WWWブラウザからは、文書データやイメージデータの格納先であるWWWサーバに対して、対象とするデータの格納先が示されたURLに従ってその情報を提示する。WWWサーバは、これに応えて、対応する文書データやイメージデータをWWWブラウザに返答する。
【0124】
複写機システム1007は、ネットワークインターフェースを備えた複写機であり、通信を介した状態情報要求に応じて、その時の複写機の状態情報を返答する。例えば、この複写機の識別子(名前)が,"copier_445"であり、状態情報要求を受けた際にプリント中であるならば,そのプリント進行状況やプリント設定などを含めて、以下のように返答する。
【0125】
("copier_445" クライアント:Kurosawa 印刷中 "80%" "1部,23ページ,両面"
"http://www.foo.co,jp/netdevices/copier_445/snmp.html")
ここで、“クライアント:Kurosawa”は、現在印刷しているジョブの発信元であるネットワーク上のクライアント名(もしくはID)である。ただし、印刷依頼元のkurosawaや、“1部”、“両面”等はその印刷ジョブに依存するものであり、“80%”や“23ページ”などは時間ととも変化するものである。また、返答する情報の項目もこれに限らず、如何なる情報であっても良い。例えば、記録紙がなくなって記録できない状態にある場合には、その旨をメッセージを返答する。
【0126】
なお、この複写機システム1007は、通常のプリンタやイメージスキャナとしても機能するものである。また、上記の状態を返すためには、1つの印刷ジョブの全体のページ数がわからないと不可能であるので、複写機システム1007内には、プリントジョブをキューできる程度の大容量のハードディスク等の外部記憶装置を備えている。また、複写機システム1007は、単独の複写機で構成する場合には、上記の外部記憶装置が必要であるが、例えばパーソナルコンピュータ等の汎用装置と印刷、複写、イメージ読み取りの機能のみの装置で構成される場合には、その汎用装置が個々のジョブを管理することになる。従って、このジョブを管理する機能は、外部記憶装置とその処理を行なうためのプログラムがあれば可能であるので、本装置1001内に設けても構わない。
【0127】
さて、本構成例では、通信インターフェース1011は、WWWサーバで実現されている方式を用いる。すなわち、HTTPプロトコルで通信を行い、本構成例の制御装置1001は、映像データの応用では、あたかもWWWサーバのようにふるまう。これは、WWWサーバの通信方法を本制御装置でも用いれば実現できる。
【0128】
<手順の説明>
外部装置1002は、先に説明した第1〜第6例に従い、以下のような記述を発行する事により、映像情報を要求する。
【0129】
$(pan=0,upto180,up10)P$(pan)T0Z2
ここで、映像を要求するカメラ1001(仮に"camera_122"とする)に対応する制御装置1001のアドレスを「www.camera122.foo.co.jp」とし、また、映像を要求する時間帯を"1996年11月11日の午後1時0分から1分間隔で午後1時18分"とすると、上記の要求は以下のように記述される。実際には,これが一行で記述される。
【0130】
http://www.camera122.foo.co.jp/R$(pan=0,upto180,up10)1996.11.11.13.0t1996.11.11.13.18e1$(pan)T0Z2.mpg
一方、カメラ制御装置1001は以下のように動作する。
【0131】
与えられた制御情報については、先に説明した第1〜第6例と同様に、それに則ってカメラを動作させ、映像情報を撮影する。ただし、視野内に複写機などの機器が入ると判定された場合(予め複写機の存在するアングル情報の管理表を所定の記憶装置に記憶させておく)、その機器の状態を取り出すべく、その機器に対して、現在の状況を問い合わせ、その情報の説明をアンカーとしてカメラで撮影された映像に合成する。
【0132】
視野内に入るか否かの判定のための管理は例えば、図17に示すような管理テーブルをあらかじめ所定の記憶装置(例えばハードディスク装置等)に格納しておき、これを用いる。このテーブルにおいて、第1のカラムは複写機やプリンタなどの管理対象(ネットワーク上のアドレス、もしくはID)を示す。第2のカラムは、その機器が配置されている位置を示す。この例では、機器が配置される屋内でのフロア指定とそのフロア内での3次元座標(単位センチメートル)によって指定している。そして、第3のカラムでは、その機器の大きさを示している(単位センチメートル)。例えば,先頭行は、「printer_231」という識別子の機器が、建物の4階の北側フロアのフロアの中心を原点座標として、南北方向に300センチメートル,東西方向に450センチメートル、そして、床から100センチメートルの所に配置され、その大きさは,縦30センチメートル、横80センチメートル、奥行75センチメートルである事を意味する。
【0133】
具体的には、下記のようにコマンド解釈部を拡張し、それに合わせて、映像加手段7020、アンカー生成手段7031、アンカー解釈手段7032を追加して追加している。これを図12のフローチャートを用いて説明する。
【0134】
まず、ステップS701で、以下のように制御内容の解釈を行ない、撮影視野を予測する。
【0135】
まず、制御情報の制御構文にしたがい、実行すべき制御項目を取り出す。次に、得られた制御項目を解釈し、カメラ1003に制御内容を与えた場合の視野を予測し、その視野内に、管理表11内に登録された複写機などの機器が入るか否か判定する。
【0136】
判定の結果、視野内に入るようならば、対象機器と通信し、状態情報7021を得る。状態情報7021は、例えば、以下の通りである。
【0137】
("copier_445" クライアント:Kurosawa 印刷中 "80%" "1部,23ページ,両面")
つづいて、ステップS101で、ファイル名として記述されたコマンドを解釈する。すなわち要求の先頭が「P」であれば撮影コマンドと認識し、ステップS102に進む。ここでは、カメラ制御部1017を介し、指定されたパン、チルト、ズームの各値でカメラを操作し(S102)、撮影された画像を指定された方法の画像フォーマットに変換する。
【0138】
その後、ステップS702で、映像合成を行なう。すなわち、映像を撮影した際の制御情報から対象機器の映像内の位置を計算し、映像内の対象機器の近傍に、先の通信によって得られた状態情報7021に基づく画像を生成し、それを撮影映像と画像合成する。合成結果は、例えば、図14の通りである。
【0139】
続いて、ステップSステップS802に進み、アンカーを生成する。ここでは、wwwで一般的に利用されているクリッカブルマップ手法のimagemapと同様の組み合わせを利用できる。すなわち、対象映像をクリックした場合の解釈手段としてアンカー解釈手段7032を以下のように設定した上で、
<a href="http://www.xxx.co.jp/cgi-bin/imagemap/camera122.map">
<embed SRC=camera122.wvp. width=290 height=179></embed>
</a>
そのクリッカブルマップの管理情報ファイルに、上記の映像合成したエリアを追加し、そのリンク先として対象機器との通信によって得られる「複写機管理ページ」を設定する。
【0140】
具体的には、通信によって得られた状態情報7021を使って、この「複写機管理ページ」のリンク情報を
http://www.foo.co.jp/netdevices/copier_445/snmp.html
とし、且つ状態情報を映像合成したエリア(映像内での相対位置)を、左上と右下の頂点がそれぞれ<15,8>と<135,39>からなる矩形とすると、クリッカブルマップの管理情報に以下のような情報を記入すればよい。
【0141】
rect http://www.foo.co.jp/netdevices/copier_445/snmp.html 15,8 135,39
その後、合成結果を通信インタフェース手段1011を介して要求元の外部装置1002に返答する(ステップS103)。
【0142】
このとき、通信インタフェース手段1011では、HTTPプロトコルを用いるため、画像フォーマットに応じた内容種別情報やステータス情報等が先頭に付加される。そして、本処理を終了する。
【0143】
以上のようにすることで、クライアント側で表示するHTML文書に、あたかもWWWサーバのファイルに格納されたイメージデータであるかのように、撮影された映像が張り込まれた状態で表示され、且つ、ユーザが合成部分をマウス等でクリックした場合には、この「複写機管理ページ」に表示を切り替えるようになる。
【0144】
例えば、上記のwww.foo.co.jp/netdevices/copier_445/snmp.htmlというファイルは、図19に示すようなハイパーテキストファイル(図示では、ブラウザで見える形式で示している)にしておけば、クライアントのユーザが複写機近傍をクリックすることで同図の内容が表示されるようになる。
【0145】
ステップS101における条件判断で、要求の先頭が「R」であれば予約コマンドと認識され、ステップS104の条件判断を介し、ステップS105に進む。予約コマンドは、先に説明した通りであって、英字「R」で始まり、年、月、日、時、分をそれぞれ整数で表し、ピリオドで区切ったものが続く、そして、その後に撮影条件であるパン・チルト・ズームの指示が続き、最後には、画像フォーマットを表す名称を付ける。たとえば、1996年7月6日13時15分にパン角25度、チルト角0度で3倍ズームの映像をgifフォーマットで撮影予約したい場合には、以下のように記述する。
【0146】
<img src="http://www.foo.co.jp/R1996.7.6.13.15P25T0Z3.gif">
以上のような、予約コマンドが指定された場合、ステップS105では、受付コード生成部1013より、ユニークな識別番号を受付コードとして受け取る。
これは、たとえば、生成要求ごとに+1されるカウンターとして実現してもいいし、要求された年月日の時刻を表す数値によって実現してもよい。
そして、この受付コードと予約時刻と撮影条件と画像フォーマットの情報を予約登録部1014に登録し(ステップS106)、受付コードを通信インターフェース部1011を介して要求元の外部装置1002に返答する(ステップS107)。
【0147】
なお、この時も、返答内容が受付コードであることを示した内容種別情報やステータス情報等が先頭に付加される。そして、本処理を終了する。
【0148】
単純にこのような撮影予約を含んだHTML文書を作成して、それを、一般のWWWブラウザで表示しようとした場合には、画像データの代わりに受付コードが帰ってくるだけなので、結局画像は表示されないが、WWWサーバのCGIプログラム等によって、制御装置1001に対して、撮影予約をWWWブラウザと同様の方法で行い、受付コードが得られたら、後述する画像取り出しコマンドでその受付コードを指定したイメージデータ記述を含んだHTML文書を生成すれば、この生成された文書をWWWブラウザで表示すると、予約したとおりに撮影が行われ、その画像データが表示されるようになる。
【0149】
なお、取り出しコマンドは、先に説明したように、やはり、英字「G」で始まり、受付コードが続き、最後には、画像フォーマットを表す名称を付ける。ここの受付コードは、外部装置1002に予約を行ったときに返答されるものである。
【0150】
たとえば「12543」が受付コードとして返された時、撮影予約した画像を撮影後に取り出す時には、以下のような記述を用いる。
【0151】
<img src="http://www.foo.co.jp/G12543.gif">
予約登録部1014は、たとえば、図3のような、表の形式で制御装置1001の記憶装置や補助記憶装置中に実現することができる。
【0152】
たとえば、上記の予約例の場合で、受付コードが「12543」であったとき、図4の第1欄のように記録される。
【0153】
予約登録が完了すると後述する時限部によって、予約した時刻に指示通りの撮影が行われ、画像記憶部1019に画像データが保持される。
【0154】
画像記憶部1019は、たとえば、図4のような、表の形式で制御装置1001の記憶装置や補助記憶装置中に実現することができる。たとえば、上記の予約例の撮影結果は、受付コードと画像フォーマットの情報とともに、指定されたフォーマットに従った画像データとして、図4の第1欄のように記録される。
【0155】
ステップS101における条件判断で、要求の先頭が「G」であれば画像取り出しコマンドであると認識し、ステップS104とステップS108の条件判断を介し、ステップS109に進み、画像記憶部1019に保存されるデータを検索する。
【0156】
そして、画像取り出しコマンドとして記述された受付コードと同じ値で格納されているかどうかを判断し(ステップS110)、登録されているならば、その画像データを取り出し、通信インターフェース部1011を介して要求元の外部装置1002に返答する。このときも、通信インターフェース部1011では、HTTPプロトコルを用いるため、画像フォーマットに応じた内容種別情報やステータス情報等が先頭に付加される(ステップS111)。
【0157】
そして、ステップS112で、いま取り出した画像データが格納されている
画像記憶部1019の欄を消去する。そして、本処理を終了する。
【0158】
ステップS110で、指定された受付コードに対応する画像データが格納されていないと判断したら、対象画像が未撮影というエラー情報を通信インターフェース部1011を介して要求元の外部装置1002に返答し、本処理を終了する。
【0159】
また、ステップS108で、外部装置1002よりの要求の先頭が「G」でない場合は、未定義コマンドであるというエラー情報を通信インターフェース部1011を介して要求元の外部装置1002に返答し、本処理を終了する。
【0160】
以上のようにして、外部装置1002と本発明の制御装置1001との情報交換が行われる。
【0161】
つぎに、予約登録部1014に登録された予約データに基づき、カメラ制御と撮影と撮影結果の格納を行う時限部1015について説明する。
【0162】
時限部1015においては、定時間間隔、たとえば1分おきに、時限プログラムが起動される。これは、コンピュータのタイマーを利用したりすれば実現できる。
【0163】
時限プログラムの動作を、図13のフローチャートを用いて説明する。
【0164】
まず、現在時刻を制御装置1001のタイマーから読み出し(ステップS201)、ステップS202に進む。ステップS202では、予約登録部1014から順に一欄づつ登録された予約項目を取り出す。ステップS203で、すべて取り出し終ったと判断できたら本処理を終了し、予約項目が取り出せたなら、ステップS204に進む。対象の予約項目における設定時刻が、現在時刻より未来である時は、ステップS202に戻って処理を繰り返す。そうでない時は、設定時刻になったと判断し、ステップS205に進み、取り出した予約項目の撮影条件に従って、カメラ制御部1017を介しカメラ1003を制御し、撮影を行う。
【0165】
その後、ステップS703で、映像合成を行なう。すなわち、映像を撮影した際の制御情報から対象機器の映像内の位置を計算し、映像内の対象機器の近傍に、通信によって得られた状態情報7021を画像合成する。合成結果は、先に説明したステップS702と同様であるので、ここでの説明は省略する。続いて、ステップS803のアンカー生成処理では、ステップS802と同様であるので、その説明も省略する。合成結果は、例えば図14に示す通りである。
【0166】
そして、合成された画像を予約項目で指定された方法の画像フォーマットに変換し、この画像データを受付コードと画像フォーマット情報とともに画像記憶部1019に格納する(ステップS206)。続いて、現在取り出した、予約項目を予約登録部1014から消去し(ステップS207)、ステップS202に戻って処理を繰り返す。
【0167】
これにより、予約通りの撮影が行われ、その結果が保管され、後に、画像取り出しコマンドが外部装置1002から要求されると、この画像データが返答されることになる。
【0168】
以上の結果、クライアントは遠隔にあるカメラサーバのカメラを制御して撮影した映像を、居ながらにして観察できるのは勿論、予め登録しておいたオブジェクト(上記例では統合複写機)の時々刻々と変わる状態を確認することができる。また、クライアント側では、表示された映像中の特定の位置をクリックした場合、そこにアンカーが設けられていれば、その内容情報を見るきことが可能になる。
【0169】
尚、本実施例では、複写機の状態を画面合成する例について述べたが、これは、複写機に限らず、ファクシミリやプリンタなどのOA機器であったり、または、他のAV機器などであっても良い。
【0170】
また、本実施例では、映像内にただ一つのアンカーを合成する例について説明したが、クリッカブルマップの管理情報に複数の情報を記入すれば、一つの映像内に複数のアンカーを表現することもできるのは理解できよう。例えば、以下のようなクリッカブルマップの管理情報を用意する。
rect http://www.foo.co.jp/netdevices/copier_445/snmp.html 15,8 135,39
rect http://www.foo.co.jp/netdevices/facsimile_28/snmp.html 20,18 55,39
rect http://www.foo.co.jp/netdevices/colorprinterr_4/snmp.html 55,21 135,39
rect http://www.foo.co.jp/netdevices/printer_266/snmp.html 15,8 135,39
また、実施形態では、複写機などの機器がネットワークにオンライン接続されている場合に、その管理情報をハイパーテキスト風にアクセスする例を説明したが、図18に示すような管理テーブルを用意することで、より直接適に情報官の関連付けをすることができる。すなわち、図18の管理テーブルの第4カラム『リンク先URL』項目に示される情報を、直接アンカーのリンク先とする手法である。
【0171】
尚、図18の第4カラムのリンク先項目を随時変更するような別プログラムを用意することも容易に理解できよう。
【0172】
実施形態では、WWWのURLをアンカーと重ね合わせる例について説明したが、それ以外のハイパーテキストのアンカーを重ね合わせる場合についても同様である。
【0173】
<第2の実施形態>
本第2の実施例では、第1の実施例と同様に、オフィスに置かれたカメラサーは関して、ズームやパン/チルトなどの制御情報を入力装置から与え、その制御情報に合わせてコムカメラを調整し、映された映像に付加価値を与える点は、同様であるが、映像への映像加工部が異なる。
【0174】
特に、本実施例では、出力すべきオフィスの映像に社員の座席が含まれ、かつ、その社員が会議などで不在だった場合に、会議室の映像などをスーパーインポーズ合成する点が異なる。
【0175】
この例では、図15に示すように、第1の実施形態の映像加工手段7020、アンカー生成手段7031、アンカー解釈手段7032に代えて、それぞれ拡張映像加工手段7120、拡張アンカー生成手段7131、拡張アンカー解釈手段7132を用いることで、映像情報に直接的にアンカー情報を付加して、クライアントに送ることに特徴がある。
【0176】
拡張映像加工手段7120では、映像加工手段7020とほぼ同様であるが、合成結果の映像情報に加えて、拡張アンカー生成手段7131が生成した「アンカースクリプト」と呼ぶアンカー情報を添付してクライアントに送る点が異なる。
【0177】
また、クライアントでは、単純な映像データの解釈に加えて、クリックを検出した時点で、拡張アンカー解釈手段7132を用いて受け取ったアンカースクリプトを解釈して、適切なリンク先を探し出す機能を追加する。クライアントに拡張アンカー解釈手段7132を提供する方法としては、プラグイン(plug-in)やヘルパーアプリケーションなどの手法を利用すればよい。
【0178】
また、拡張アンカー生成手段7131では、制御内容を解釈した結果の映像視野予測と、図18の管理テーブルに示された各機器の位置情報とリンク先情報から、適切なアンカースクリプトを生成する。
【0179】
以下、これらの動作について説明する。
【0180】
上記を実現するためには、第1の実施形態の「カメラ制御装置」の説明におけるステップS702、S802を以下のステップS702’、802’のように変更する。
・ステップS702’
まず、ステップS702に従って映像を合成し、次いで、拡張アンカー生成手段7131によって生成されたアンカースクリプトを映像情報に追加する。
・ステップS802’
まず、ステップS701と同様に制御内容の解釈から撮影視野を予測する。次に、予測された撮影視野と図18の管理テーブルに示された各機器の位置情報とリンク先情報とから、以下に示すようなアンカースクリプトを生成する。ここでは、リンク先を
“http://www.foo.co.jp/netdevices/copier_445/snmp.html”
としているa1という名のアンカーを生成し、それを左上と右下の頂点がそれぞれ<15,8>と<135,39>とする矩形の領域に結び付ける。
<anchors>
<a href="http://www.foo.co.jp/netdevices/copier_445/snmp.html">a1</a>
<embed a=a1 range=15,8+135,39></embed>
</anchors>。
【0181】
以上であるが、ここでは映像入力手段に与えられる制御情報を解釈して、事前に映像入力手段が撮影する映像を予測することにより、単純な映像情報サービスにとどまらず、より付加価値の高い映像情報を作り出す事に特徴がある。
【0182】
本第2の実施形態では、第1の実施形態と同様に、映像内に唯一つのアンカーを合成する例について説明したが、アンカーリストを拡張して、1つの映像内に複数のアンカーを表現することも容易になるのは理解できよう。例えば、以下のようなアンカースクリプトを生成することが考えられる。
<anchors>
<a href="http://www.foo.co.jp/netdevices/copier_445/snmp.html">a1</a>
<a href="http://www.foo.co.jp/netdevices/facsimile_28/snmp.html">a2</a>
<a href="http://www.foo.co.jp/netdevices/colorprinter_4/snmp.html">a3</a>
<a href="http://www.foo.co.jp/netdevices/printer_266/snmp.html">a4</a>
<embed a=a1 range=5,8+15,19></embed>
<embed a=a2 range=20,18+35,39></embed>
<embed a=a3 range=55,21+135,39></embed>
<embed a=a4 range=30,30+135,45></embed>
</anchors>。
【0183】
また、本実施形態で説明したアンカースクリプトでは、映像内のアンカーの配置を、「range=15,8+135,39」のような2次元座標を使って指定しているが、簡単な分数表現を使って指定することも容易である。例えば、図16(a)に示すように4分割した映像表示領域(ウインドウ)内の第1象限(右上部分)を「range=1/4」と指定する。同様に、図16(b)に示すように映像表示領域を9分割した場合には、左上の領域から順番に番号を割り当て、例えば6番目の領域を「range=6/9」とする等を決めておけばよい。
【0184】
更に、本実施形態では、映像内の一つひとつの画面にアンカー情報を添付する方法について説明したが、一連のシーンに関してアンカー情報を添付することで、効率化を図ることも可能である。例えば以下の通りである。
<anchors>
<a href="http://www.foo.co.jp/netdevices/copier_445/snmp.html">a1</a>
<a href="http://www.foo.co.jp/netdevices/facsimile_28/snmp.html">a2</a>
<a href="http://www.foo.co.jp/netdevices/colorprinter_4/snmp.html">a3</a>
<a href="http://www.foo.co.jp/netdevices/printer_266/snmp.html">a4</a>
<embed a=a1 scene=132714+50 range=5,8+15,19></embed>
<embed a=a2 scene=132730+20 range=20,18+35,39></embed>
<embed a=a3 scene=132720+40 range=55,21+135,39></embed>
<embed a=a4 scene=132714+50 range=30,30+135,45></embed>
</anchors>。
【0185】
以上説明した第1、第2の実施形態では、その状態が時々刻々と変化するようなオブジェクト(実施形態では複写機とした)を遠隔操作することで表示させる場合を説明したが、状態が固定的なオブジェクトに関しては、格別ネットワークに接続されている必要はないし、そのオブジェクトが電気的に動作する必要もない。
【0186】
例えば、オフィス内の映像を表示させ、その中の所望とする机をクリックした場合に、その机の持ち主に関する情報を表示させることもできるからである。
【0187】
また、上記第1、第2の実施形態では、例えばオブジェクト(複写機)をカメラの視野内に納めた場合に、そのオブジェクトの状態情報を映像に合成して表示させ、そのオブジェクトをクリックすることでその複写機の更なる詳細を表示させたが、状態情報及び詳細情報をクリックされた場合に表示させるようにしてもよい。
【0188】
尚、本発明は、複数の機器(例えばホストコンピュータ、インターフェース機器、リーダ、プリンタ等)から構成されるシステムに適用しても、1つの機器からなる装置(例えば複写機、ファクシミリ等)に適用しても良い。
【0189】
また、本発明の目的は、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出して実行することによっても、達成されることは言うまでのもない。
【0190】
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
【0191】
プログラムコードを供給するための記憶媒体としては、例えばフロッピーディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。
【0192】
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部または全部を行ない、その処理によって実施形態の機能が実現される場合も含まれることは言うまでもない。
【0193】
更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された拡張機能ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0194】
【発明の効果】
以上述べたように本発明によれば、映像としてのオブジェクトの提供にとどまらず、その映像を材料として適切な加工を施した映像を提供する等、より付加価値の高い映像サービスを行なうことが可能になる。
【0195】
【図面の簡単な説明】
【図1】実施形態の前提部を説明するためのシステムのブロック構成図である。
【図2】図1におけるコマンド解釈部の動作処理内容を示すフローチャートである。
【図3】図1における予約登録部で生成される登録情報の一例を示す図である。
【図4】図1における画像記憶部に記憶される情報の一例を示す図である。
【図5】図1における時限部の処理内容を示すフローチャートである。
【図6】実施形態の前提部第3例における予約登録部で生成される登録情報の一例を示す図である。
【図7】実施形態の前提部第4例におけるシステムのブロック構成図である。
【図8】実施形態の前提部第5例の予約内容登録部の処理内容を示すフローチャートである。
【図9】実施形態の前提部第6例におけるシステムのブロック構成図である。
【図10】実施形態の前提部第6例におけるコマンド解釈部6012の動作内容を示すフローチャートである。
【図11】第1の実施形態におけるシステムのブロック構成図である。
【図12】図11におけるコマンド解釈部の処理内容を示すフローチャートである。
【図13】第11における時限部の処理内容を示すフローチャートである。
【図14】第1の実施形態におけるサーバから転送する映像の時間推移の一例を示す図である。
【図15】第2の実施形態におけるシステムのブロック構成図である。
【図16】第2の実施形態における領域指定法を説明するための図である。
【図17】実施形態における管理テーブルの内容を示す図である。
【図18】実施形態における管理テーブルの内容の変形例を示す図である。
【図19】実施形態におけるアンカーをクリックした際に表示される情報の一例を示す図である。
【符号の説明】
1001 カメラ制御装置
1002 外部装置
1003 カメラ
1007 複写機システム
1011 通信インタフェース
1013 受付コード発生部
1014 予約登録部
1015 時限部
1017 カメラ制御部
1018 画像入力部
1019 画像記憶部
7012 コマンド解釈部
7020 映像加工部
7021 状態情報
7031 アンカー生成手段
7032 アンカー解析手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a video control apparatus, a control method, and a storage medium, and more particularly to a video control apparatus, control method, and storage medium for transferring an input video toward the client in accordance with a request from a remote client.
[0002]
[Prior art]
The applicant of the present invention has already developed a system in which a captured video can be viewed from a client by connecting to a remote camera server (device for controlling the camera and transferring the captured video to the client) via an existing network. Several applications have been filed.
[0003]
The camera server has a form in which a general-purpose device such as a personal computer or a workstation is used, a card (or board) having a video capture function is attached thereto, and a video camera is connected to the card. In addition, in order to enable the client to control the camera angle (pan, tilt, zoom, etc.) of the camera server, the camera device can change the zoom value, and the camera device is mounted on a predetermined pan head. There is also a proposal to output a signal for controlling the angle from the camera server main body to the camera device via a predetermined interface (for example, a serial interface that a personal computer has as a standard).
[0004]
On the other hand, the client is also composed of a general-purpose device such as a personal computer or a workstation.
[0005]
[Problems to be solved by the invention]
However, in the above proposal, even though it is possible to confirm a video shot by a remote camera, information on the displayed individual object is not obtained more than the video of the object.
[0006]
The present invention has been made in view of such problems, and an object of the present invention is to provide a video control apparatus, a control method, and a storage medium that make it possible to confirm details of an object in a video.
[0007]
[Means for Solving the Problems]
  In order to solve this problem, for example, the video control apparatus of the present invention has the following configuration. That is,
  From a remote clientControl of cameras received over the networkEntered as requestedFrom the camerathe imageThe requester via the networkA video control device that transfers data to a client,
  A position indicating the position of each of a plurality of network devices connected to the networkStorage means for storing information;
  Camera control means for controlling the camera according to the requested angle when receiving a control request for the camera angle from the client;
  A determination unit for determining which network device is included in the field of view of the camera based on the position information of each network device stored in the storage unit when the camera control unit controls the angle of the camera; ,
  When the determination unit determines that a network device is included in the field of view of the camera, an acquisition unit that acquires first information about the corresponding network device;
  Based on the angle control request from the client, calculate the position of the network device in the field of view of the camera, in the vicinity of the calculated position in the captured image obtained by the control of the camera control means, An image indicating the acquired first information is superimposed, and the superimposed image is displayed.First transfer control means for incorporating the predetermined information and transferring the image so that the instruction request information is returned when there is a predetermined instruction on the client side;
  From the clientSaidRequest for instructionsReturn of informationIf there isRespond to the predetermined informationRequest for instructionsinformationin accordance with,A second relating to the network device that is the target of superimposition by the first transfer control means;A second forwarding information to the clienttransferControl means.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, before explaining an example of an embodiment concerning the present invention in detail, the premise part is explained. Thereafter, the embodiment will be described.
[0009]
<Overview>
Proposal that allows the client side to view the video of the camera connected to the remote camera server via the existing network and control the angle (pan, tilt, zoom value, etc.) from the client side As described above, the present applicant has proposed.
[0010]
One of the main features of this proposal is that a general-purpose network (Internet) protocol is used instead of a publicly known surveillance camera, and the camera is controlled within the protocol.
[0011]
FIG. 1 is a block diagram of the camera server apparatus, which is configured by the following units. Reference numeral 1003 denotes a camera capable of controlling camera angles, shooting conditions, and the like. Reference numeral 1001 denotes a control device that controls the camera 1003 in response to an instruction from the external apparatus 1002 and responds to shot images, and is realized based on, for example, a personal computer. The control device 1001 outputs a control signal to the camera 1003 via an RS-232C interface and the like, a camera control unit 1017 that controls the camera angle, a video input unit 1018 that inputs a captured video of the camera 1003 with an image capture device, and the network It has a communication interface unit 1011 for exchanging information between this apparatus and another apparatus using an adapter or the like. And in addition to these resources, it implement | achieves as a program and memory data using each resource, such as CPU of a computer, a memory | storage device, and an auxiliary memory device, and has the following parts.
[0012]
That is, 1012 is a command interpretation unit, 1013 is a reception code generation unit, 1015 is a time limit unit, 1019 is an image storage unit, and 1014 is a reservation registration unit (which will be apparent from the description below).
[0013]
The external device 1002 is, for example, a WWW server or a WWW browser. When the external device 1002 is a WWW server, this device is placed under the management of the WWW server, and the WWW browser (client) sends the document data and image data to the WWW server. The information is presented according to the URL L indicating the storage location of the target data. In response to this, the WWW server returns corresponding document data and image data to the WWW browser.
[0014]
If the external device 1002 is a WWW browser, it may be interpreted that the functions of the WWW server are incorporated in the present device.
[0015]
However, in order to simplify the explanation, the external device 1002 is a WWW server and communicates with them using the HTTP protocol, and the control device 1001 of this configuration example functions as a WWW server in the application of video data. An example will be described. This can be realized by using the communication method of the WWW server also in this control apparatus.
[0016]
It is well known that the following description is generally used when pasting image data into a WWW document.
[0017]
<img src = "http://www.foo.co.jp/image001.gif">
This means that the image data stored in the file image001.gif in the WWW server www.foo.co.jp is transferred, but the file name portion in the subsequent stage is interpreted as a command.
[0018]
As an example, pan, tilt, and zoom that specify a camera angle are indicated by alphabetic characters “P”, “T”, and “Z”, respectively, and then each control amount is represented by a number. For example, with respect to a server having a camera capable of selecting eight stages of -50 degrees to 50 degrees, tilt angle of -20 degrees to 20 degrees, and zoom from 1 to 8, the pan angle is 20 degrees and the tilt is 5 degrees. If you want to take a picture at 2x zoom and paste it as gif-format image data (you want it to be transferred), write it as follows. Note that the network address of this device is cam.foo.co.jp.
[0019]
<img src = "http://www.foo.co.jp/P20T5Z2.gif">
When there is an HTML document description as described above, the external device 1002 which is a WWW browser makes a request for image data to the control device 1001. That is, when a request is input to the control device 1001 via the communication interface unit 1011, the command interpretation unit 1012 is activated, and the interpretation of the request and processing of a response to the request are started.
[0020]
An example of the process is shown in the flowchart of FIG. First, in step S101, a command described as a file name is interpreted. That is, if the head of the request is “P”, it is recognized as a shooting command, and the process proceeds to step S102. Here, the camera is operated with the specified pan, tilt, and zoom values via the camera control unit 1017 (step S102), and the captured image is converted into the image format of the specified method, and the communication interface unit A response is made to the requesting external device 1002 via 1011.
[0021]
At this time, since the communication interface unit 1011 uses the HTTP protocol, content type information, status information, and the like corresponding to the image format are added to the head. Then, this process ends.
[0022]
As a result, an image captured as if it were image data stored in a file of the WWW server is pasted and displayed on the HTML document.
[0023]
In the condition determination in step S101, if the head of the request is “R”, it is recognized as a reservation command, and the process proceeds to step S105 via the condition determination in step S104.
[0024]
The reservation command is a service for reserving the capture of the captured video and transferring the captured video to the client later. In this case, it begins with the letter “R”, followed by a year, month, day, hour, and minute each represented by an integer, separated by a period. Then, pan / tilt / zoom instructions that are photographing conditions follow, and finally a name representing the image format is given.
[0025]
For example, if you want to make a reservation for shooting a 3x zoom video with a pan angle of 25 degrees and a tilt angle of 0 degrees at 13:15 on July 6, 1996, the following description is used.
[0026]
<img src = "http://www.foo.co.jp/R1996.7.6.13.15P25T0Z3.gif">
When the reservation command as described above is designated, the camera server transfers a unique identification number as a reception code from the reception code generation unit 1013 to the external apparatus 1002 in step S105. The external device 1002 that has received the information can later transfer the reception code to the camera server to capture the reserved and photographed video. The reception code may be realized, for example, as a counter that is incremented by 1 for each generation request, or may be realized by a numerical value that represents the time of the requested date.
[0027]
Then, the reception code, reservation time, shooting conditions, and image format information are registered in the reservation registration unit 1014 (step S106), and the reception code is returned to the requesting external device 1002 via the communication interface unit 1011 (step S106). S107).
[0028]
Also at this time, content type information and status information indicating that the response content is a reception code are added to the head. Then, this process ends.
[0029]
If you simply create an HTML document that includes such a shooting reservation and try to display it with a general WWW browser, the reception code will return instead of the image data. Although it is not displayed, the reservation reservation is made to the control device 1001 by the same method as the WWW browser by the CGI program of the WWW server, and when the reception code is obtained, the reception code is designated by an image retrieval command described later. If an HTML document including an image data description is generated, when the generated document is displayed on a WWW browser, photographing is performed as reserved and the image data is displayed.
[0030]
The retrieval command starts with the letter “G”, followed by a reception code, and finally has a name indicating the image format. This reception code is returned when a reservation is made to the external apparatus 1002.
[0031]
For example, when “12543” is returned as an acceptance code, the following description is used when an image reserved for shooting is taken out after shooting.
[0032]
<img src = "http://www.foo.co.jp/G12543.gif">
The reservation registration unit 1014 can be realized in the storage device or auxiliary storage device of the control device 1001 in the form of a table as shown in FIG. 3, for example. For example, in the case of the above reservation example, when the reception code is “12543”, it is recorded as in the first column.
[0033]
When the reservation registration is completed, a time-limit unit, which will be described later, performs photographing as instructed at the reserved time, and image data is held in the image storage unit 1019.
[0034]
The image storage unit 1019 can be realized in the storage device or auxiliary storage device of the control device 1001 in the form of a table as shown in FIG. 4, for example. For example, the photographing result of the above reservation example is recorded as image data according to the designated format, together with the reception code and the image format information, as in the first column.
[0035]
In the condition determination in step S101, if the head of the request is “G”, it is recognized as an image extraction command, and the process proceeds to step S109 via the condition determination in steps S104 and S108, and is stored in the image storage unit 1019. Search for data.
[0036]
Then, it is determined whether or not it is stored with the same value as the reception code described as the image retrieval command (step S110). If registered, the image data is retrieved, and the request source is retrieved via the communication interface unit 1011. To the external device 1002.
[0037]
At this time, since the communication interface unit 1011 uses the HTTP protocol, content type information, status information, and the like corresponding to the image format are added to the head (step S111). In step S112, the column of the image storage unit 1019 in which the image data just extracted is stored is deleted. Then, this process ends.
[0038]
If it is determined in step S110 that image data corresponding to the designated reception code is not stored, error information indicating that the target image has not been captured is returned to the requesting external device 1002 via the communication interface unit 1011 and The process ends.
[0039]
If the head of the request from the external device 1002 is not “G” in step S108, error information indicating an undefined command is returned to the requesting external device 1002 via the communication interface unit 1011. Exit.
[0040]
As described above, information is exchanged between the external device 1002 and the control device 1001 of the present invention.
[0041]
Next, the time limit unit 1015 that performs camera control, shooting, and storage of shooting results based on reservation data registered in the reservation registration unit 1014 will be described.
[0042]
In the time limit unit 1015, a time limit program is started at regular time intervals, for example, every one minute. This can be realized by using a timer of a computer. The operation of the timed program will be described with reference to the flowchart of FIG.
[0043]
First, the current time is read from the timer of the control device 1001 (step S201), and the process proceeds to step S202. In step S202, the reservation items registered one column at a time are extracted from the reservation registration unit 1014. If it is determined in step S203 that all the items have been extracted, the process ends. If the reserved item has been extracted, the process proceeds to step S204. When the set time in the target reservation item is in the future from the current time, the process returns to step S202 and the process is repeated. Otherwise, it is determined that the set time has come, the process proceeds to step S205, and the camera 1003 is controlled via the camera control unit 1017 according to the shooting condition of the retrieved reservation item, and shooting is performed. Then, the photographed image is converted into the image format of the method specified by the reservation item, and this image data is stored in the image storage unit 1019 together with the reception code and the image format information (step S206). Subsequently, the currently retrieved reservation item is deleted from the reservation registration unit 1014 (step S207), and the process returns to step S202 to repeat the process.
[0044]
As a result, photographing is performed as scheduled, the result is stored, and when an image retrieval command is requested from the external device 1002 later, this image data is returned.
[0045]
As described above, simply connecting the camera control device to the network of the WWW system and describing the URL of the camera control device address plus the description of the shooting conditions of the camera as the source of the image data makes it easy to connect a remote camera. It becomes possible to paste the operated live image (that is, the current video) into the WWW document. In order to realize only this, each of the reception code unit 1013, the time limit unit 1015, the image storage unit 1019, and the reservation registration unit 1014 is unnecessary, and the steps after step S104 of the command interpretation unit 1012 are unnecessary. .
[0046]
In addition, by providing a time limit unit 1015, an image storage unit 1019, and a reservation registration unit 1014, if a CGI program of a WWW server is used, a camera shooting is reserved, and the result is later displayed on a WWW page for display. It becomes possible to do. In particular, even if you try to shoot with a remote camera in a time zone where the network is congested, it takes time to transfer the image and you cannot collect image data as you think, but according to this configuration example, Reservation is made in advance for a necessary time at a specific camera angle, and the accumulated image data can be taken out and used when the network is exhausted at night or the like.
[0047]
In particular, it is possible to take a plurality of images at the same camera angle at short intervals regardless of the transmission capacity of the network.
[0048]
Of course, the interface with the external device 1002 has been described as the HTTP protocol here, but any communication interface may be used.
[0049]
In this configuration example, the reception code is used to identify the shooting data for the reservation. However, without using the reception code generation unit, a unique request number is generated on the external device 1002 side that requests an image, and the reservation is generated. A request may be made as a part of the command, and the control device may use a method of identifying target image data by a combination of the external device 1002 and the request number.
[0050]
In addition, although the reservation time is in minutes, it may be extended to seconds or milliseconds.
[0051]
In addition, although gif is given as an example of the image format, JPEG may be expressed by a file extension of jpg, and either of them may be switched, or other file formats may be adopted.
[0052]
Further, although the file name is regarded as a command, a URL parameter description may be used. For example, when the pan, tilt, zoom, and image format are 25 degrees, 5 degrees, 2 times, and gif, respectively, the following description may be made.
[0053]
<img src = "http://cam.foo.co.jp/cameraimage?P=20,T=5,Z=2,F=gif">
Moreover, you may mount a WWW server simultaneously in this control apparatus. In that case, for example, it can be realized by giving the name camctl.exe to the program of the command interpretation unit 1012 as the CGI program of the WWW server and performing the following description.
[0054]
<img src = "http://cam.foo.co.jp/cgi-bin/camctl.exe?P=20,T=5,Z=2,F=gif">
<Second example>
In the above configuration example (first example), only one image can be reserved for shooting at a time. In this configuration example (second example), a file extension representing the image format is added to the file name formed by combining a plurality of reservation commands with “+” to reserve a plurality of times and camera angles at a time. enable.
[0055]
For example, when shooting at 3 times zoom with a pan angle of 25 degrees and a tilt angle of 0 degrees at 13:15, 30, 30 and 45 minutes on July 6, 1996, and taking out three images in gif format later, Write like this.
[0056]
<img src = "http://www.foo.co.jp/R1996.7.6.13.15P25T0Z3+R1996.7.6.13.30P25T0Z3+R1996.7.6.13.45P25T0Z3.gif">
Here, the character string enclosed by ““ ”and“ “” may be displayed over two or more lines, but the actual description is described in one line that does not include line breaks.
[0057]
If the date and time are the same or the camera angles are the same, they may be omitted. In that case, the same reservation as above can be described as follows.
[0058]
<img src = "http://www.foo.co.jp/R1996.7.6.13.15P25T0Z3+R....30+R....45.gif">
The second example is the same as the first example except for the following changes.
[0059]
That is, the command interpreting unit 1012 can interpret the above description in step S106, step S111, and step S112 of the program.
[0060]
That is, in step S106, the requested command is not limited to one, but is analyzed as a plurality of reserved commands combined with “+”, and the reservation code generated in step S105 is the same as the image format information. The reservation time and shooting conditions specified by the reservation command are registered in the reservation registration unit 1014 as a plurality of reservations.
[0061]
On the other hand, in step S111, a plurality of pieces of image data registered with the same reservation code are taken out, reformatted as one piece of image data including a plurality of pieces of image data, and the request source is transmitted via the communication interface unit 1011. It returns to the external device 1002. Also at this time, since the communication interface unit 1011 uses the HTTP protocol, content type information, status information, and the like corresponding to the image format are added to the head.
[0062]
In step S112, the column of the image storage unit 1019 corresponding to each of the plurality of extracted image data is deleted.
[0063]
By configuring as described above, many reservations can be made at one time, and it is possible to handle them collectively as one image data composed of a plurality of images, and a plurality of receptions corresponding to each image data. Saves you the trouble of managing your code.
[0064]
Further, when applied to intermittent photography such as plant growth recording, it is possible to handle a plurality of photographed images as a pseudo moving image that is stored in one image data.
[0065]
<Third example>
In the second example, even when intermittent shooting is performed with the same camera angle at the same time interval, it is necessary to connect and designate reservation commands as many as the number of shooting. In the third example, the end time and the intermittent time are added immediately after the time designation of the reservation command, and then the photographing conditions such as the camera angle and the image format are designated. For the end time, specify the time following “t”, and for the intermittent time, specify the time in minutes following “e”.
[0066]
For example, on July 6, 1996 at 13:15, 30, and 45 minutes (that is, every 15 minutes), a pan angle of 25 degrees and a tilt angle of 0 degrees were taken with a 3x zoom, and three images in gif format. When it is taken out later, it is described as follows.
[0067]
<img src = "http://www.foo.co.jp/R1996.7.6.13.15t1996.7.6.13.45e15P25T0Z3.gif">
Here, the character string enclosed by ““ ”and“ “” may be displayed over two or more lines, but the actual description is described in one line that does not include line breaks.
[0068]
Of course, in this case, if the date and time of the end time are the same, it may be omitted. In that case, the same reservation as above can be described as follows.
[0069]
<img src = "http://www.foo.co.jp/R1996.7.6.13.15t....45e15P25T0Z3.gif">
The basic configuration of the third example is the same as that of the first example except for the following changes.
[0070]
That is, the command interpreting unit 1012 is capable of interpreting the above description in step S106, step S111, and step S112 of the program.
[0071]
However, the reservation registration unit 1014 at this time needs to have the configuration of the management table as shown in FIG. That is, as shown in the figure, the item of intermittent time is required.
[0072]
In step S106, if the requested reservation command has an end time and an intermittent time, the reservation time is registered in the reservation registration unit 1014 together with the reception code, the shooting condition, and the image format as the shooting time. If the requested reservation command is a simple reservation and does not have an end time and an intermittent time, the end time is set to be the same as the photographing time and the intermittent time is set to 1.
[0073]
In step S111, a plurality of pieces of image data registered with the same reservation code are taken out, reformatted as one piece of image data including a plurality of pieces of image data, and sent from the request source via the communication interface unit 1011. It returns to the external device 1002.
Also at this time, since the communication interface unit 1011 uses the HTTP protocol, content type information, status information, and the like corresponding to the image format are added to the head. In step S112, the column of the image storage unit 1019 corresponding to each of the extracted image data is deleted.
[0074]
On the other hand, in step S3207, the time limit unit 3015 adds the intermittent time of the retrieved reservation item to the shooting time, updates the registered reservation information, and if the shooting time is later than the end time, this item is set. And deleted from the reservation registration unit 2014.
[0075]
With the configuration described above, intermittent photographs can be easily taken with a short command.
[0076]
In particular, when taking intermittent photographs over a long period of time, in the case of the method as in the second example, the command is very long, and in many cases it cannot be practically realized. This can be realized if the storage capacity of the storage device for storing data is sufficient.
[0077]
<Fourth example>
In the third example, the result of intermittent shooting is taken out as a plurality of still image data. However, in this configuration example, a form of taking out as moving image data is also added.
[0078]
When extracting as video data, set the file extension to “mpg”. For example, it is described as follows.
[0079]
<img src = "http://www.foo.co.jp/R1996.7.6.13.15t....45P25T0Z3.mpg">
The basic configuration of this configuration example is as shown in FIG. This is the same as the third example except for the following changes. That is, a moving image compression unit 2021 such as an MPEG1 compression device is added, and a command interpretation unit 3012 can interpret and execute the command.
[0080]
For example, at step S111, if the image format designation is a still image format such as jpg or gif, a plurality of image data registered with the same reservation code is extracted, and a new one containing a plurality of image data is included. The image data is re-formatted as image data and is returned to the requesting external device 1002 via the communication interface unit 1011. If the image format is specified as mpg, a plurality of image data registered with the same reservation code is taken out, each image is restored, delivered to the moving image compression unit 2021, and compressed, and the resulting moving image Data is returned to the requesting external device 1002 via the communication interface unit 1011.
[0081]
Also at this time, since the communication interface unit 1011 uses the HTTP protocol, content type information, status information, and the like corresponding to the image format are added to the head.
With the configuration as described above, compression using the relationship between image frames is performed, and particularly in intermittent photographs that do not change so much, image data is greatly compressed. The amount of communication can be reduced, and the communication time can be greatly shortened.
[0082]
<Fifth example>
In the third example, the camera angles to be photographed are the same. However, in the fifth example, the definition of the control variable is added immediately before the time designation of the reservation command, the time designation is performed thereafter, and then the camera is designated. Enables repeated shooting with specified shooting conditions such as angle and image format. It tries to be able to specify the reference of the control variable in the time specification and shooting conditions.
[0083]
The definition of the control variable is
It begins with "$ (", has a definition body, and ends with ")".
[0084]
There are two ways to write the definition body. One is a method of specifying an initial value, a closing price, and an increment, and it is further divided into two writing methods depending on whether the increment is positive or negative. Another format is to write down all the values of control variables.
[0085]
Ie
$ (<Control variable> = initial value, upto closing price, up increment)
$ (<Control variable> = initial value, downto closing price, down increment)
Or
$ (<Control variable> = value 1, value 2, value 3, value 4, ... value n)
It is.
[0086]
Here, <control variable> is a character string consisting of one or more English characters and is an identifier of the control variable.
[0087]
Control variable references are
It begins with "$ (", has a reference body, and ends with ")". The reference body is a four-rule arithmetic expression including control variables.
[0088]
For example, when it was 13:15 on July 6, 1996
3x zoom with 25 ° pan angle and 0 ° tilt angle
3x zoom with 30 ° pan angle and 0 ° tilt angle
3x zoom with a pan angle of 35 degrees and a tilt angle of 0 degrees,
If you take a picture with (and actually change the angle, there will be a time lag between them), and if you take out three images later in the gif format, you would write:
[0089]
"http://www.foo.co.jp/R$(pan=25,upto35,up5)1996.7.6.13.15P$(pan)T0Z3.gif"
Or
"http://www.foo.co.jp/R$(pan=0,upto10,up5)1996.7.6.13.15P$(pan+25)T0Z3.gif"
Or
"http://www.foo.co.jp/R$(pan=35,downto25,down5)1996.7.6.13.15P$(pan)T0Z3.gif"
Or
"http://www.foo.co.jp/R$(pan=25,30,35)1996.7.6.13.15P$(pan)T0Z3.gif"
Here, the character string enclosed by ““ ”and“ “” may be displayed over two or more lines, but the actual description is described in one line that does not include line breaks.
[0090]
This configuration example is different from the second example in that the above description can be interpreted in the command interpretation unit 2012, but the others are the same.
[0091]
For example, the inside of step S106 is shown in FIG.
[0092]
If the character next to “R” is $, this is the definition of a control variable, so that it becomes the reserved command of the fifth example. In step S501, one control variable definition starting with “$ (” and ending with “)” is acquired, and it is checked in step S502 whether all definitions have been extracted. After all the control variable definitions are extracted, the initial value is bound to the control variable in step S503.
[0093]
In step S504, the remaining part of the command is scanned to search for control variable references beginning with "$ (" and ending with ")", and all references are replaced with bound values. In step S506, the character string obtained as a result is analyzed as a reservation command for the repeated shooting described above. The conditions are registered in the reservation registration unit 1014 as a plurality of reservations. This is repeated until all control variables are closed.
[0094]
With the configuration described above, intermittent photographs with different camera angles can be easily taken with a short command.
[0095]
In the explanation, only one control variable definition is used, but a plurality of definitions can be written. In this case, the definitions are interpreted as nested.
[0096]
In this configuration example, the introduction of the repetitive syntax has been described, but in the same manner, syntax such as a condition determination syntax, variable definition, variable assignment, and four arithmetic operations can be introduced.
[0097]
That is, the command interpreter can be realized as a program interpreter, and the contents of the URL can be regarded as a program and held for interpretation. In this way, complicated camera control and the like can be automatically executed.
[0098]
<Sixth example>
In the fifth example, all camera angle designations for shooting must be described in the same URL. In the sixth example, a part of the reservation command can be separately registered as a macro library. An example will be described in which data describing the time designation and shooting conditions is stored in an external device.
[0099]
For the sake of explanation, for example, it is assumed that shooting is performed in order from 13:00 on July 6, 1996 to the following camera angles in order every minute.
[0100]
3x zoom with 25 ° pan angle and 0 ° tilt angle
3x zoom with 30 ° pan angle and 0 ° tilt angle
3x zoom with a pan angle of 35 degrees and a tilt angle of 0 degrees,
4x zoom with a pan angle of 35 degrees and a tilt angle of 1 degree,
4x zoom with a pan angle of 30 degrees and a tilt angle of 2 degrees,
5x zoom with a pan angle of 35 degrees and a tilt angle of 3 degrees
5x zoom with a pan angle of 35 degrees and a tilt angle of 4 degrees
6x zoom with a pan angle of 35 degrees and a tilt angle of 5 degrees
7x zoom with a pan angle of 35 degrees and a tilt angle of 5 degrees,
8x zoom with a pan angle of 35 degrees and a tilt angle of 5 degrees
A command for instructing this is sent to the second external device.
http://www.bar.co.jp/camcon-a.ctl
Store it in.
[0101]
This is, for example, as follows.
[0102]
R1996.7.6.13.0P25T0Z3 + R1996.7.6.13.1P30T0Z3 + R1996.7.6.13.2P35T0Z3 + R1996.7.6.13.3P35T1Z4 + R1996.7.6.13.4P35T2Z4 + R1996.7.6.13.5P35T3Z5 + R1996.7.6.13.6P35T4Z5 + .7.6.13.3P35T5Z6 + R1996.7.6.13.4P35T5Z7 + R1996.7.6.13.3P35T5Z8.gif
A command given to the control device to use this is an external reference command that starts with “% 23 (”, continues with the URL, and ends with “)”. An example is as follows.
[0103]
"http://www.foo.co.jp/%23(httpd%3e//www.bar.co.jp/camcon-a.ctl)"
In this case, www.bar.co.jp corresponds to the second external device. That is, it means that the camera server www.foo.co.jp is requested to control according to the contents described in www.bar.co.jp/camcon-a.ctl. In camcon-a.ctl, the above description of “R1996...” is stored.
[0104]
The sixth example is shown in FIG. Compared to the fifth example, the command interpretation unit 6012 is different in that the command can be interpreted, and the others are substantially the same.
[0105]
The operation of the command interpretation unit 6012 will be described with reference to FIG.
[0106]
In step S621, the command described as the file name is interpreted. If the head of the request is “% 23”, it is recognized as an external reference command, and the process proceeds to step S622. In step S622, the part between “(” and “)” is regarded as a specified URL of the file in which the command is described and stored, and a request is sent according to the URL. In the above example, a request is issued to the second external device 1004. In step S623, a response is awaited.
[0107]
As a response, for example, a long reservation command as described above is returned.
The external reference command interpreted here is expanded and replaced so that it can be applied to subsequent command interpretation (step S624). Then, the process proceeds to step S101.
[0108]
If it is determined in step S621 that the command is not an external reference command, the process proceeds to step S101.
[0109]
Since the process after step S101 is the same as FIG. 2 used when the description of the first example is performed, the description is omitted. In addition, the extension from the second example to the fifth example can be applied similarly.
[0110]
With the configuration as described above, it is possible to easily take a complicated time reservation and intermittent photographs with complicated camera angle changes with a short command.
[0111]
Here, for the sake of explanation, the control device and the external device have been described as different devices, but the two devices may be the same. In that case, the URL could be described as follows:
[0112]
"http://www.foo.co.jp/%23(httpd%3e//www.foo.co.jp/camcon-a.ctl)"
Or
"http://www.foo.co.jp/%23(camcon-a.ctl)"
Of course, if the command is stored in the external device that makes the request first, the address may be used. At that time, the second external device is unnecessary.
[0113]
<Description of Embodiment>
As described above, in the first to sixth examples, various description methods can be used, and although raw images and reserved and photographed images can be viewed with a WWW browser, more than that can be used. It is impossible to obtain information, that is, more detailed information (additional information) of a desired object in the displayed video. Therefore, this embodiment enables this.
[0114]
In order to simplify the explanation, in the present embodiment, a case will be described in which a device serving as a camera server and a client are provided on a network installed in the company. Of course, there may be a plurality of camera servers and clients.
[0115]
In general, when a network is constructed, various servers can be installed there. In particular, in recent years, attempts have been made to construct an integrated system by connecting apparatuses that have been used as stand-alone until now, such as copiers and facsimile machines, to the network.
[0116]
When a network is constructed and printing is performed by, for example, a remote print server, output of print data is completed in a very short time from the viewpoint of the client. This is because the print server spools the print data. Since the print server can receive print data from any number of clients, the print data is output to the printer in the spooled order.
[0117]
The problem here is when the print server is not in close proximity to the client. When several clients perform printing at the same time, the print data is queued, and it is often the case that another print is still performed as a result of collecting the print results. .
[0118]
In this embodiment, when a remote camera is controlled and a target printer is seen within its field of view, the status of the printer is added to the camera video as additional information and transferred to the client. It also makes it possible.
[0119]
FIG. 11 is a block diagram of the server according to the embodiment, which includes the following units.
[0120]
Reference numeral 1003 denotes a camera capable of controlling camera angles, shooting conditions, and the like. Reference numeral 1001 denotes a control device that controls the camera 1003 in response to an instruction from the external apparatus 1002 and responds to shot images, and is realized based on, for example, a personal computer.
[0121]
The control device 1001 further includes a camera control unit 1017 that controls the camera 1003 with an RS-232C interface, a video input unit 1018 that inputs a captured video of the camera 1003 with an image capture device, a network adapter, and the like. Have a communication interface unit 1011 for exchanging information, and in addition to these resources, the following units realized as programs and memory data using each resource such as a computer CPU, storage device and auxiliary storage device Have
[0122]
That is, 1012 command interpretation unit, 1013 reception code generation unit, 1015 time limit unit, 1019 image storage unit, 1014 reservation registration unit, and video processing for processing video obtained from video input unit 1018 as necessary. Part 7020. Furthermore, in the present embodiment, the anchor generation means 7031 for generating an anchor to be clicked (instructed) by the user with a pointing device such as a mouse on the display screen of the client, interprets the clicked anchor information. Anchor interpreting means 7032.
[0123]
The external device 1002 is, for example, a WWW server or a WWW browser, and performs communication using the HTTP protocol between them. That is, the WWW browser presents the information to the WWW server, which is the storage location of the document data and image data, according to the URL indicating the storage location of the target data. In response to this, the WWW server returns corresponding document data and image data to the WWW browser.
[0124]
The copier system 1007 is a copier provided with a network interface, and responds with status information of the copier at that time in response to a status information request via communication. For example, if the copier's identifier (name) is "copier_445" and printing is in progress when a status information request is received, the response including the print progress and print settings is returned as follows: To do.
[0125]
("copier_445" client: Kurosawa printing "80%" "1 copy, 23 pages, duplex"
"http: //www.foo.co,jp/netdevices/copier_445/snmp.html")
Here, “client: Kurosawa” is a client name (or ID) on the network that is the transmission source of the job currently being printed. However, kurosawa, “1 copy”, “double-sided”, and the like of the print request source depend on the print job, and “80%”, “page 23”, and the like change with time. The item of information to be returned is not limited to this, and any information may be used. For example, when there is no recording paper and recording is not possible, a message to that effect is returned.
[0126]
The copier system 1007 also functions as a normal printer or image scanner. Further, since it is impossible to return the above-mentioned state unless the total number of pages of one print job is known, a large-capacity hard disk or the like that can queue the print job is provided in the copier system 1007. An external storage device is provided. Further, when the copying machine system 1007 is constituted by a single copying machine, the external storage device described above is required. When configured, the general-purpose device manages individual jobs. Therefore, the function for managing this job is possible if there is an external storage device and a program for performing the processing, and may be provided in the apparatus 1001.
[0127]
In this configuration example, the communication interface 1011 uses a method realized by a WWW server. That is, communication is performed using the HTTP protocol, and the control device 1001 of this configuration example behaves as if it is a WWW server in the application of video data. This can be realized by using the communication method of the WWW server also in this control apparatus.
[0128]
<Explanation of procedure>
The external device 1002 requests video information by issuing the following description according to the first to sixth examples described above.
[0129]
$ (pan = 0, upto180, up10) P $ (pan) T0Z2
Here, the address of the control device 1001 corresponding to the camera 1001 requesting the video (assuming “camera_122”) is “www.camera122.foo.co.jp”, and the time zone for requesting the video is “1996”. Assuming 1:18 pm at 1 minute interval from 1:00 pm on November 11, 2011, the above request is described as follows. In practice, this is described on a single line.
[0130]
http://www.camera122.foo.co.jp/R$(pan=0,upto180,up10)1996.11.11.13.0t1996.11.11.13.18e1$(pan)T0Z2.mpg
On the other hand, the camera control device 1001 operates as follows.
[0131]
As for the given control information, as in the first to sixth examples described above, the camera is operated in accordance with it and the video information is photographed. However, when it is determined that a device such as a copying machine is within the field of view (a management table of angle information in which the copying machine exists is stored in a predetermined storage device in advance) The device is inquired about the current situation, and the description of the information is used as an anchor to compose the image captured by the camera.
[0132]
For the management for determining whether to enter the field of view, for example, a management table as shown in FIG. 17 is stored in a predetermined storage device (for example, a hard disk device or the like) and used. In this table, the first column indicates a management target (address or ID on the network) such as a copying machine or a printer. The second column shows the position where the device is located. In this example, the floor is designated indoors where the device is placed and designated by three-dimensional coordinates (unit centimeter) within the floor. The third column shows the size of the device (unit centimeter). For example, the first line shows that the device with the identifier “printer_231” is 300 centimeters in the north-south direction, 450 centimeters in the east-west direction, and 100 It is placed at a centimeter, and its size means 30 centimeters long, 80 centimeters wide, and 75 centimeters deep.
[0133]
Specifically, the command interpretation unit is expanded as described below, and video addition means 7020, anchor generation means 7031, and anchor interpretation means 7032 are added and added accordingly. This will be described with reference to the flowchart of FIG.
[0134]
First, in step S701, the control content is interpreted as follows to predict the field of view.
[0135]
First, a control item to be executed is extracted according to the control syntax of the control information. Next, the obtained control items are interpreted, the field of view when the control content is given to the camera 1003 is predicted, and whether or not a device such as a copier registered in the management table 11 is included in the field of view. judge.
[0136]
As a result of the determination, if it falls within the field of view, it communicates with the target device and obtains state information 7021. The state information 7021 is as follows, for example.
[0137]
("copier_445" client: Kurosawa printing "80%" "1 copy, 23 pages, duplex")
In step S101, the command described as the file name is interpreted. That is, if the head of the request is “P”, it is recognized as a shooting command, and the process proceeds to step S102. Here, the camera is operated with the specified pan, tilt, and zoom values via the camera control unit 1017 (S102), and the captured image is converted into the image format of the specified method.
[0138]
Thereafter, in step S702, video composition is performed. That is, the position in the video of the target device is calculated from the control information at the time of shooting the video, and an image based on the status information 7021 obtained by the previous communication is generated in the vicinity of the target device in the video. Combine the shot video with the image. The synthesis result is, for example, as shown in FIG.
[0139]
Then, it progresses to step Sstep S802 and an anchor is produced | generated. Here, a combination similar to the image map of the clickable map method generally used on the www can be used. That is, after setting the anchor interpretation means 7032 as the interpretation means when the target video is clicked,
<a href="http://www.xxx.co.jp/cgi-bin/imagemap/camera122.map">
<embed SRC = camera122.wvp.width = 290 height = 179> </ embed>
</a>
The above-mentioned video composite area is added to the management information file of the clickable map, and a “copier management page” obtained by communication with the target device is set as the link destination.
[0140]
Specifically, using the status information 7021 obtained by communication, link information of this “copier management page” is displayed.
http://www.foo.co.jp/netdevices/copier_445/snmp.html
And the area where the state information is combined (relative position in the image) is a rectangle whose upper left and lower right vertices are <15, 8> and <135, 39>, respectively, clickable map management information You can enter the following information.
[0141]
rect http://www.foo.co.jp/netdevices/copier_445/snmp.html 15,8 135,39
Thereafter, the composite result is returned to the requesting external device 1002 via the communication interface unit 1011 (step S103).
[0142]
At this time, since the communication interface unit 1011 uses the HTTP protocol, content type information, status information, and the like corresponding to the image format are added to the head. Then, this process ends.
[0143]
By doing so, the captured image is displayed as if it were image data stored in the file of the WWW server in the HTML document displayed on the client side, and When the user clicks on the combined portion with a mouse or the like, the display is switched to this “copier management page”.
[0144]
For example, if the file www.foo.co.jp/netdevices/copier_445/snmp.html is a hypertext file as shown in FIG. 19 (shown in a format that can be seen by a browser in the figure), When the client user clicks in the vicinity of the copier, the contents shown in FIG.
[0145]
In the condition determination in step S101, if the head of the request is “R”, it is recognized as a reservation command, and the process proceeds to step S105 via the condition determination in step S104. The reservation command is as described above. It starts with the letter “R”, and represents the year, month, day, hour, and minute as integers, followed by a period, and then the shooting conditions. A certain pan / tilt / zoom instruction follows, and finally a name representing the image format is given. For example, if you want to make a reservation for shooting a 3x zoom video with a pan angle of 25 degrees and a tilt angle of 0 degrees at 13:15 on July 6, 1996, the following description is used.
[0146]
<img src = "http://www.foo.co.jp/R1996.7.6.13.15P25T0Z3.gif">
When the reservation command as described above is designated, a unique identification number is received as a reception code from the reception code generation unit 1013 in step S105.
This may be realized, for example, as a counter that is incremented by 1 for each generation request, or may be realized by a numerical value that represents the time of the requested date.
Then, the reception code, reservation time, shooting conditions, and image format information are registered in the reservation registration unit 1014 (step S106), and the reception code is returned to the requesting external device 1002 via the communication interface unit 1011 (step S106). S107).
[0147]
Also at this time, content type information and status information indicating that the response content is a reception code are added to the head. Then, this process ends.
[0148]
If you simply create an HTML document that includes such a shooting reservation and try to display it with a general WWW browser, the reception code will return instead of the image data. Although it is not displayed, the reservation reservation is made to the control device 1001 by the same method as the WWW browser by the CGI program of the WWW server, and when the reception code is obtained, the reception code is designated by an image retrieval command described later. If an HTML document including an image data description is generated, when the generated document is displayed on a WWW browser, photographing is performed as reserved and the image data is displayed.
[0149]
Note that, as described above, the retrieval command also begins with the letter “G”, is followed by a reception code, and finally has a name representing the image format. This reception code is returned when a reservation is made to the external apparatus 1002.
[0150]
For example, when “12543” is returned as an acceptance code, the following description is used when an image reserved for shooting is taken out after shooting.
[0151]
<img src = "http://www.foo.co.jp/G12543.gif">
The reservation registration unit 1014 can be realized in the storage device or auxiliary storage device of the control device 1001 in the form of a table as shown in FIG. 3, for example.
[0152]
For example, in the case of the above reservation example, when the reception code is “12543”, it is recorded as shown in the first column of FIG.
[0153]
When the reservation registration is completed, a time-limit unit, which will be described later, performs photographing as instructed at the reserved time, and image data is held in the image storage unit 1019.
[0154]
The image storage unit 1019 can be realized, for example, in the storage device or auxiliary storage device of the control device 1001 in the form of a table as shown in FIG. For example, the photographing result of the above reservation example is recorded as image data in accordance with the designated format as shown in the first column of FIG. 4 together with the reception code and the image format information.
[0155]
In the condition determination in step S101, if the head of the request is “G”, it is recognized as an image extraction command, and the process proceeds to step S109 via the condition determination in steps S104 and S108, and is stored in the image storage unit 1019. Search for data.
[0156]
Then, it is determined whether or not it is stored with the same value as the reception code described as the image retrieval command (step S110). If registered, the image data is retrieved, and the request source is retrieved via the communication interface unit 1011. To the external device 1002. At this time, since the communication interface unit 1011 uses the HTTP protocol, content type information, status information, and the like corresponding to the image format are added to the head (step S111).
[0157]
In step S112, the image data that has just been extracted is stored.
The column of the image storage unit 1019 is deleted. Then, this process ends.
[0158]
If it is determined in step S110 that image data corresponding to the designated reception code is not stored, error information indicating that the target image has not been captured is returned to the requesting external device 1002 via the communication interface unit 1011 and The process ends.
[0159]
If the head of the request from the external device 1002 is not “G” in step S108, error information indicating an undefined command is returned to the requesting external device 1002 via the communication interface unit 1011. Exit.
[0160]
As described above, information is exchanged between the external device 1002 and the control device 1001 of the present invention.
[0161]
Next, the time limit unit 1015 that performs camera control, shooting, and storage of shooting results based on reservation data registered in the reservation registration unit 1014 will be described.
[0162]
In the time limit unit 1015, a time limit program is started at regular time intervals, for example, every one minute. This can be realized by using a timer of a computer.
[0163]
The operation of the timed program will be described with reference to the flowchart of FIG.
[0164]
First, the current time is read from the timer of the control device 1001 (step S201), and the process proceeds to step S202. In step S202, the reservation items registered one column at a time are extracted from the reservation registration unit 1014. If it is determined in step S203 that all the items have been extracted, the process ends. If the reserved item has been extracted, the process proceeds to step S204. When the set time in the target reservation item is in the future from the current time, the process returns to step S202 and the process is repeated. Otherwise, it is determined that the set time has come, the process proceeds to step S205, and the camera 1003 is controlled via the camera control unit 1017 according to the shooting condition of the retrieved reservation item, and shooting is performed.
[0165]
Thereafter, in step S703, video composition is performed. That is, the position of the target device in the video is calculated from the control information at the time of shooting the video, and the state information 7021 obtained by communication is synthesized in the vicinity of the target device in the video. Since the synthesis result is the same as that in step S702 described above, description thereof is omitted here. Subsequently, since the anchor generation processing in step S803 is the same as that in step S802, description thereof is also omitted. The synthesis result is as shown in FIG. 14, for example.
[0166]
Then, the synthesized image is converted into the image format of the method designated by the reservation item, and this image data is stored in the image storage unit 1019 together with the reception code and the image format information (step S206). Subsequently, the currently retrieved reservation item is deleted from the reservation registration unit 1014 (step S207), and the process returns to step S202 to repeat the process.
[0167]
As a result, photographing is performed as scheduled, the result is stored, and when an image retrieval command is requested from the external device 1002 later, this image data is returned.
[0168]
As a result of the above, the client can observe the video shot by controlling the camera of the remote camera server as well as the object registered in advance (integrated copying machine in the above example) from time to time. You can check the state that changes. On the client side, when a specific position in the displayed video is clicked, if the anchor is provided there, the content information can be viewed.
[0169]
In this embodiment, an example of synthesizing the state of the copying machine has been described. However, this is not limited to the copying machine, but may be an OA device such as a facsimile or a printer, or another AV device. May be.
[0170]
In the present embodiment, an example in which only one anchor is combined in a video has been described. However, if a plurality of pieces of information are entered in the management information of the clickable map, a plurality of anchors may be expressed in one video. You can understand what you can do. For example, the following clickable map management information is prepared.
rect http://www.foo.co.jp/netdevices/copier_445/snmp.html 15,8 135,39
rect http://www.foo.co.jp/netdevices/facsimile_28/snmp.html 20,18 55,39
rect http://www.foo.co.jp/netdevices/colorprinterr_4/snmp.html 55,21 135,39
rect http://www.foo.co.jp/netdevices/printer_266/snmp.html 15,8 135,39
Further, in the embodiment, an example in which management information is accessed in a hypertext style when a device such as a copying machine is connected to the network online, a management table as shown in FIG. 18 is prepared. In this way, the information officer can be linked more directly. That is, this is a method in which the information shown in the fourth column “link destination URL” item of the management table of FIG. 18 is directly used as the link destination of the anchor.
[0171]
It can be easily understood that another program for changing the link destination item in the fourth column in FIG. 18 at any time is prepared.
[0172]
In the embodiment, the example in which the WWW URL is overlaid with the anchor has been described, but the same applies to the case in which the other hypertext anchor is overlaid.
[0173]
<Second Embodiment>
In the second embodiment, as in the first embodiment, the camera server placed in the office gives control information such as zoom and pan / tilt from the input device, and the camera information is combined with the control information. The point of adjusting the camera and adding added value to the projected image is the same, but the image processing unit for the image is different.
[0174]
In particular, the present embodiment is different in that, when an office image to be output includes an employee's seat and the employee is absent at a meeting or the like, the meeting room image or the like is superimposed.
[0175]
In this example, as shown in FIG. 15, instead of the image processing means 7020, the anchor generation means 7031, and the anchor interpretation means 7032 of the first embodiment, an extended image processing means 7120, an extension anchor generation means 7131, an extension anchor, respectively. By using the interpreting means 7132, it is characterized in that the anchor information is directly added to the video information and sent to the client.
[0176]
The extended video processing unit 7120 is substantially the same as the video processing unit 7020, but in addition to the video information of the synthesis result, anchor information called “anchor script” generated by the extended anchor generation unit 7131 is attached and sent to the client. The point is different.
[0177]
In addition to simple interpretation of video data, the client adds a function of interpreting an anchor script received using the extended anchor interpretation unit 7132 and searching for an appropriate link destination when a click is detected. As a method for providing the extended anchor interpretation means 7132 to the client, a technique such as a plug-in or a helper application may be used.
[0178]
Further, the extended anchor generation unit 7131 generates an appropriate anchor script from the video field of view prediction obtained as a result of interpreting the control content and the position information and link destination information of each device shown in the management table of FIG.
[0179]
Hereinafter, these operations will be described.
[0180]
In order to realize the above, steps S702 and S802 in the description of the “camera control device” of the first embodiment are changed to the following steps S702 ′ and 802 ′.
Step S702 '
First, the video is synthesized according to step S702, and then the anchor script generated by the extended anchor generation means 7131 is added to the video information.
Step S802 '
First, in the same manner as in step S701, the imaging field of view is predicted from the interpretation of the control content. Next, an anchor script as shown below is generated from the predicted field of view, the position information of each device shown in the management table of FIG. 18, and the link destination information. Here, link
“Http://www.foo.co.jp/netdevices/copier_445/snmp.html”
An anchor named a1 is generated, and it is connected to rectangular areas whose top left and bottom right vertices are <15,8> and <135,39>, respectively.
<anchors>
<a href="http://www.foo.co.jp/netdevices/copier_445/snmp.html"> a1 </a>
<embed a = a1 range = 15,8 + 135,39> </ embed>
</ anchors>.
[0181]
As described above, here, by interpreting the control information given to the video input means and predicting the video taken by the video input means in advance, the video is not limited to a simple video information service, but has a higher added value. It is characterized by creating information.
[0182]
In the second embodiment, as in the first embodiment, the example of synthesizing only one anchor in the video has been described. However, the anchor list is expanded to express a plurality of anchors in one video. It will be easy to understand. For example, the following anchor script can be generated.
<anchors>
<a href="http://www.foo.co.jp/netdevices/copier_445/snmp.html"> a1 </a>
<a href="http://www.foo.co.jp/netdevices/facsimile_28/snmp.html"> a2 </a>
<a href="http://www.foo.co.jp/netdevices/colorprinter_4/snmp.html"> a3 </a>
<a href="http://www.foo.co.jp/netdevices/printer_266/snmp.html"> a4 </a>
<embed a = a1 range = 5,8 + 15,19> </ embed>
<embed a = a2 range = 20,18 + 35,39> </ embed>
<embed a = a3 range = 55,21 + 135,39> </ embed>
<embed a = a4 range = 30,30 + 135,45> </ embed>
</ anchors>.
[0183]
In the anchor script described in the present embodiment, the arrangement of the anchor in the video is specified using a two-dimensional coordinate such as “range = 15,8 + 135,39”. It is also easy to specify using. For example, as shown in FIG. 16A, the first quadrant (upper right portion) in the video display area (window) divided into four is designated as “range = 1/4”. Similarly, when the video display area is divided into nine as shown in FIG. 16B, numbers are assigned in order from the upper left area, for example, the sixth area is set to “range = 6/9”. Just decide.
[0184]
Furthermore, in the present embodiment, the method of attaching anchor information to each screen in the video has been described, but it is also possible to improve efficiency by attaching anchor information for a series of scenes. For example:
<anchors>
<a href="http://www.foo.co.jp/netdevices/copier_445/snmp.html"> a1 </a>
<a href="http://www.foo.co.jp/netdevices/facsimile_28/snmp.html"> a2 </a>
<a href="http://www.foo.co.jp/netdevices/colorprinter_4/snmp.html"> a3 </a>
<a href="http://www.foo.co.jp/netdevices/printer_266/snmp.html"> a4 </a>
<embed a = a1 scene = 132714 + 50 range = 5,8 + 15,19> </ embed>
<embed a = a2 scene = 132730 + 20 range = 20,18 + 35,39> </ embed>
<embed a = a3 scene = 132720 + 40 range = 55,21 + 135,39> </ embed>
<embed a = a4 scene = 132714 + 50 range = 30,30 + 135,45> </ embed>
</ anchors>.
[0185]
In the first and second embodiments described above, the case has been described in which an object whose state changes from moment to moment (in the embodiment, a copying machine) is displayed by remote control, but the state is fixed. For a typical object, it is not necessary to be connected to a special network and the object need not be electrically operated.
[0186]
For example, when an image in the office is displayed and a desired desk is clicked, information on the owner of the desk can be displayed.
[0187]
In the first and second embodiments, for example, when an object (copier) is placed within the field of view of the camera, the state information of the object is combined with the video and displayed, and the object is clicked. Further details of the copying machine are displayed in the above, but it may be displayed when the status information and the detailed information are clicked.
[0188]
Note that the present invention can be applied to a system (for example, a copier, a facsimile machine, etc.) composed of a single device even if it is applied to a system composed of a plurality of devices (for example, a host computer, interface device, reader, printer, etc.). May be.
[0189]
Another object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the storage medium. Needless to say, this can also be achieved by reading and executing the program code stored in.
[0190]
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
[0191]
As a storage medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
[0192]
In addition, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs the actual processing. Needless to say, a case where the function of the embodiment is realized by performing part or all of the processing, is also included.
[0193]
Further, after the program code read from the storage medium is written to the memory provided in the extension function board inserted in the computer or the function extension unit connected to the computer, the function extension is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
[0194]
【The invention's effect】
As described above, according to the present invention, it is possible not only to provide an object as a video, but also to provide a video service with higher added value such as providing a video that has been appropriately processed using the video as a material. become.
[0195]
[Brief description of the drawings]
FIG. 1 is a block configuration diagram of a system for explaining a premise part of an embodiment;
FIG. 2 is a flowchart showing operation processing contents of a command interpretation unit in FIG. 1;
FIG. 3 is a diagram illustrating an example of registration information generated by a reservation registration unit in FIG. 1;
4 is a diagram illustrating an example of information stored in an image storage unit in FIG. 1. FIG.
FIG. 5 is a flowchart showing processing contents of a time limit unit in FIG. 1;
FIG. 6 is a diagram illustrating an example of registration information generated by a reservation registration unit in the third example of the premise unit of the embodiment.
FIG. 7 is a block configuration diagram of a system in a fourth example of the premise part of the embodiment.
FIG. 8 is a flowchart illustrating processing contents of a reservation content registration unit of a fifth example of the premise unit of the embodiment.
FIG. 9 is a block diagram of a system in a sixth example of the premise part of the embodiment.
FIG. 10 is a flowchart showing an operation content of a command interpretation unit 6012 in the sixth example of the premise part of the embodiment.
FIG. 11 is a block configuration diagram of a system in the first embodiment.
12 is a flowchart showing processing contents of a command interpretation unit in FIG. 11; FIG.
FIG. 13 is a flowchart showing processing contents of an eleventh time limit unit.
FIG. 14 is a diagram showing an example of time transition of video transferred from the server in the first embodiment.
FIG. 15 is a block configuration diagram of a system according to a second embodiment.
FIG. 16 is a diagram for explaining a region designating method according to the second embodiment.
FIG. 17 is a diagram showing the contents of a management table in the embodiment.
FIG. 18 is a diagram showing a modification of the contents of the management table in the embodiment.
FIG. 19 is a diagram illustrating an example of information displayed when an anchor is clicked in the embodiment.
[Explanation of symbols]
1001 Camera control device
1002 External device
1003 Camera
1007 Copier system
1011 Communication interface
1013 Reception code generator
1014 Reservation Registration Department
1015 time period
1017 Camera control unit
1018 Image input unit
1019 Image storage unit
7012 Command interpreter
7020 Video processing department
7021 Status information
7031 Anchor generating means
7032 Anchor analysis means

Claims (9)

遠隔のクライアントからネットワークを介して受信したカメラの制御要求に従って入力したカメラからの画像を前記ネットワークを介して要求元の前記クライアントに向けて転送する映像制御装置であって、
前記ネットワークに接続された複数のネットワーク機器それぞれの位置を示す位置情報を記憶する記憶手段と、
前記クライアントからの前記カメラのアングルの制御要求を受けた場合、要求されたアングルに従って前記カメラを制御するカメラ制御手段と、
前記カメラ制御手段で前記カメラのアングルを制御する場合、前記記憶手段に記憶された各ネットワーク機器の位置情報に基づき、いずれのネットワーク機器が前記カメラの視野内に含まれるかを判断する判断手段と、
前記判断手段により前記カメラの視野内にネットワーク機器が含まれると判断された場合、該当するネットワーク機器に関する第1の情報を取得する取得手段と、
前記クライアントからのアングルの制御要求に基づき、前記カメラの視野内における前記ネットワーク機器の位置を算定し、前記カメラ制御手段の制御によって得られた撮像した画像内の前記算定した位置の近傍に、前記取得した第1の情報を示す画像を重畳し、重畳した画像に前記クライアント側で所定の指示があった場合に指示要求情報が返送されてくるように、所定の情報を組み込んで前記画像を転送する第1の転送制御手段と、
前記クライアントから前記指示要求情報の返送があった場合、前記所定の情報に応答する指示要求情報に従い、前記第1の転送制御手段によって重畳対象となった前記ネットワーク機器に関する第2の情報を前記クライアントに向けて転送する第2の転送制御手段と
を備えることを特徴とする映像制御装置。
A video control device for transferring an image from a camera input in accordance with a camera control request received from a remote client via a network toward the requesting client via the network ,
Storage means for storing location information indicating the location of each of a plurality of network devices connected to the network ;
Camera control means for controlling the camera according to the requested angle when receiving a control request for the camera angle from the client;
A determination unit for determining which network device is included in the field of view of the camera based on the position information of each network device stored in the storage unit when the camera control unit controls the angle of the camera; ,
When the determination unit determines that a network device is included in the field of view of the camera, an acquisition unit that acquires first information about the corresponding network device;
Based on the angle control request from the client, calculate the position of the network device in the field of view of the camera, in the vicinity of the calculated position in the captured image obtained by the control of the camera control means, The acquired image indicating the first information is superimposed, and the image is transferred by incorporating predetermined information so that the instruction request information is returned when the client side has a predetermined instruction on the superimposed image. First transfer control means for
If there is return of the instruction request information from the client, according to an instruction request information, the second information about the network device was a superimposition target by said first transfer control means clients responsive to said predetermined information And a second transfer control means for transferring the image to the image control device.
前記第1の転送制御手段は前記指示要求情報を発生させるためのアンカーを生成する生成手段含み、生成されたアンカー情報を前記画像と共に転送することを特徴とする請求項第1項に記載の映像制御装置。It said first transfer control means, said instruction request includes generation means information generating an anchor for generating, according anchor information generated in the first claims, characterized in that transmitted with the image Video control device. 前記第2の情報はハイパーテキストファイルであることを特徴とする請求項第1項または第2項に記載の映像制御装置。The video control apparatus according to claim 1, wherein the second information is a hypertext file. 前記第1の情報は前記ネットワーク機器の、カメラのアングルの制御要求を受けた時点での動作状態に関する情報を含み、前記第2の情報は前記ネットワーク機器の製造元を特定する情報を含むことを特徴とする請求項第1乃至3項のいずれか1項に記載の映像制御装置。The first information includes information regarding an operating state of the network device at the time of receiving a camera angle control request, and the second information includes information for specifying a manufacturer of the network device. The video control apparatus according to any one of claims 1 to 3. 遠隔のクライアントからネットワークを介して受信したカメラのアングルの制御要求に従って前記カメラを制御し、入力した前記カメラからの画像を前記ネットワークを介して要求元の前記クライアントに向けて転送する映像制御装置の制御方法であって、
前記カメラのアングルする場合、予め記憶手段に記憶された前記ネットワークに接続された複数のネットワーク機器それぞれの位置を示す位置情報に基づき、いずれのネットワーク機器が前記カメラの視野内に含まれるかを判断する判断工程と、
前記判断工程により前記カメラの視野内にネットワーク機器が含まれると判断された場合、該当するネットワーク機器に関する第1の情報を取得する取得工程と、
前記クライアントからのアングルの制御要求に基づき、前記カメラの視野内における前記ネットワーク機器の位置を算定し、前記カメラの制御によって得られた撮像した画像内の前記算定した位置の近傍に、前記取得した第1の情報を示す画像を重畳し、重畳した画像に前記クライアント側で所定の指示があった場合に指示要求情報が返送されてくるように、所定の情報を組み込んで前記画像を転送する第1の転送制御工程と、
前記クライアントから前記指示要求情報の返送があった場合、前記所定の情報に応答す 指示要求情報に従い、前記第1の転送制御工程によって重畳対象となった前記ネットワーク機器に関する第2の情報を前記クライアントに向けて転送する第2の転送制御工程と
を備えることを特徴とする映像制御装置の制御方法。
A video control device that controls the camera in accordance with a camera angle control request received from a remote client via a network and transfers an input image from the camera to the requesting client via the network . A control method,
When the camera is angled, it is determined which network device is included in the field of view of the camera based on position information indicating the position of each of a plurality of network devices connected to the network stored in the storage unit in advance. A decision process to
If it is determined by the determination step that a network device is included in the field of view of the camera, an acquisition step of acquiring first information related to the network device;
Based on the angle control request from the client, the position of the network device in the field of view of the camera is calculated, and the acquired in the vicinity of the calculated position in the captured image obtained by the control of the camera. First, an image indicating the first information is superimposed, and when the client side has a predetermined instruction on the superimposed image , the instruction request information is returned and the image is transferred by incorporating the predetermined information. 1 transfer control process;
If from the client was a return of the instruction request information, according to an instruction request information that responds to the predetermined information, the second information about the network device was a superimposition target by the first transfer control step And a second transfer control step for transferring the data to a client.
前記第1の転送制御工程は前記指示要求情報を発生させるためのアンカーを生成する生成工程含み、生成されたアンカー情報を画像情報と共に転送することを特徴とする請求項第5項に記載の映像制御装置の制御方法。It said first transfer control step, the includes a generating step of generating an anchor for generating instruction request information, wherein the anchor information generated in the fifth claims, characterized in that transmitted with image information Control method for video control apparatus. 前記第2の情報はハイパーテキストファイルであることを特徴とする請求項第5項または第6項に記載の映像制御装置の制御方法。The video control apparatus control method according to claim 5 or 6, wherein the second information is a hypertext file. 前記第1の情報は前記ネットワーク機器の、カメラのアングルの制御要求を受けた時点での動作状態に関する情報を含み、前記第2の情報は前記ネットワーク機器の製造元を特定する情報を含むことを特徴とする請求項第4乃至7項のいずれか1項に記載の映像制御装置の制御方法。The first information includes information regarding an operating state of the network device at the time of receiving a camera angle control request, and the second information includes information for specifying a manufacturer of the network device. The control method of the image | video control apparatus of any one of Claim 4 thru | or 7. コンピュータが読み込み実行することで、前記コンピュータを、遠隔のクライアントからのカメラの制御要求に従って入力したカメラからの画像をクライアントに向けて転送する映像制御装置として機能させるプログラムを格納したコンピュータ可読記憶媒体であって、
前記クライアントからの前記カメラのアングルの制御要求を受けた場合、要求されたアングルに従って前記カメラを制御するカメラ制御手段と、
前記カメラ制御手段で前記カメラのアングルを制御する場合、予め記憶手段に記憶された前記ネットワークに接続された複数のネットワーク機器それぞれの位置を示す位置情報に基づき、いずれのネットワーク機器が前記カメラの視野内に含まれるかを判断する判断手段と、
前記判断手段により前記カメラの視野内にネットワーク機器が含まれると判断された場合、該当するネットワーク機器に関する第1の情報を取得する取得手段と、
前記クライアントからのアングルの制御要求に基づき、前記カメラの視野内における前記ネットワーク機器の位置を算定し、前記カメラ制御手段の制御によって得られた撮像した画像内の前記算定した位置の近傍に、前記取得した第1の情報を示す画像を重畳し、重畳した画像に前記クライアント側で所定の指示があった場合に指示要求情報が返送されてくるように、所定の情報を組み込んで前記画像を転送する第1の転送制御手段と、
前記クライアントから前記指示要求情報の返送があった場合、前記所定の情報に応答する指示要求情報に従い、前記第1の転送制御手段によって重畳対象となった前記ネットワーク機器に関する第2の情報を前記クライアントに向けて転送する第2の転送制御手段
として機能させるプログラムを格納したことを特徴とするコンピュータ可読記憶媒体。
A computer-readable storage medium storing a program that causes a computer to function as a video control device that transfers an image input from a camera according to a camera control request from a remote client to the client when the computer reads and executes the computer There,
Camera control means for controlling the camera according to the requested angle when receiving a control request for the camera angle from the client;
When the camera control means controls the angle of the camera, based on the position information indicating the position of each of a plurality of network devices connected to the network stored in advance in the storage means, any network device is the field of view of the camera. A determination means for determining whether it is included in,
When the determination unit determines that a network device is included in the field of view of the camera, an acquisition unit that acquires first information about the corresponding network device;
Based on the angle control request from the client, calculate the position of the network device in the field of view of the camera, in the vicinity of the calculated position in the captured image obtained by the control of the camera control means, The acquired image indicating the first information is superimposed, and the image is transferred by incorporating predetermined information so that the instruction request information is returned when the client side has a predetermined instruction on the superimposed image. First transfer control means for
If there is return of the instruction request information from the client, according to an instruction request information, the second information about the network device was a superimposition target by said first transfer control means clients responsive to said predetermined information Second transfer control means for transferring to
A computer-readable storage medium storing a program that functions as a storage medium.
JP26727497A 1997-01-07 1997-09-30 Video control apparatus, control method, and storage medium Expired - Fee Related JP4035211B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP26727497A JP4035211B2 (en) 1997-09-30 1997-09-30 Video control apparatus, control method, and storage medium
US08/995,394 US6654060B1 (en) 1997-01-07 1997-12-22 Video-image control apparatus and method and storage medium
US10/679,322 US7355633B2 (en) 1997-01-07 2003-10-07 Video-image control apparatus and method with image generating mechanism, and storage medium containing the video-image control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26727497A JP4035211B2 (en) 1997-09-30 1997-09-30 Video control apparatus, control method, and storage medium

Publications (2)

Publication Number Publication Date
JPH11112857A JPH11112857A (en) 1999-04-23
JP4035211B2 true JP4035211B2 (en) 2008-01-16

Family

ID=17442567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26727497A Expired - Fee Related JP4035211B2 (en) 1997-01-07 1997-09-30 Video control apparatus, control method, and storage medium

Country Status (1)

Country Link
JP (1) JP4035211B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4878409B2 (en) * 1999-03-23 2012-02-15 キヤノン株式会社 Information control apparatus, information control method, and storage medium
JP4251591B2 (en) * 1999-09-27 2009-04-08 キヤノン株式会社 Information processing apparatus, control method therefor, and storage medium
US7249317B1 (en) 1999-09-27 2007-07-24 Canon Kabushiki Kaisha Information processing apparatus, its control method, and storage medium
JP2001128153A (en) * 1999-10-29 2001-05-11 Ricoh Co Ltd Digital camera and digital camera system
JP4776756B2 (en) * 2000-06-22 2011-09-21 三菱電機株式会社 Elevator video monitoring device
JP4747410B2 (en) * 2000-11-10 2011-08-17 ソニー株式会社 Video switching display device and video switching display method
EP1480460A4 (en) * 2002-02-28 2007-02-14 Sony Corp Camera server and image distribution method
JP4969053B2 (en) * 2005-04-14 2012-07-04 ソニーモバイルコミュニケーションズ, エービー Portable terminal device and display method
JP2010118739A (en) * 2008-11-11 2010-05-27 Sony Corp Switcher control device, switcher control method and image synthesizing apparatus

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02277103A (en) * 1988-07-18 1990-11-13 Toshiba Corp Monitor controller
JPH04148309A (en) * 1990-10-11 1992-05-21 Toshiba Corp Diagnosing device for electrical instrumentation system deterioration
JPH04196987A (en) * 1990-11-28 1992-07-16 Matsushita Electric Ind Co Ltd Moving picture access device and moving picture link editing device
JP3035391B2 (en) * 1991-09-27 2000-04-24 京セラ株式会社 Electronic still camera
JPH05314378A (en) * 1992-05-12 1993-11-26 Toshiba Corp Plant monitor device
JPH0750798A (en) * 1993-08-06 1995-02-21 Ricoh Co Ltd Electronic still camera
JP3277658B2 (en) * 1993-12-28 2002-04-22 株式会社日立製作所 Information display device
JP3513233B2 (en) * 1994-11-28 2004-03-31 キヤノン株式会社 Camera operation device
JP3441200B2 (en) * 1994-11-30 2003-08-25 株式会社東芝 Plant monitoring equipment
JPH08202435A (en) * 1995-01-25 1996-08-09 Hitachi Ltd Plant information display system, field patrol support system in the same, and portable field terminal device for the same
JPH08317374A (en) * 1995-05-18 1996-11-29 Canon Inc Network system
JPH099231A (en) * 1995-06-16 1997-01-10 Canon Inc Video conference system and camera control system
JPH0937237A (en) * 1995-07-14 1997-02-07 Nippon Telegr & Teleph Corp <Ntt> Method and device for providing video information
JPH0937230A (en) * 1995-07-21 1997-02-07 Mitsubishi Denki Eng Kk Image monitor
JPH0971240A (en) * 1995-09-07 1997-03-18 Toshiba Corp Door safety confirming system for train
JP3622801B2 (en) * 1995-11-21 2005-02-23 株式会社タツノ・メカトロニクス Lubrication monitoring device
JP3703229B2 (en) * 1995-12-19 2005-10-05 キヤノン株式会社 Camera control system and method, and storage medium

Also Published As

Publication number Publication date
JPH11112857A (en) 1999-04-23

Similar Documents

Publication Publication Date Title
US7355633B2 (en) Video-image control apparatus and method with image generating mechanism, and storage medium containing the video-image control program
US5946458A (en) Network printing system for responding to remote print-related requests
US5987226A (en) Printing system and method
US9613063B2 (en) Content transmission device, content transmission method, and content transmission program
US20020054303A1 (en) Image storing apparatus, image control apparatus, output control apparatus, information processing apparatus, system of these apparatuses, print control method therefor, and storage medium storing computer readable program realizing print control
JPWO2003085510A1 (en) Apparatus for enabling printer to print desired design page and method of operating same
JP4035211B2 (en) Video control apparatus, control method, and storage medium
US8284443B2 (en) Apparatus and system for managing form data obtained from outside system
JP3796310B2 (en) Video control apparatus, control method, and storage medium
JP2970521B2 (en) Document storage device
JPH1042279A (en) Device and method for controlling camera
JP3817313B2 (en) Camera control apparatus and method
JP2007156736A (en) Information processor and coordinated processing method
JP4533455B2 (en) Scanner and control method thereof
JP4191063B2 (en) Image processing apparatus, image processing method, and image processing program
JP2001339556A (en) Image read system, server unit, client unit, image read method and storage medium
JP4377981B2 (en) Multi-function system, input device and control method thereof
JP2008269566A (en) Printer driver program, and printer system having the same
JP2004213251A (en) Image forming apparatus capable of reusing objective data for image formation and their processing condition
JP2000172464A (en) Print system, printer, and print server
JP4172114B2 (en) Moving image printing method
JP4194173B2 (en) Management server, data processing device, output device, data processing method, and storage medium storing computer-readable program
TW513662B (en) Display control unit
JP4018700B2 (en) Imaging control method, communication apparatus, and control apparatus
JP3832988B2 (en) Multifunction system and data transfer method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040603

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040603

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20040603

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071029

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131102

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees