JP4035211B2 - Video control apparatus, control method, and storage medium - Google Patents
Video control apparatus, control method, and storage medium Download PDFInfo
- Publication number
- JP4035211B2 JP4035211B2 JP26727497A JP26727497A JP4035211B2 JP 4035211 B2 JP4035211 B2 JP 4035211B2 JP 26727497 A JP26727497 A JP 26727497A JP 26727497 A JP26727497 A JP 26727497A JP 4035211 B2 JP4035211 B2 JP 4035211B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- camera
- image
- control
- network device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は映像制御装置及び制御方法及び記憶媒体、詳しく遠隔のクライアントからの要求に従って、入力した映像をそのクライアントに向けて転送する映像制御装置及び制御方法及び記憶媒体に関するものである。
【0002】
【従来の技術】
既存のネットワークを介して遠隔にあるカメラサーバ(カメラを制御し、撮影映像をクライアントに転送する装置)に接続して、撮影された映像をクライアントから見ることができるシステムを、本願出願人は既にいくつか出願している。
【0003】
カメラサーバは、例えばパーソナルコンピュータやワークステーション等の汎用装置を用い、それにビデオキャプチャ機能を有するカード(もしくはボード)を装着し、そのカードにビデオカメラを接続した形態となる。また、クライアントがカメラサーバのカメラアングル(パン、チルト、ズーム等)を制御することを可能にするため、カメラ装置がズーム値を変更可能とするとともに、そのカメラ装置を所定の雲台に搭載させ、カメラサーバ本体からアングルを制御するための信号を所定のインタフェース(例えばパーソナルコンピュータが標準で有するシリアルインタフェース)を介してカメラ装置に出力する提案もしている。
【0004】
一方、クライアントであるが、これもパーソナルコンピュータやワークステーション等の汎用装置で構成されることになる。
【0005】
【発明が解決しようとする課題】
しかしながら、上記提案では、遠隔にあるカメラで撮影された映像を確認することはできても、表示されている個々のオブジェクトについて、そのオブジェクトの映像以上の情報を得るには至っていない。
【0006】
本発明はかかる問題点に鑑みなされたものであり、映像中のオブジェクトの詳細を確認することを可能にする映像制御装置及び制御方法及び記憶媒体を提供しようとするものである。
【0007】
【課題を解決するための手段】
この課題を解決するため、例えば本発明の映像制御装置は以下に示す構成を備える。すなわち、
遠隔のクライアントからネットワークを介して受信したカメラの制御要求に従って入力したカメラからの画像を前記ネットワークを介して要求元の前記クライアントに向けて転送する映像制御装置であって、
前記ネットワークに接続された複数のネットワーク機器それぞれの位置を示す位置情報を記憶する記憶手段と、
前記クライアントからの前記カメラのアングルの制御要求を受けた場合、要求されたアングルに従って前記カメラを制御するカメラ制御手段と、
前記カメラ制御手段で前記カメラのアングルを制御する場合、前記記憶手段に記憶された各ネットワーク機器の位置情報に基づき、いずれのネットワーク機器が前記カメラの視野内に含まれるかを判断する判断手段と、
前記判断手段により前記カメラの視野内にネットワーク機器が含まれると判断された場合、該当するネットワーク機器に関する第1の情報を取得する取得手段と、
前記クライアントからのアングルの制御要求に基づき、前記カメラの視野内における前記ネットワーク機器の位置を算定し、前記カメラ制御手段の制御によって得られた撮像した画像内の前記算定した位置の近傍に、前記取得した第1の情報を示す画像を重畳し、重畳した画像に前記クライアント側で所定の指示があった場合に指示要求情報が返送されてくるように、所定の情報を組み込んで前記画像を転送する第1の転送制御手段と、
前記クライアントから前記指示要求情報の返送があった場合、前記所定の情報に応答する指示要求情報に従い、前記第1の転送制御手段によって重畳対象となった前記ネットワーク機器に関する第2の情報を前記クライアントに向けて転送する第2の転送制御手段とを備える。
【0008】
【発明の実施の形態】
以下、本発明に係る実施形態の一例を詳細に説明する前に、その前提部分を説明する。その後で、実施形態を説明する。
【0009】
<概要の説明>
既存のネットワークを介して、遠隔にあるカメラサーバに接続されているカメラの映像を、クライアント側で見ることができ、しかも、クライアント側からそのアングル(パン、チルト、ズーム値等)を制御できる提案については、先に説明した如く、本願出願人が提案している。
【0010】
この提案の主たる特徴の1つは、世間一般に知られている監視カメラ等ではなく、汎用ネットワーク(インターネット)のプロトコルを用い、そのプロトコルの範囲内でカメラを制御するものである。
【0011】
図1は、カメラサーバ装置のブロック図であり、以下の各手段により構成される。1003はカメラアングルや撮影条件などを制御可能なカメラ、1001は外部装置1002からの指示によりカメラ1003を制御し撮影した映像を返答する制御装置であり、たとえばパーソナルコンピュータをベースに実現される。制御装置1001はカメラ1003をRS−232Cインターフェース等を介して制御信号を出力し、カメラアングルを制御するカメラ制御部1017、カメラ1003の撮影映像を画像キャプチャ装置などで入力する映像入力部1018、ネットワークアダプタ等で本装置と他の装置とが情報交換を行うための通信インターフェース部1011を有する。そして、これらの資源に加え、コンピュータのCPUや記憶装置や補助記憶装置などの各資源を利用したプログラムおよびメモリデータとして実現することで、以下の部を有する。
【0012】
すなわち、1012のコマンド解釈部、1013の受付コード生成部、1015の時限部、1019の画像記憶部、1014の予約登録部である(これらについて後述する説明から明らかになるであろう)。
【0013】
外部装置1002は、例えばWWWサーバやWWWブラウザである。外部装置1002がWWWサーバである場合には、本装置がWWWサーバの管理下に置かれることになり、WWWブラウザ(クライアント)からは、文書データやイメージデータの格納先であるWWWサーバに対して、対象とするデータの格納先が示されたURLLに従ってその情報を提示する。WWWサーバは、これに応えて、対応する文書データやイメージデータをWWWブラウザに返答する。
【0014】
また、外部装置1002がWWWブラウザである場合には、上記のWWWサーバの機能を本装置に取り込んだと解釈すれば良い。
【0015】
但し、説明を簡単にするため、外部装置1002はWWWサーバであり、それらの間をHTTPプロトコルで通信を行い、本構成例の制御装置1001は、映像データの応用では、あたかもWWWサーバとして機能する例を説明する。これは、WWWサーバの通信方法を本制御装置でも用いれば実現できる。
【0016】
一般にWWW文書中にイメージデータを貼り込む時には、以下のような記述が用いられることは周知である。
【0017】
<img src="http://www.foo.co.jp/image001.gif">
この意味は、www.foo.co.jpというWWWサーバにあるimage001.gifというファイルに格納されたイメージデータの転送を行なわせるものであるが、後段のファイル名の部分をコマンドとして解釈する。
【0018】
一例としては、カメラアングルを指定するパン、チルト、ズームは、それぞれ英字の「P」、「T」、「Z」で示し、その後に、それぞれの制御量を数字で表す。たとえば、パン角度は-50度から50度、チルト角度は、-20度から20度、ズームが1〜8の8段階を選べるカメラを有するサーバに対して、パン角度を20度、チルトを5度、2倍ズームで撮影し、gif形式の画像データとして貼り込みたい(転送してもらいたい)場合は、以下のように記述する。なお、本装置のネットワークアドレスは、cam.foo.co.jpであるとする。
【0019】
<img src="http://www.foo.co.jp/P20T5Z2.gif">
以上のような、HTML文書記述があった場合、WWWブラウザである外部装置1002は、制御装置1001に画像データの要求を行う。すなわち、通信インターフェース部1011を介して、制御装置1001に要求が入ると、コマンド解釈部1012が起動され、要求の解釈とそれに対する応答の処理が開始される。
【0020】
その処理例を図2のフローチャートに示す。まず、ステップS101で、ファイル名として記述されたコマンドを解釈する。すなわち要求の先頭が「P」であれば撮影コマンドと認識し、ステップS102に進む。ここでは、カメラ制御部1017を介し、指定されたパン、チルト、ズームの各値でカメラを操作し(ステップS102)、撮影された画像を指定された方法の画像フォーマットに変換し、通信インターフェース部1011を介して要求元の外部装置1002に返答する。
【0021】
このとき、通信インターフェース部1011では、HTTPプロトコルを用いるため、画像フォーマットに応じた内容種別情報やステータス情報等が先頭に付加される。そして、本処理を終了する。
【0022】
これにより、HTML文書に、あたかもWWWサーバのファイルに格納されたイメージデータのように撮影された映像が貼り込まれて表示されるようになる。
【0023】
ステップS101における条件判断で、要求の先頭が「R」であれば予約コマンドと認識され、ステップS104の条件判断を介し、ステップS105に進む。
【0024】
予約コマンドとは、撮影映像の取り込みを予約し、後でその撮影された映像をクライアントに転送するサービスである。この場合には、英字「R」で始まり、年、月、日、時、分をそれぞれ整数で表し、ピリオドで区切ったものが続く。そして、その後に撮影条件であるパン・チルト・ズームの指示が続き、最後には、画像フォーマットを表す名称を付ける。
【0025】
たとえば、1996年7月6日13時15分にパン角25度、チルト角0度で3倍ズームの映像をgifフォーマットで撮影予約したい場合には、以下のように記述する。
【0026】
<img src="http://www.foo.co.jp/R1996.7.6.13.15P25T0Z3.gif">
以上のような、予約コマンドが指定された場合、カメラサーバは、ステップS105において、受付コード生成部1013より、ユニークな識別番号を受付コードとして外部装置1002に転送する。これを受け取った外部装置1002は、後程、その受付コードをカメラサーバに転送することで、予約して撮影された映像を取り込むことが可能になる。受付コードは、たとえば、生成要求ごとに+1されるカウンターとして実現してもいいし、要求された年月日の時刻を表す数値によって実現してもよい。
【0027】
そして、この受付コードと予約時刻と撮影条件と画像フォーマットの情報を予約登録部1014に登録し(ステップS106)、受付コードを通信インターフェース部1011を介して要求元の外部装置1002に返答する(ステップS107)。
【0028】
なおこの時も、返答内容が受付コードであることを示した内容種別情報やステータス情報等が先頭に付加される。そして、本処理を終了する。
【0029】
単純にこのような撮影予約を含んだHTML文書を作成して、それを、一般のWWWブラウザで表示しようとした場合には、画像データの代わりに受付コードが帰ってくるだけなので、結局画像は表示されないが、WWWサーバのCGIプログラム等によって、制御装置1001に対して、撮影予約をWWWブラウザと同様の方法で行い、受付コードが得られたら、後述する画像取り出しコマンドでその受付コードを指定したイメージデータ記述を含んだHTML文書を生成すれば、この生成された文書をWWWブラウザで表示すると、予約したとおりに撮影が行われ、その画像データが表示されるようになる。
【0030】
なお、取り出しコマンドは、英字「G」で始まり、受付コードが続き、最後には、画像フォーマットを表す名称を付ける。ここの受付コードは、外部装置1002に予約を行ったときに返答されるものである。
【0031】
たとえば「12543」が受付コードとして返された時、撮影予約した画像を撮影後に取り出す時には、以下のような記述を用いる。
【0032】
<img src="http://www.foo.co.jp/G12543.gif">
予約登録部1014は、たとえば、図3のような、表の形式で制御装置1001の記憶装置や補助記憶装置中に実現することができる。たとえば、上記の予約例の場合で、受付コードが「12543」であったとき、第1欄のように記録される。
【0033】
予約登録が完了すると後述する時限部によって、予約した時刻に指示通りの撮影が行われ、画像記憶部1019に画像データが保持される。
【0034】
画像記憶部1019は、たとえば、図4のような、表の形式で、制御装置1001の記憶装置や補助記憶装置中に実現することができる。たとえば、上記の予約例の撮影結果は、受付コードと画像フォーマットの情報とともに、指定されたフォーマットに従った画像データとして、第1欄のように記録される。
【0035】
ステップS101における条件判断で、要求の先頭が「G」であれば画像取り出しコマンドであると認識し、ステップS104とステップS108の条件判断を介し、ステップS109に進み、画像記憶部1019に保存されるデータを検索する。
【0036】
そして、画像取り出しコマンドとして記述された受付コードと同じ値で格納されているかどうかを判断し(ステップS110)、登録されているならば、その画像データを取り出し、通信インターフェース部1011を介して要求元の外部装置1002に返答する。
【0037】
このときも、通信インターフェース部1011では、HTTPプロトコルを用いるため、画像フォーマットに応じた内容種別情報やステータス情報等が先頭に付加される(ステップS111)。そして、ステップS112で、いま取り出した画像データが格納されている画像記憶部1019の欄を消去する。そして、本処理を終了する。
【0038】
ステップS110で、指定された受付コードに対応する画像データが格納されていないと判断したら、対象画像が未撮影というエラー情報を通信インターフェース部1011を介して要求元の外部装置1002に返答し、本処理を終了する。
【0039】
また、ステップS108で、外部装置1002よりの要求の先頭が「G」でない場合は、未定義コマンドであるというエラー情報を通信インターフェース部1011を介して要求元の外部装置1002に返答し、本処理を終了する。
【0040】
以上のようにして、外部装置1002と本発明の制御装置1001との情報交換が行われる。
【0041】
次に、予約登録部1014に登録された予約データに基づき、カメラ制御と撮影と撮影結果の格納を行う時限部1015について説明する。
【0042】
時限部1015においては、定時間間隔、たとえば1分おきに、時限プログラムが起動される。これは、コンピュータのタイマーを利用したりすれば実現できる。時限プログラムの動作を、図5のフローチャートを用いて説明する。
【0043】
まず、現在時刻を制御装置1001のタイマーから読み出し(ステップS201)、ステップS202に進む。ステップS202では、予約登録部1014から順に一欄づつ登録された予約項目を取り出す。ステップS203で、すべて取り出し終ったと判断できたら本処理を終了し、予約項目が取り出せたなら、ステップS204に進む。対象の予約項目における設定時刻が、現在時刻より未来である時は、ステップS202に戻って処理を繰り返す。そうでない時は、設定時刻になったと判断し、ステップS205に進み、取り出した予約項目の撮影条件に従って、カメラ制御部1017を介しカメラ1003を制御し、撮影を行う。そして、撮影された画像を予約項目で指定された方法の画像フォーマットに変換し、この画像データを受付コードと画像フォーマット情報とともに画像記憶部1019に格納する(ステップS206)。 続いて、現在取り出した、予約項目を予約登録部1014から消去し(ステップS207)、ステップS202に戻って処理を繰り返す。
【0044】
これにより、予約通りの撮影が行われ、その結果が保管され、後に、画像取り出しコマンドが外部装置1002から要求されると、この画像データが返答されることになる。
【0045】
以上のように、カメラ制御装置をWWWシステムのネットワークに接続し、カメラ制御装置のアドレスにカメラの撮影条件の記述を加えたURLをイメージデータのソースとして記述するだけで、簡単に遠隔のカメラを操作したライブ画像(すなわち、今現在の映像)をWWW文書中に貼り込むことが可能になる。なお、これだけを実現するには、1013の受付コード部、時限部1015、画像記憶部1019、予約登録部1014のそれぞれは、不要であり、コマンド解釈部1012のステップS104以降のステップは不要である。
【0046】
また、時限部1015、画像記憶部1019、予約登録部1014を設けたことにより、WWWサーバのCGIプログラムなどを利用すれば、カメラ撮影の予約を行い、その結果を後刻WWWページに取り込んで表示を行うことが可能になる。特に、ネットワークが混雑するような時間帯に遠隔のカメラで撮影しようとしても、画像の転送に時間がかかり、思うように画像データを収集できないが、本構成例によれば、その時間帯でそれぞれ特定のカメラアングルで必要な時刻分だけあらかじめ予約を行っておき、夜間等、ネットワークがすいた時に、蓄積された画像データを取り出して利用することができるようになる。
【0047】
特に、同一カメラアングルで、短い間隔で複数枚の画像を撮影することが、ネットワークの伝送容量の大きさに関わらず可能となる。
【0048】
もちろん、ここでは、外部装置1002とのインターフェースをHTTPプロトコルとして説明したが、どういう通信インターフェースを用いても構わない。
【0049】
なお、本構成例では、予約に対する撮影データを同定するために受付コードを用いたが、受付コード発生部を用いずに、画像要求する外部装置1002側で、ユニークな要求番号を生成し、予約コマンドの一部として要求を行い、制御装置では、外部装置1002と要求番号との組みにより、対象となる画像データを同定する方法を用いてもよい。
【0050】
また、予約時刻は分単位としたが、秒単位やミリ秒単位まで拡張しても構わない。
【0051】
また、画像フォーマットは、gifを例に挙げたが、JPEGをjpgというファイルエクステンションで表現し、どちらかを切り替えられるようにしてもよいし、それ以外のファイル形式を採用しても構わない。
【0052】
また、ファイル名をコマンドとみなしたが、URLのパラメータ記述を利用してもよい。たとえば、パン、チルト、ズーム、画像フォーマットをそれぞれ、25度、5度、2倍、gifとしたとき、以下のように記述するようにしてもよい。
【0053】
<img src="http://cam.foo.co.jp/cameraimage?P=20,T=5,Z=2,F=gif">
また、本制御装置にWWWサーバを同時に実装してもよい。その場合には、たとえば、WWWサーバのCGIプログラムとしてコマンド解釈部1012のプログラムにcamctl.exeなる名称をつけ、以下のような記述を行うことで、実現できる。
【0054】
<img src="http://cam.foo.co.jp/cgi-bin/camctl.exe?P=20,T=5,Z=2,F=gif">
<第2例>
上記構成例(第1例)では、一度に一画像しかカメラ撮影予約ができなかった。本構成例(第2例)においては、予約コマンドを「+」で複数個結合してできたファイル名に画像フォーマットを表すファイルエクステンションを付加して、一度に複数の時刻やカメラアングルの予約を可能にする。
【0055】
たとえば、1996年7月6日13時15分と30分と45分にパン角25度チルト角0度で3倍ズームで撮影し、3枚の画像をgifフォーマットで後に取り出す場合には、以下のように記述する。
【0056】
<img src="http://www.foo.co.jp/R1996.7.6.13.15P25T0Z3+R1996.7.6.13.30P25T0Z3+R1996.7.6.13.45P25T0Z3.gif">
ここで、「"」と「"」とで囲まれている文字列が2行以上にまたがって表示されているかもしれないが、実際の記述は、改行を含まない、一行で記述する。
【0057】
なお、日時や時間が同じであったり、カメラアングルが同じである場合は、それらを省略可能してももよい。その場合は、上記と同じ予約を以下のように記述できる。
【0058】
<img src="http://www.foo.co.jp/R1996.7.6.13.15P25T0Z3+R....30+R....45.gif">
本第2例は、第1例と以下の変更点を除き同一である。
【0059】
すなわちコマンド解釈部1012が、そのプログラムのステップS106とテップS111とステップS112とを、上記のような記述を解釈できるようにすることである。
【0060】
すなわち、ステップS106では、要求されたコマンドはひとつと限定せず、「+」で結合された複数の予約コマンドとして解析し、ステップS105で生成された予約コードと画像フォーマット情報は同一にして、それぞれの予約コマンドで指定された予約時刻と撮影条件を、複数の予約として予約登録部1014に登録する。
【0061】
一方、ステップS111では、同じ予約コードで登録されている複数の画像データを取り出し、あらためて、複数枚の画像データが含まれるひとつの画像データとしてフォーマットし直し、通信インターフェース部1011を介して要求元の外部装置1002に返答する。このときも、通信インターフェース部1011では、HTTPプロトコルを用いるため、画像フォーマットに応じた内容種別情報やステータス情報等が先頭に付加される。
【0062】
ステップS112では、取り出した複数の画像データに関して、それぞれに対応する画像記憶部1019の欄を消去する。
【0063】
以上のように構成することにより、一度に多くの予約ができ、それらを複数枚の画像からなるひとつの画像データとしてまとめて取り扱うことが可能になり、それぞれの画像データごとに対応する複数の受付コードを管理する手間が省ける。
【0064】
また、植物の成長記録等、間欠写真撮影などに適用すると、複数枚の撮影画像がひとつの画像データに納まる疑似動画として取り扱うことも可能になる。
【0065】
<第3例>
上記第2例では、同一のカメラアングルで同一時間間隔で間欠撮影する場合にも、撮影する数だけ予約コマンドを連結して指定しなければならない。本3例においては、予約コマンドの時刻指定の直後に、終了時刻と間欠時間を付加し、その後にカメラアングル等の撮影条件や画像フォーマットを指定するようにする。終了時刻は、「t」に続き時刻を指定し、間欠時間は「e」に続き分単位の時間を指定する。
【0066】
たとえば、1996年7月6日13時15分と30分と45分(つまり、15分間隔)にパン角25度チルト角0度で3倍ズームで撮影し、3枚の画像をgifフォーマットで後に取り出す場合には、以下のように記述する。
【0067】
<img src="http://www.foo.co.jp/R1996.7.6.13.15t1996.7.6.13.45e15P25T0Z3.gif">
ここで、「"」と「"」とで囲まれている文字列が2行以上にまたがって表示されているかもしれないが、実際の記述は、改行を含まない、一行で記述する。
【0068】
もちろん、この場合も終了時刻の日時や時間が同じであった場合は、省略可能としてもよい。その場合は、上記と同じ予約を以下のように記述できる。
【0069】
<img src="http://www.foo.co.jp/R1996.7.6.13.15t....45e15P25T0Z3.gif">
本第3例の基本構成は、第1例と以下の変更点を除き同じである。
【0070】
すなわちコマンド解釈部1012が、そのプログラムのステップS106とステップS111とステップS112とをそれぞれ、上記の記述を解釈できるようにする点である。
【0071】
ただし、このときの、予約登録部1014は、その管理テーブルの構成が図6のようにする必要はある。つまり、図示の如く、間欠時間の項目を必要とすることになる。
【0072】
そして、ステップS106では、要求された予約コマンドが、終了時刻と間欠時刻を持つ形であったら、予約時刻を撮影時刻として、受付コード、撮影条件、画像フォーマットとともに、予約登録部1014に登録する。要求された予約コマンドが単純な予約であり、終了時刻と間欠時刻を持たなかったら、終了時刻は撮影時刻と同じにし、間欠時刻は1に設定する。
【0073】
また、ステップS111では、同じ予約コードで登録されている複数の画像データを取り出し、あらためて、複数枚の画像データが含まれるひとつの画像データとしてフォーマットし直し、通信インターフェース部1011を介して要求元の外部装置1002に返答する。
このときも、通信インターフェース部1011では、HTTPプロトコルを用いるため、画像フォーマットに応じた内容種別情報やステータス情報等が先頭に付加される。また、ステップS112では、取り出した複数の画像データに関して、それぞれに対応する画像記憶部1019の欄を消去する。
【0074】
一方、時限部3015においては、ステップS3207では、取り出した予約項目の間欠時間を撮影時刻に加えたもので、登録された予約情報を更新し、撮影時刻が終了時刻より未来になったらこの項目を、予約登録部2014から消去する。
【0075】
以上のように構成することで、間欠写真が短いコマンドで、簡単に取れるようになる。
【0076】
特に、長期間に渡って間欠写真を取る場合、第2例のような方法だと、コマンドが非常に長くなり、実質的には実現できなくなる場合が多いが、本構成例によれば、画像データを蓄積する記憶装置の記憶量さえ充分に用意すれば実現できるようになる。
【0077】
<第4例>
第3例では、間欠撮影した結果を複数枚の静止画データとして取り出す形態を取ったが、本構成例では、動画データとして取り出す形態も付加する。
【0078】
動画データとして取り出す時には、ファイルエクステンションを「mpg」にする。たとえば以下のように記述する。
【0079】
<img src="http://www.foo.co.jp/R1996.7.6.13.15t....45P25T0Z3.mpg">
本構成例の基本構成は図7に示す通りである。これは、第3例と以下の変更点を除き同じである。すなわちMPEG1圧縮装置等の動画像圧縮部2021が追加される点と、コマンド解釈部3012が上記コマンドを解釈実行できるようにした点である。
【0080】
たとえば、ステップS111のところでは、画像フォーマット指定がjpgやgif等の静止画フォーマットであれば、同じ予約コードで登録されている複数の画像データを取り出し、あらためて、複数枚の画像データが含まれるひとつの画像データとしてフォーマットし直し、通信インターフェース部1011を介して要求元の外部装置1002に返答する。また、画像フォーマットがmpgと指定されていたら、同じ予約コードで登録されている複数の画像データを取り出しそれぞれの画像を復元し、動画像圧縮部2021に引渡して圧縮をかけ、その結果の動画像データを通信インターフェース部1011を介して要求元の外部装置1002に返答する。
【0081】
このときも、通信インターフェース部1011では、HTTPプロトコルを用いるため、画像フォーマットに応じた内容種別情報やステータス情報等が先頭に付加される。
以上のように構成することにより、画像フレーム間の関連を用いた圧縮が行われ、特に、余り変化のない間欠写真などでは、大幅な画像データ圧縮が行われるため、後に画像データを取り出す時の通信量を削減でき、通信時間を大幅に短縮することが可能になる。
【0082】
<第5例>
第3例では、撮影するカメラアングルは同一のものであったが、本第5例においては、予約コマンドの時刻指定の直前に、制御変数の定義を付加し、その後に時刻指定、その後にカメラアングル等の撮影条件や画像フォーマットを指定した繰り返し撮影が出来るようにする。時刻指定と撮影条件に制御変数の参照を指定できるようにしようとするのである。
【0083】
制御変数の定義は
「$(」ではじまり、定義本体があって、「)」で終る。
【0084】
定義本体には2つの書き方がある。1つは初期値と終値、増分を指定する方法で、増分が正か負かに依って更に2つの書き方に分かれる。また別の書式は制御変数のとる値を全て書き下す書き方である。
【0085】
すなわち
$(<制御変数>=初期値,upto終値,up増分)
$(<制御変数>=初期値,downto終値,down増分)
または
$(<制御変数>=値1,値2,値3,値4,...値n)
である。
【0086】
ここで<制御変数>は英文字1文字以上からなる文字列で、制御変数の識別子である。
【0087】
制御変数の参照は
「$(」ではじまり、参照本体があって、「)」で終る。参照本体は制御変数を含む4則演算式である。
【0088】
たとえば、1996年7月6日13時15分になったら
パン角25度チルト角0度で3倍ズーム、
パン角30度チルト角0度で3倍ズーム、
パン角35度チルト角0度で3倍ズーム、
で撮影(実際にはアングルを変更するわけであるから、これらの間でタイムラグは発生する)し、3枚の画像をgifフォーマットで後に取り出す場合には、以下のように記述する。
【0089】
"http://www.foo.co.jp/R$(pan=25,upto35,up5)1996.7.6.13.15P$(pan)T0Z3.gif"
又は
"http://www.foo.co.jp/R$(pan=0,upto10,up5)1996.7.6.13.15P$(pan+25)T0Z3.gif"
又は
"http://www.foo.co.jp/R$(pan=35,downto25,down5)1996.7.6.13.15P$(pan)T0Z3.gif"
又は
"http://www.foo.co.jp/R$(pan=25,30,35)1996.7.6.13.15P$(pan)T0Z3.gif"
ここで、「"」と「"」とで囲まれている文字列が2行以上にまたがって表示されているかもしれないが、実際の記述は、改行を含まない、一行で記述する。
【0090】
本構成例は、第2例と比較し、コマンド解釈部2012内で上記の記述を解釈できるようにする点で異なるものの、その他は同じである。
【0091】
例えば、ステップS106の内部を示すと図8のようになる。
【0092】
「R」の次の文字が$である場合これは制御変数の定義であるので、第5例の予約コマンドとなる。ステップS501で「$(」で始まり「)」で終る1つの制御変数定義を取得し、ステップS502で全ての定義を取り出したかを検査する。制御変数定義を全て取り出した後ステップS503で制御変数に初期値を束縛する。
【0093】
ステップS504でコマンドの残りの部分をスキャンし「$(」で始まり「)」で終る制御変数参照を検索し全ての参照を束縛されている値で置き換える。ステップS506でこの結果の文字列を先に述べた繰り返し撮影の予約コマンドとして解析し、ステップS105で生成された予約コードと画像フォーマット情報は同一にしてそれぞれの予約コマンドで指定された予約時刻と撮影条件を、複数の予約として予約登録部1014に登録する。これを制御変数が全て終値になるまで繰り返す。
【0094】
以上のように構成することで、カメラアングルを変化させた間欠写真が短いコマンドで、簡単に取れるようになる。
【0095】
また、説明では制御変数の定義を1つだけ使ったが、この定義は複数書くことが出来、その場合定義は入れ子になる解釈をするものとする。
【0096】
なお、本構成例では、繰り返し構文の導入について説明したが、同様にして、条件判断構文や変数定義、変数代入や四則演算などの構文を導入することもできる。
【0097】
すなわち、コマンド解釈部をプログラムインタプリタとして実現し、URLの内容をプログラムとしてみなして保持し、解釈実行させるようにできる。このようにすると、複雑なカメラ制御等も自動的に実行できるようになる。
【0098】
<第6例>
第5例では、撮影するカメラアングルの指定は全て同じURLに記述しなくてはならない。本第6例においては、予約コマンドの一部をマクロライブラリとして別に登録しておくことが出来るようにする。時刻指定と撮影条件を記述したデータを外部装置に格納しておく例で説明する。
【0099】
説明のためたとえば、1996年7月6日13時から以下のカメラアングルに1分毎に順に変化させ撮影を行うことを想定する。
【0100】
パン角25度チルト角0度で3倍ズーム、
パン角30度チルト角0度で3倍ズーム、
パン角35度チルト角0度で3倍ズーム、
パン角35度チルト角1度で4倍ズーム、
パン角30度チルト角2度で4倍ズーム、
パン角35度チルト角3度で5倍ズーム、
パン角35度チルト角4度で5倍ズーム、
パン角35度チルト角5度で6倍ズーム、
パン角35度チルト角5度で7倍ズーム、
パン角35度チルト角5度で8倍ズーム
これを指示するコマンドを、第2の外部装置
http://www.bar.co.jp/camcon-a.ctl
に格納しておく。
【0101】
これは、たとえば、以下のようになる。
【0102】
R1996.7.6.13.0P25T0Z3+R1996.7.6.13.1P30T0Z3+R1996.7.6.13.2P35T0Z3+R1996.7.6.13.3P35T1Z4+R1996.7.6.13.4P35T2Z4+R1996.7.6.13.5P35T3Z5+R1996.7.6.13.6P35T4Z5+R1996.7.6.13.3P35T5Z6+R1996.7.6.13.4P35T5Z7+R1996.7.6.13.3P35T5Z8.gif
これを利用するため制御装置に与えるコマンドは「%23(」で始まり、URLが引続き、「)」で終る外部参照コマンドである。例を示すと次の通りである。
【0103】
"http://www.foo.co.jp/%23(httpd%3e//www.bar.co.jp/camcon-a.ctl)"
この場合、www.bar.co.jpが上記の第2の外部装置に相当することになる。つまり、カメラサーバwww.foo.co.jpに対して、www.bar.co.jp/camcon-a.ctlに記述された内容に従って制御を依頼するという意味にである。camcon-a.ctlには上記の“R1996…”の記述が格納されていることになる。
【0104】
本第6例を図9に示す。第5例と比較すると、コマンド解釈部6012が、上記のコマンドを解釈できるようになっている点が異なり、その他は実質的に同じである。
【0105】
コマンド解釈部6012の動作を図10にしたがって説明する。
【0106】
ステップS621で、ファイル名として記述されたコマンドを解釈する。要求の先頭が「%23」であれば外部参照コマンドと認識し、ステップS622に進む。ステップS622では、そして、「(」と「)」にはさまれた部分を、コマンドが記述されて格納されたファイルの指定のURLとみなし、URLにしたがって要求を送る。以上の例では、第2の外部装置1004に要求を出すことになる。そして、ステップS623で、返答を待つ。
【0107】
返答は、たとえば、上記のような、長い予約コマンドが返されることになる。
ここで解釈した外部参照コマンドをこれに置き換えるようにして展開し、以降のコマンド解釈に適用できるようにする(ステップS624)。そして、ステップS101に進む。
【0108】
また、ステップS621で、外部参照コマンドではなかった場合もステップS101に進む。
【0109】
ステップS101以降の処理は、第1例の説明を行った時に用いた図2と同じであるので、説明は割愛する。なお、それぞれ、第2例から第5例への拡張も同様に適用できる。
【0110】
以上のように構成することで、複雑な時間予約やカメラアングルを複雑に変化させた間欠写真が短いコマンドで、簡単に取れるようになる。
【0111】
ここでは説明のために、制御装置と外部装置を異なる装置のように説明したが、この2つの装置が同じであってもよい。その場合、URLは以下のように記述できよう。
【0112】
"http://www.foo.co.jp/%23(httpd%3e//www.foo.co.jp/camcon-a.ctl)"
又は
"http://www.foo.co.jp/%23(camcon-a.ctl)"
もちろん、最初に要求をかける外部装置にコマンドが格納されているならば、そのアドレスを用いればよい。その時は、第2の外部装置は不要である。
【0113】
<実施形態の説明>
以上説明したように、第1〜第6例は、その記述法には様々なものが使用でき、生の映像や予約して撮影済みの映像をWWWブラウザで見ることができるものの、それ以上の情報、すなわち、表示された映像中の所望とするオブジェクトのより詳しい情報(付加情報)を得ることはできない。そこで、本実施形態ではこれを可能にする。
【0114】
説明を簡単にするため、本実施形態では、社内に設置されたネットワーク上に上記のようなカメラサーバとなる装置と、クライアントが設けられている場合を説明する。なお、カメラサーバとクライアントはそれぞれ複数あっても良いのは勿論である。
【0115】
一般に、ネットワークを構築する場合、そこには様々なサーバを設置することが可能である。特に、近年では、それまでスタンドアロンとして使用してきた装置、例えば、複写機やファクシミリ装置等もネットワーク上に接続することで、統合化システムを構築する試みがなされている。
【0116】
ネットワークを構築して、例えば遠隔にあるプリントサーバでもって印刷させようとすると、クライアントから見れば、印刷データの出力はごく短時間で完了する。これはプリントサーバが、印刷データをスプールしてしまうからである。プリントサーバは、いくつものクライアントから印刷データを受信することも可能であるので、スプールした順番に印刷データをプリンタに出力することになる。
【0117】
ここで問題になるのは、プリントサーバがクライアントのごく近い場所にない場合である。いくつものクライアントが同時に印刷処理を行なうと、印刷データはキューされることになり、印刷結果を取りに行った結果、未だ別の印刷を行なっている、という事態が往々にして良くあるものである。
【0118】
本実施形態では、遠隔にあるカメラを制御して、その視野内に目的とするプリンタを見た場合に、そのプリンタの状況を付加情報としてカメラ映像に付加させ、それをクライアントに向けて転送することをも可能にする。
【0119】
図11は実施形態のサーバのブロック図であり、以下の各部により構成される。
【0120】
1003はカメラアングルや撮影条件などを制御可能なカメラ、1001は外部装置1002からの指示によりカメラ1003を制御し撮影した映像を返答する制御装置であり、たとえばパーソナルコンピュータをベースに実現される。
【0121】
制御装置1001はさらに、カメラ1003をRS−232Cインターフェース等で制御するカメラ制御部1017、カメラ1003の撮影映像を画像キャプチャ装置などで入力する映像入力部1018、ネットワークアダプタ等で本装置と他の装置とが情報交換を行うための通信インターフェース部1011を有し、これらの資源に加え、コンピュータのCPUや記憶装置や補助記憶装置などの各資源を利用したプログラムおよびメモリデータとして実現される以下の部を有する。
【0122】
すなわち、1012のコマンド解釈部、1013の受付コード生成部、1015の時限部、1019の画像記憶部、1014の予約登録部,映像入力部1018から得られた映像を必要に応じて加工する映像加工部7020である。また、更に、本実施形態ではクライアントの表示画面をユーザがマウス等のポインティングデバイスでクリックされる(指示される)対象となるアンカーを生成するためのアンカー生成手段7031、クリックされたアンカー情報を解釈するアンカー解釈手段7032とを備える。
【0123】
外部装置1002は、たとえば、WWWサーバやWWWブラウザであり、これらの間は、HTTPプロトコルで通信を行う。すなわち、WWWブラウザからは、文書データやイメージデータの格納先であるWWWサーバに対して、対象とするデータの格納先が示されたURLに従ってその情報を提示する。WWWサーバは、これに応えて、対応する文書データやイメージデータをWWWブラウザに返答する。
【0124】
複写機システム1007は、ネットワークインターフェースを備えた複写機であり、通信を介した状態情報要求に応じて、その時の複写機の状態情報を返答する。例えば、この複写機の識別子(名前)が,"copier_445"であり、状態情報要求を受けた際にプリント中であるならば,そのプリント進行状況やプリント設定などを含めて、以下のように返答する。
【0125】
("copier_445" クライアント:Kurosawa 印刷中 "80%" "1部,23ページ,両面"
"http://www.foo.co,jp/netdevices/copier_445/snmp.html")
ここで、“クライアント:Kurosawa”は、現在印刷しているジョブの発信元であるネットワーク上のクライアント名(もしくはID)である。ただし、印刷依頼元のkurosawaや、“1部”、“両面”等はその印刷ジョブに依存するものであり、“80%”や“23ページ”などは時間ととも変化するものである。また、返答する情報の項目もこれに限らず、如何なる情報であっても良い。例えば、記録紙がなくなって記録できない状態にある場合には、その旨をメッセージを返答する。
【0126】
なお、この複写機システム1007は、通常のプリンタやイメージスキャナとしても機能するものである。また、上記の状態を返すためには、1つの印刷ジョブの全体のページ数がわからないと不可能であるので、複写機システム1007内には、プリントジョブをキューできる程度の大容量のハードディスク等の外部記憶装置を備えている。また、複写機システム1007は、単独の複写機で構成する場合には、上記の外部記憶装置が必要であるが、例えばパーソナルコンピュータ等の汎用装置と印刷、複写、イメージ読み取りの機能のみの装置で構成される場合には、その汎用装置が個々のジョブを管理することになる。従って、このジョブを管理する機能は、外部記憶装置とその処理を行なうためのプログラムがあれば可能であるので、本装置1001内に設けても構わない。
【0127】
さて、本構成例では、通信インターフェース1011は、WWWサーバで実現されている方式を用いる。すなわち、HTTPプロトコルで通信を行い、本構成例の制御装置1001は、映像データの応用では、あたかもWWWサーバのようにふるまう。これは、WWWサーバの通信方法を本制御装置でも用いれば実現できる。
【0128】
<手順の説明>
外部装置1002は、先に説明した第1〜第6例に従い、以下のような記述を発行する事により、映像情報を要求する。
【0129】
$(pan=0,upto180,up10)P$(pan)T0Z2
ここで、映像を要求するカメラ1001(仮に"camera_122"とする)に対応する制御装置1001のアドレスを「www.camera122.foo.co.jp」とし、また、映像を要求する時間帯を"1996年11月11日の午後1時0分から1分間隔で午後1時18分"とすると、上記の要求は以下のように記述される。実際には,これが一行で記述される。
【0130】
http://www.camera122.foo.co.jp/R$(pan=0,upto180,up10)1996.11.11.13.0t1996.11.11.13.18e1$(pan)T0Z2.mpg
一方、カメラ制御装置1001は以下のように動作する。
【0131】
与えられた制御情報については、先に説明した第1〜第6例と同様に、それに則ってカメラを動作させ、映像情報を撮影する。ただし、視野内に複写機などの機器が入ると判定された場合(予め複写機の存在するアングル情報の管理表を所定の記憶装置に記憶させておく)、その機器の状態を取り出すべく、その機器に対して、現在の状況を問い合わせ、その情報の説明をアンカーとしてカメラで撮影された映像に合成する。
【0132】
視野内に入るか否かの判定のための管理は例えば、図17に示すような管理テーブルをあらかじめ所定の記憶装置(例えばハードディスク装置等)に格納しておき、これを用いる。このテーブルにおいて、第1のカラムは複写機やプリンタなどの管理対象(ネットワーク上のアドレス、もしくはID)を示す。第2のカラムは、その機器が配置されている位置を示す。この例では、機器が配置される屋内でのフロア指定とそのフロア内での3次元座標(単位センチメートル)によって指定している。そして、第3のカラムでは、その機器の大きさを示している(単位センチメートル)。例えば,先頭行は、「printer_231」という識別子の機器が、建物の4階の北側フロアのフロアの中心を原点座標として、南北方向に300センチメートル,東西方向に450センチメートル、そして、床から100センチメートルの所に配置され、その大きさは,縦30センチメートル、横80センチメートル、奥行75センチメートルである事を意味する。
【0133】
具体的には、下記のようにコマンド解釈部を拡張し、それに合わせて、映像加手段7020、アンカー生成手段7031、アンカー解釈手段7032を追加して追加している。これを図12のフローチャートを用いて説明する。
【0134】
まず、ステップS701で、以下のように制御内容の解釈を行ない、撮影視野を予測する。
【0135】
まず、制御情報の制御構文にしたがい、実行すべき制御項目を取り出す。次に、得られた制御項目を解釈し、カメラ1003に制御内容を与えた場合の視野を予測し、その視野内に、管理表11内に登録された複写機などの機器が入るか否か判定する。
【0136】
判定の結果、視野内に入るようならば、対象機器と通信し、状態情報7021を得る。状態情報7021は、例えば、以下の通りである。
【0137】
("copier_445" クライアント:Kurosawa 印刷中 "80%" "1部,23ページ,両面")
つづいて、ステップS101で、ファイル名として記述されたコマンドを解釈する。すなわち要求の先頭が「P」であれば撮影コマンドと認識し、ステップS102に進む。ここでは、カメラ制御部1017を介し、指定されたパン、チルト、ズームの各値でカメラを操作し(S102)、撮影された画像を指定された方法の画像フォーマットに変換する。
【0138】
その後、ステップS702で、映像合成を行なう。すなわち、映像を撮影した際の制御情報から対象機器の映像内の位置を計算し、映像内の対象機器の近傍に、先の通信によって得られた状態情報7021に基づく画像を生成し、それを撮影映像と画像合成する。合成結果は、例えば、図14の通りである。
【0139】
続いて、ステップSステップS802に進み、アンカーを生成する。ここでは、wwwで一般的に利用されているクリッカブルマップ手法のimagemapと同様の組み合わせを利用できる。すなわち、対象映像をクリックした場合の解釈手段としてアンカー解釈手段7032を以下のように設定した上で、
<a href="http://www.xxx.co.jp/cgi-bin/imagemap/camera122.map">
<embed SRC=camera122.wvp. width=290 height=179></embed>
</a>
そのクリッカブルマップの管理情報ファイルに、上記の映像合成したエリアを追加し、そのリンク先として対象機器との通信によって得られる「複写機管理ページ」を設定する。
【0140】
具体的には、通信によって得られた状態情報7021を使って、この「複写機管理ページ」のリンク情報を
http://www.foo.co.jp/netdevices/copier_445/snmp.html
とし、且つ状態情報を映像合成したエリア(映像内での相対位置)を、左上と右下の頂点がそれぞれ<15,8>と<135,39>からなる矩形とすると、クリッカブルマップの管理情報に以下のような情報を記入すればよい。
【0141】
rect http://www.foo.co.jp/netdevices/copier_445/snmp.html 15,8 135,39
その後、合成結果を通信インタフェース手段1011を介して要求元の外部装置1002に返答する(ステップS103)。
【0142】
このとき、通信インタフェース手段1011では、HTTPプロトコルを用いるため、画像フォーマットに応じた内容種別情報やステータス情報等が先頭に付加される。そして、本処理を終了する。
【0143】
以上のようにすることで、クライアント側で表示するHTML文書に、あたかもWWWサーバのファイルに格納されたイメージデータであるかのように、撮影された映像が張り込まれた状態で表示され、且つ、ユーザが合成部分をマウス等でクリックした場合には、この「複写機管理ページ」に表示を切り替えるようになる。
【0144】
例えば、上記のwww.foo.co.jp/netdevices/copier_445/snmp.htmlというファイルは、図19に示すようなハイパーテキストファイル(図示では、ブラウザで見える形式で示している)にしておけば、クライアントのユーザが複写機近傍をクリックすることで同図の内容が表示されるようになる。
【0145】
ステップS101における条件判断で、要求の先頭が「R」であれば予約コマンドと認識され、ステップS104の条件判断を介し、ステップS105に進む。予約コマンドは、先に説明した通りであって、英字「R」で始まり、年、月、日、時、分をそれぞれ整数で表し、ピリオドで区切ったものが続く、そして、その後に撮影条件であるパン・チルト・ズームの指示が続き、最後には、画像フォーマットを表す名称を付ける。たとえば、1996年7月6日13時15分にパン角25度、チルト角0度で3倍ズームの映像をgifフォーマットで撮影予約したい場合には、以下のように記述する。
【0146】
<img src="http://www.foo.co.jp/R1996.7.6.13.15P25T0Z3.gif">
以上のような、予約コマンドが指定された場合、ステップS105では、受付コード生成部1013より、ユニークな識別番号を受付コードとして受け取る。
これは、たとえば、生成要求ごとに+1されるカウンターとして実現してもいいし、要求された年月日の時刻を表す数値によって実現してもよい。
そして、この受付コードと予約時刻と撮影条件と画像フォーマットの情報を予約登録部1014に登録し(ステップS106)、受付コードを通信インターフェース部1011を介して要求元の外部装置1002に返答する(ステップS107)。
【0147】
なお、この時も、返答内容が受付コードであることを示した内容種別情報やステータス情報等が先頭に付加される。そして、本処理を終了する。
【0148】
単純にこのような撮影予約を含んだHTML文書を作成して、それを、一般のWWWブラウザで表示しようとした場合には、画像データの代わりに受付コードが帰ってくるだけなので、結局画像は表示されないが、WWWサーバのCGIプログラム等によって、制御装置1001に対して、撮影予約をWWWブラウザと同様の方法で行い、受付コードが得られたら、後述する画像取り出しコマンドでその受付コードを指定したイメージデータ記述を含んだHTML文書を生成すれば、この生成された文書をWWWブラウザで表示すると、予約したとおりに撮影が行われ、その画像データが表示されるようになる。
【0149】
なお、取り出しコマンドは、先に説明したように、やはり、英字「G」で始まり、受付コードが続き、最後には、画像フォーマットを表す名称を付ける。ここの受付コードは、外部装置1002に予約を行ったときに返答されるものである。
【0150】
たとえば「12543」が受付コードとして返された時、撮影予約した画像を撮影後に取り出す時には、以下のような記述を用いる。
【0151】
<img src="http://www.foo.co.jp/G12543.gif">
予約登録部1014は、たとえば、図3のような、表の形式で制御装置1001の記憶装置や補助記憶装置中に実現することができる。
【0152】
たとえば、上記の予約例の場合で、受付コードが「12543」であったとき、図4の第1欄のように記録される。
【0153】
予約登録が完了すると後述する時限部によって、予約した時刻に指示通りの撮影が行われ、画像記憶部1019に画像データが保持される。
【0154】
画像記憶部1019は、たとえば、図4のような、表の形式で制御装置1001の記憶装置や補助記憶装置中に実現することができる。たとえば、上記の予約例の撮影結果は、受付コードと画像フォーマットの情報とともに、指定されたフォーマットに従った画像データとして、図4の第1欄のように記録される。
【0155】
ステップS101における条件判断で、要求の先頭が「G」であれば画像取り出しコマンドであると認識し、ステップS104とステップS108の条件判断を介し、ステップS109に進み、画像記憶部1019に保存されるデータを検索する。
【0156】
そして、画像取り出しコマンドとして記述された受付コードと同じ値で格納されているかどうかを判断し(ステップS110)、登録されているならば、その画像データを取り出し、通信インターフェース部1011を介して要求元の外部装置1002に返答する。このときも、通信インターフェース部1011では、HTTPプロトコルを用いるため、画像フォーマットに応じた内容種別情報やステータス情報等が先頭に付加される(ステップS111)。
【0157】
そして、ステップS112で、いま取り出した画像データが格納されている
画像記憶部1019の欄を消去する。そして、本処理を終了する。
【0158】
ステップS110で、指定された受付コードに対応する画像データが格納されていないと判断したら、対象画像が未撮影というエラー情報を通信インターフェース部1011を介して要求元の外部装置1002に返答し、本処理を終了する。
【0159】
また、ステップS108で、外部装置1002よりの要求の先頭が「G」でない場合は、未定義コマンドであるというエラー情報を通信インターフェース部1011を介して要求元の外部装置1002に返答し、本処理を終了する。
【0160】
以上のようにして、外部装置1002と本発明の制御装置1001との情報交換が行われる。
【0161】
つぎに、予約登録部1014に登録された予約データに基づき、カメラ制御と撮影と撮影結果の格納を行う時限部1015について説明する。
【0162】
時限部1015においては、定時間間隔、たとえば1分おきに、時限プログラムが起動される。これは、コンピュータのタイマーを利用したりすれば実現できる。
【0163】
時限プログラムの動作を、図13のフローチャートを用いて説明する。
【0164】
まず、現在時刻を制御装置1001のタイマーから読み出し(ステップS201)、ステップS202に進む。ステップS202では、予約登録部1014から順に一欄づつ登録された予約項目を取り出す。ステップS203で、すべて取り出し終ったと判断できたら本処理を終了し、予約項目が取り出せたなら、ステップS204に進む。対象の予約項目における設定時刻が、現在時刻より未来である時は、ステップS202に戻って処理を繰り返す。そうでない時は、設定時刻になったと判断し、ステップS205に進み、取り出した予約項目の撮影条件に従って、カメラ制御部1017を介しカメラ1003を制御し、撮影を行う。
【0165】
その後、ステップS703で、映像合成を行なう。すなわち、映像を撮影した際の制御情報から対象機器の映像内の位置を計算し、映像内の対象機器の近傍に、通信によって得られた状態情報7021を画像合成する。合成結果は、先に説明したステップS702と同様であるので、ここでの説明は省略する。続いて、ステップS803のアンカー生成処理では、ステップS802と同様であるので、その説明も省略する。合成結果は、例えば図14に示す通りである。
【0166】
そして、合成された画像を予約項目で指定された方法の画像フォーマットに変換し、この画像データを受付コードと画像フォーマット情報とともに画像記憶部1019に格納する(ステップS206)。続いて、現在取り出した、予約項目を予約登録部1014から消去し(ステップS207)、ステップS202に戻って処理を繰り返す。
【0167】
これにより、予約通りの撮影が行われ、その結果が保管され、後に、画像取り出しコマンドが外部装置1002から要求されると、この画像データが返答されることになる。
【0168】
以上の結果、クライアントは遠隔にあるカメラサーバのカメラを制御して撮影した映像を、居ながらにして観察できるのは勿論、予め登録しておいたオブジェクト(上記例では統合複写機)の時々刻々と変わる状態を確認することができる。また、クライアント側では、表示された映像中の特定の位置をクリックした場合、そこにアンカーが設けられていれば、その内容情報を見るきことが可能になる。
【0169】
尚、本実施例では、複写機の状態を画面合成する例について述べたが、これは、複写機に限らず、ファクシミリやプリンタなどのOA機器であったり、または、他のAV機器などであっても良い。
【0170】
また、本実施例では、映像内にただ一つのアンカーを合成する例について説明したが、クリッカブルマップの管理情報に複数の情報を記入すれば、一つの映像内に複数のアンカーを表現することもできるのは理解できよう。例えば、以下のようなクリッカブルマップの管理情報を用意する。
rect http://www.foo.co.jp/netdevices/copier_445/snmp.html 15,8 135,39
rect http://www.foo.co.jp/netdevices/facsimile_28/snmp.html 20,18 55,39
rect http://www.foo.co.jp/netdevices/colorprinterr_4/snmp.html 55,21 135,39
rect http://www.foo.co.jp/netdevices/printer_266/snmp.html 15,8 135,39
また、実施形態では、複写機などの機器がネットワークにオンライン接続されている場合に、その管理情報をハイパーテキスト風にアクセスする例を説明したが、図18に示すような管理テーブルを用意することで、より直接適に情報官の関連付けをすることができる。すなわち、図18の管理テーブルの第4カラム『リンク先URL』項目に示される情報を、直接アンカーのリンク先とする手法である。
【0171】
尚、図18の第4カラムのリンク先項目を随時変更するような別プログラムを用意することも容易に理解できよう。
【0172】
実施形態では、WWWのURLをアンカーと重ね合わせる例について説明したが、それ以外のハイパーテキストのアンカーを重ね合わせる場合についても同様である。
【0173】
<第2の実施形態>
本第2の実施例では、第1の実施例と同様に、オフィスに置かれたカメラサーは関して、ズームやパン/チルトなどの制御情報を入力装置から与え、その制御情報に合わせてコムカメラを調整し、映された映像に付加価値を与える点は、同様であるが、映像への映像加工部が異なる。
【0174】
特に、本実施例では、出力すべきオフィスの映像に社員の座席が含まれ、かつ、その社員が会議などで不在だった場合に、会議室の映像などをスーパーインポーズ合成する点が異なる。
【0175】
この例では、図15に示すように、第1の実施形態の映像加工手段7020、アンカー生成手段7031、アンカー解釈手段7032に代えて、それぞれ拡張映像加工手段7120、拡張アンカー生成手段7131、拡張アンカー解釈手段7132を用いることで、映像情報に直接的にアンカー情報を付加して、クライアントに送ることに特徴がある。
【0176】
拡張映像加工手段7120では、映像加工手段7020とほぼ同様であるが、合成結果の映像情報に加えて、拡張アンカー生成手段7131が生成した「アンカースクリプト」と呼ぶアンカー情報を添付してクライアントに送る点が異なる。
【0177】
また、クライアントでは、単純な映像データの解釈に加えて、クリックを検出した時点で、拡張アンカー解釈手段7132を用いて受け取ったアンカースクリプトを解釈して、適切なリンク先を探し出す機能を追加する。クライアントに拡張アンカー解釈手段7132を提供する方法としては、プラグイン(plug-in)やヘルパーアプリケーションなどの手法を利用すればよい。
【0178】
また、拡張アンカー生成手段7131では、制御内容を解釈した結果の映像視野予測と、図18の管理テーブルに示された各機器の位置情報とリンク先情報から、適切なアンカースクリプトを生成する。
【0179】
以下、これらの動作について説明する。
【0180】
上記を実現するためには、第1の実施形態の「カメラ制御装置」の説明におけるステップS702、S802を以下のステップS702’、802’のように変更する。
・ステップS702’
まず、ステップS702に従って映像を合成し、次いで、拡張アンカー生成手段7131によって生成されたアンカースクリプトを映像情報に追加する。
・ステップS802’
まず、ステップS701と同様に制御内容の解釈から撮影視野を予測する。次に、予測された撮影視野と図18の管理テーブルに示された各機器の位置情報とリンク先情報とから、以下に示すようなアンカースクリプトを生成する。ここでは、リンク先を
“http://www.foo.co.jp/netdevices/copier_445/snmp.html”
としているa1という名のアンカーを生成し、それを左上と右下の頂点がそれぞれ<15,8>と<135,39>とする矩形の領域に結び付ける。
<anchors>
<a href="http://www.foo.co.jp/netdevices/copier_445/snmp.html">a1</a>
<embed a=a1 range=15,8+135,39></embed>
</anchors>。
【0181】
以上であるが、ここでは映像入力手段に与えられる制御情報を解釈して、事前に映像入力手段が撮影する映像を予測することにより、単純な映像情報サービスにとどまらず、より付加価値の高い映像情報を作り出す事に特徴がある。
【0182】
本第2の実施形態では、第1の実施形態と同様に、映像内に唯一つのアンカーを合成する例について説明したが、アンカーリストを拡張して、1つの映像内に複数のアンカーを表現することも容易になるのは理解できよう。例えば、以下のようなアンカースクリプトを生成することが考えられる。
<anchors>
<a href="http://www.foo.co.jp/netdevices/copier_445/snmp.html">a1</a>
<a href="http://www.foo.co.jp/netdevices/facsimile_28/snmp.html">a2</a>
<a href="http://www.foo.co.jp/netdevices/colorprinter_4/snmp.html">a3</a>
<a href="http://www.foo.co.jp/netdevices/printer_266/snmp.html">a4</a>
<embed a=a1 range=5,8+15,19></embed>
<embed a=a2 range=20,18+35,39></embed>
<embed a=a3 range=55,21+135,39></embed>
<embed a=a4 range=30,30+135,45></embed>
</anchors>。
【0183】
また、本実施形態で説明したアンカースクリプトでは、映像内のアンカーの配置を、「range=15,8+135,39」のような2次元座標を使って指定しているが、簡単な分数表現を使って指定することも容易である。例えば、図16(a)に示すように4分割した映像表示領域(ウインドウ)内の第1象限(右上部分)を「range=1/4」と指定する。同様に、図16(b)に示すように映像表示領域を9分割した場合には、左上の領域から順番に番号を割り当て、例えば6番目の領域を「range=6/9」とする等を決めておけばよい。
【0184】
更に、本実施形態では、映像内の一つひとつの画面にアンカー情報を添付する方法について説明したが、一連のシーンに関してアンカー情報を添付することで、効率化を図ることも可能である。例えば以下の通りである。
<anchors>
<a href="http://www.foo.co.jp/netdevices/copier_445/snmp.html">a1</a>
<a href="http://www.foo.co.jp/netdevices/facsimile_28/snmp.html">a2</a>
<a href="http://www.foo.co.jp/netdevices/colorprinter_4/snmp.html">a3</a>
<a href="http://www.foo.co.jp/netdevices/printer_266/snmp.html">a4</a>
<embed a=a1 scene=132714+50 range=5,8+15,19></embed>
<embed a=a2 scene=132730+20 range=20,18+35,39></embed>
<embed a=a3 scene=132720+40 range=55,21+135,39></embed>
<embed a=a4 scene=132714+50 range=30,30+135,45></embed>
</anchors>。
【0185】
以上説明した第1、第2の実施形態では、その状態が時々刻々と変化するようなオブジェクト(実施形態では複写機とした)を遠隔操作することで表示させる場合を説明したが、状態が固定的なオブジェクトに関しては、格別ネットワークに接続されている必要はないし、そのオブジェクトが電気的に動作する必要もない。
【0186】
例えば、オフィス内の映像を表示させ、その中の所望とする机をクリックした場合に、その机の持ち主に関する情報を表示させることもできるからである。
【0187】
また、上記第1、第2の実施形態では、例えばオブジェクト(複写機)をカメラの視野内に納めた場合に、そのオブジェクトの状態情報を映像に合成して表示させ、そのオブジェクトをクリックすることでその複写機の更なる詳細を表示させたが、状態情報及び詳細情報をクリックされた場合に表示させるようにしてもよい。
【0188】
尚、本発明は、複数の機器(例えばホストコンピュータ、インターフェース機器、リーダ、プリンタ等)から構成されるシステムに適用しても、1つの機器からなる装置(例えば複写機、ファクシミリ等)に適用しても良い。
【0189】
また、本発明の目的は、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出して実行することによっても、達成されることは言うまでのもない。
【0190】
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
【0191】
プログラムコードを供給するための記憶媒体としては、例えばフロッピーディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。
【0192】
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部または全部を行ない、その処理によって実施形態の機能が実現される場合も含まれることは言うまでもない。
【0193】
更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された拡張機能ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0194】
【発明の効果】
以上述べたように本発明によれば、映像としてのオブジェクトの提供にとどまらず、その映像を材料として適切な加工を施した映像を提供する等、より付加価値の高い映像サービスを行なうことが可能になる。
【0195】
【図面の簡単な説明】
【図1】実施形態の前提部を説明するためのシステムのブロック構成図である。
【図2】図1におけるコマンド解釈部の動作処理内容を示すフローチャートである。
【図3】図1における予約登録部で生成される登録情報の一例を示す図である。
【図4】図1における画像記憶部に記憶される情報の一例を示す図である。
【図5】図1における時限部の処理内容を示すフローチャートである。
【図6】実施形態の前提部第3例における予約登録部で生成される登録情報の一例を示す図である。
【図7】実施形態の前提部第4例におけるシステムのブロック構成図である。
【図8】実施形態の前提部第5例の予約内容登録部の処理内容を示すフローチャートである。
【図9】実施形態の前提部第6例におけるシステムのブロック構成図である。
【図10】実施形態の前提部第6例におけるコマンド解釈部6012の動作内容を示すフローチャートである。
【図11】第1の実施形態におけるシステムのブロック構成図である。
【図12】図11におけるコマンド解釈部の処理内容を示すフローチャートである。
【図13】第11における時限部の処理内容を示すフローチャートである。
【図14】第1の実施形態におけるサーバから転送する映像の時間推移の一例を示す図である。
【図15】第2の実施形態におけるシステムのブロック構成図である。
【図16】第2の実施形態における領域指定法を説明するための図である。
【図17】実施形態における管理テーブルの内容を示す図である。
【図18】実施形態における管理テーブルの内容の変形例を示す図である。
【図19】実施形態におけるアンカーをクリックした際に表示される情報の一例を示す図である。
【符号の説明】
1001 カメラ制御装置
1002 外部装置
1003 カメラ
1007 複写機システム
1011 通信インタフェース
1013 受付コード発生部
1014 予約登録部
1015 時限部
1017 カメラ制御部
1018 画像入力部
1019 画像記憶部
7012 コマンド解釈部
7020 映像加工部
7021 状態情報
7031 アンカー生成手段
7032 アンカー解析手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a video control apparatus, a control method, and a storage medium, and more particularly to a video control apparatus, control method, and storage medium for transferring an input video toward the client in accordance with a request from a remote client.
[0002]
[Prior art]
The applicant of the present invention has already developed a system in which a captured video can be viewed from a client by connecting to a remote camera server (device for controlling the camera and transferring the captured video to the client) via an existing network. Several applications have been filed.
[0003]
The camera server has a form in which a general-purpose device such as a personal computer or a workstation is used, a card (or board) having a video capture function is attached thereto, and a video camera is connected to the card. In addition, in order to enable the client to control the camera angle (pan, tilt, zoom, etc.) of the camera server, the camera device can change the zoom value, and the camera device is mounted on a predetermined pan head. There is also a proposal to output a signal for controlling the angle from the camera server main body to the camera device via a predetermined interface (for example, a serial interface that a personal computer has as a standard).
[0004]
On the other hand, the client is also composed of a general-purpose device such as a personal computer or a workstation.
[0005]
[Problems to be solved by the invention]
However, in the above proposal, even though it is possible to confirm a video shot by a remote camera, information on the displayed individual object is not obtained more than the video of the object.
[0006]
The present invention has been made in view of such problems, and an object of the present invention is to provide a video control apparatus, a control method, and a storage medium that make it possible to confirm details of an object in a video.
[0007]
[Means for Solving the Problems]
In order to solve this problem, for example, the video control apparatus of the present invention has the following configuration. That is,
From a remote clientControl of cameras received over the networkEntered as requestedFrom the camerathe imageThe requester via the networkA video control device that transfers data to a client,
A position indicating the position of each of a plurality of network devices connected to the networkStorage means for storing information;
Camera control means for controlling the camera according to the requested angle when receiving a control request for the camera angle from the client;
A determination unit for determining which network device is included in the field of view of the camera based on the position information of each network device stored in the storage unit when the camera control unit controls the angle of the camera; ,
When the determination unit determines that a network device is included in the field of view of the camera, an acquisition unit that acquires first information about the corresponding network device;
Based on the angle control request from the client, calculate the position of the network device in the field of view of the camera, in the vicinity of the calculated position in the captured image obtained by the control of the camera control means, An image indicating the acquired first information is superimposed, and the superimposed image is displayed.First transfer control means for incorporating the predetermined information and transferring the image so that the instruction request information is returned when there is a predetermined instruction on the client side;
From the clientSaidRequest for instructionsReturn of informationIf there isRespond to the predetermined informationRequest for instructionsinformationin accordance with,A second relating to the network device that is the target of superimposition by the first transfer control means;A second forwarding information to the clienttransferControl means.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, before explaining an example of an embodiment concerning the present invention in detail, the premise part is explained. Thereafter, the embodiment will be described.
[0009]
<Overview>
Proposal that allows the client side to view the video of the camera connected to the remote camera server via the existing network and control the angle (pan, tilt, zoom value, etc.) from the client side As described above, the present applicant has proposed.
[0010]
One of the main features of this proposal is that a general-purpose network (Internet) protocol is used instead of a publicly known surveillance camera, and the camera is controlled within the protocol.
[0011]
FIG. 1 is a block diagram of the camera server apparatus, which is configured by the following units.
[0012]
That is, 1012 is a command interpretation unit, 1013 is a reception code generation unit, 1015 is a time limit unit, 1019 is an image storage unit, and 1014 is a reservation registration unit (which will be apparent from the description below).
[0013]
The
[0014]
If the
[0015]
However, in order to simplify the explanation, the
[0016]
It is well known that the following description is generally used when pasting image data into a WWW document.
[0017]
<img src = "http://www.foo.co.jp/image001.gif">
This means that the image data stored in the file image001.gif in the WWW server www.foo.co.jp is transferred, but the file name portion in the subsequent stage is interpreted as a command.
[0018]
As an example, pan, tilt, and zoom that specify a camera angle are indicated by alphabetic characters “P”, “T”, and “Z”, respectively, and then each control amount is represented by a number. For example, with respect to a server having a camera capable of selecting eight stages of -50 degrees to 50 degrees, tilt angle of -20 degrees to 20 degrees, and zoom from 1 to 8, the pan angle is 20 degrees and the tilt is 5 degrees. If you want to take a picture at 2x zoom and paste it as gif-format image data (you want it to be transferred), write it as follows. Note that the network address of this device is cam.foo.co.jp.
[0019]
<img src = "http://www.foo.co.jp/P20T5Z2.gif">
When there is an HTML document description as described above, the
[0020]
An example of the process is shown in the flowchart of FIG. First, in step S101, a command described as a file name is interpreted. That is, if the head of the request is “P”, it is recognized as a shooting command, and the process proceeds to step S102. Here, the camera is operated with the specified pan, tilt, and zoom values via the camera control unit 1017 (step S102), and the captured image is converted into the image format of the specified method, and the communication interface unit A response is made to the requesting
[0021]
At this time, since the
[0022]
As a result, an image captured as if it were image data stored in a file of the WWW server is pasted and displayed on the HTML document.
[0023]
In the condition determination in step S101, if the head of the request is “R”, it is recognized as a reservation command, and the process proceeds to step S105 via the condition determination in step S104.
[0024]
The reservation command is a service for reserving the capture of the captured video and transferring the captured video to the client later. In this case, it begins with the letter “R”, followed by a year, month, day, hour, and minute each represented by an integer, separated by a period. Then, pan / tilt / zoom instructions that are photographing conditions follow, and finally a name representing the image format is given.
[0025]
For example, if you want to make a reservation for shooting a 3x zoom video with a pan angle of 25 degrees and a tilt angle of 0 degrees at 13:15 on July 6, 1996, the following description is used.
[0026]
<img src = "http://www.foo.co.jp/R1996.7.6.13.15P25T0Z3.gif">
When the reservation command as described above is designated, the camera server transfers a unique identification number as a reception code from the reception
[0027]
Then, the reception code, reservation time, shooting conditions, and image format information are registered in the reservation registration unit 1014 (step S106), and the reception code is returned to the requesting
[0028]
Also at this time, content type information and status information indicating that the response content is a reception code are added to the head. Then, this process ends.
[0029]
If you simply create an HTML document that includes such a shooting reservation and try to display it with a general WWW browser, the reception code will return instead of the image data. Although it is not displayed, the reservation reservation is made to the
[0030]
The retrieval command starts with the letter “G”, followed by a reception code, and finally has a name indicating the image format. This reception code is returned when a reservation is made to the
[0031]
For example, when “12543” is returned as an acceptance code, the following description is used when an image reserved for shooting is taken out after shooting.
[0032]
<img src = "http://www.foo.co.jp/G12543.gif">
The
[0033]
When the reservation registration is completed, a time-limit unit, which will be described later, performs photographing as instructed at the reserved time, and image data is held in the
[0034]
The
[0035]
In the condition determination in step S101, if the head of the request is “G”, it is recognized as an image extraction command, and the process proceeds to step S109 via the condition determination in steps S104 and S108, and is stored in the
[0036]
Then, it is determined whether or not it is stored with the same value as the reception code described as the image retrieval command (step S110). If registered, the image data is retrieved, and the request source is retrieved via the
[0037]
At this time, since the
[0038]
If it is determined in step S110 that image data corresponding to the designated reception code is not stored, error information indicating that the target image has not been captured is returned to the requesting
[0039]
If the head of the request from the
[0040]
As described above, information is exchanged between the
[0041]
Next, the
[0042]
In the
[0043]
First, the current time is read from the timer of the control device 1001 (step S201), and the process proceeds to step S202. In step S202, the reservation items registered one column at a time are extracted from the
[0044]
As a result, photographing is performed as scheduled, the result is stored, and when an image retrieval command is requested from the
[0045]
As described above, simply connecting the camera control device to the network of the WWW system and describing the URL of the camera control device address plus the description of the shooting conditions of the camera as the source of the image data makes it easy to connect a remote camera. It becomes possible to paste the operated live image (that is, the current video) into the WWW document. In order to realize only this, each of the
[0046]
In addition, by providing a
[0047]
In particular, it is possible to take a plurality of images at the same camera angle at short intervals regardless of the transmission capacity of the network.
[0048]
Of course, the interface with the
[0049]
In this configuration example, the reception code is used to identify the shooting data for the reservation. However, without using the reception code generation unit, a unique request number is generated on the
[0050]
In addition, although the reservation time is in minutes, it may be extended to seconds or milliseconds.
[0051]
In addition, although gif is given as an example of the image format, JPEG may be expressed by a file extension of jpg, and either of them may be switched, or other file formats may be adopted.
[0052]
Further, although the file name is regarded as a command, a URL parameter description may be used. For example, when the pan, tilt, zoom, and image format are 25 degrees, 5 degrees, 2 times, and gif, respectively, the following description may be made.
[0053]
<img src = "http://cam.foo.co.jp/cameraimage?P=20,T=5,Z=2,F=gif">
Moreover, you may mount a WWW server simultaneously in this control apparatus. In that case, for example, it can be realized by giving the name camctl.exe to the program of the
[0054]
<img src = "http://cam.foo.co.jp/cgi-bin/camctl.exe?P=20,T=5,Z=2,F=gif">
<Second example>
In the above configuration example (first example), only one image can be reserved for shooting at a time. In this configuration example (second example), a file extension representing the image format is added to the file name formed by combining a plurality of reservation commands with “+” to reserve a plurality of times and camera angles at a time. enable.
[0055]
For example, when shooting at 3 times zoom with a pan angle of 25 degrees and a tilt angle of 0 degrees at 13:15, 30, 30 and 45 minutes on July 6, 1996, and taking out three images in gif format later, Write like this.
[0056]
<img src = "http://www.foo.co.jp/R1996.7.6.13.15P25T0Z3+R1996.7.6.13.30P25T0Z3+R1996.7.6.13.45P25T0Z3.gif">
Here, the character string enclosed by ““ ”and“ “” may be displayed over two or more lines, but the actual description is described in one line that does not include line breaks.
[0057]
If the date and time are the same or the camera angles are the same, they may be omitted. In that case, the same reservation as above can be described as follows.
[0058]
<img src = "http://www.foo.co.jp/R1996.7.6.13.15P25T0Z3+R....30+R....45.gif">
The second example is the same as the first example except for the following changes.
[0059]
That is, the
[0060]
That is, in step S106, the requested command is not limited to one, but is analyzed as a plurality of reserved commands combined with “+”, and the reservation code generated in step S105 is the same as the image format information. The reservation time and shooting conditions specified by the reservation command are registered in the
[0061]
On the other hand, in step S111, a plurality of pieces of image data registered with the same reservation code are taken out, reformatted as one piece of image data including a plurality of pieces of image data, and the request source is transmitted via the
[0062]
In step S112, the column of the
[0063]
By configuring as described above, many reservations can be made at one time, and it is possible to handle them collectively as one image data composed of a plurality of images, and a plurality of receptions corresponding to each image data. Saves you the trouble of managing your code.
[0064]
Further, when applied to intermittent photography such as plant growth recording, it is possible to handle a plurality of photographed images as a pseudo moving image that is stored in one image data.
[0065]
<Third example>
In the second example, even when intermittent shooting is performed with the same camera angle at the same time interval, it is necessary to connect and designate reservation commands as many as the number of shooting. In the third example, the end time and the intermittent time are added immediately after the time designation of the reservation command, and then the photographing conditions such as the camera angle and the image format are designated. For the end time, specify the time following “t”, and for the intermittent time, specify the time in minutes following “e”.
[0066]
For example, on July 6, 1996 at 13:15, 30, and 45 minutes (that is, every 15 minutes), a pan angle of 25 degrees and a tilt angle of 0 degrees were taken with a 3x zoom, and three images in gif format. When it is taken out later, it is described as follows.
[0067]
<img src = "http://www.foo.co.jp/R1996.7.6.13.15t1996.7.6.13.45e15P25T0Z3.gif">
Here, the character string enclosed by ““ ”and“ “” may be displayed over two or more lines, but the actual description is described in one line that does not include line breaks.
[0068]
Of course, in this case, if the date and time of the end time are the same, it may be omitted. In that case, the same reservation as above can be described as follows.
[0069]
<img src = "http://www.foo.co.jp/R1996.7.6.13.15t....45e15P25T0Z3.gif">
The basic configuration of the third example is the same as that of the first example except for the following changes.
[0070]
That is, the
[0071]
However, the
[0072]
In step S106, if the requested reservation command has an end time and an intermittent time, the reservation time is registered in the
[0073]
In step S111, a plurality of pieces of image data registered with the same reservation code are taken out, reformatted as one piece of image data including a plurality of pieces of image data, and sent from the request source via the
Also at this time, since the
[0074]
On the other hand, in step S3207, the time limit unit 3015 adds the intermittent time of the retrieved reservation item to the shooting time, updates the registered reservation information, and if the shooting time is later than the end time, this item is set. And deleted from the
[0075]
With the configuration described above, intermittent photographs can be easily taken with a short command.
[0076]
In particular, when taking intermittent photographs over a long period of time, in the case of the method as in the second example, the command is very long, and in many cases it cannot be practically realized. This can be realized if the storage capacity of the storage device for storing data is sufficient.
[0077]
<Fourth example>
In the third example, the result of intermittent shooting is taken out as a plurality of still image data. However, in this configuration example, a form of taking out as moving image data is also added.
[0078]
When extracting as video data, set the file extension to “mpg”. For example, it is described as follows.
[0079]
<img src = "http://www.foo.co.jp/R1996.7.6.13.15t....45P25T0Z3.mpg">
The basic configuration of this configuration example is as shown in FIG. This is the same as the third example except for the following changes. That is, a moving
[0080]
For example, at step S111, if the image format designation is a still image format such as jpg or gif, a plurality of image data registered with the same reservation code is extracted, and a new one containing a plurality of image data is included. The image data is re-formatted as image data and is returned to the requesting
[0081]
Also at this time, since the
With the configuration as described above, compression using the relationship between image frames is performed, and particularly in intermittent photographs that do not change so much, image data is greatly compressed. The amount of communication can be reduced, and the communication time can be greatly shortened.
[0082]
<Fifth example>
In the third example, the camera angles to be photographed are the same. However, in the fifth example, the definition of the control variable is added immediately before the time designation of the reservation command, the time designation is performed thereafter, and then the camera is designated. Enables repeated shooting with specified shooting conditions such as angle and image format. It tries to be able to specify the reference of the control variable in the time specification and shooting conditions.
[0083]
The definition of the control variable is
It begins with "$ (", has a definition body, and ends with ")".
[0084]
There are two ways to write the definition body. One is a method of specifying an initial value, a closing price, and an increment, and it is further divided into two writing methods depending on whether the increment is positive or negative. Another format is to write down all the values of control variables.
[0085]
Ie
$ (<Control variable> = initial value, upto closing price, up increment)
$ (<Control variable> = initial value, downto closing price, down increment)
Or
$ (<Control variable> = value 1,
It is.
[0086]
Here, <control variable> is a character string consisting of one or more English characters and is an identifier of the control variable.
[0087]
Control variable references are
It begins with "$ (", has a reference body, and ends with ")". The reference body is a four-rule arithmetic expression including control variables.
[0088]
For example, when it was 13:15 on July 6, 1996
3x zoom with 25 ° pan angle and 0 ° tilt angle
3x zoom with 30 ° pan angle and 0 ° tilt angle
3x zoom with a pan angle of 35 degrees and a tilt angle of 0 degrees,
If you take a picture with (and actually change the angle, there will be a time lag between them), and if you take out three images later in the gif format, you would write:
[0089]
"http://www.foo.co.jp/R$(pan=25,upto35,up5)1996.7.6.13.15P$(pan)T0Z3.gif"
Or
"http://www.foo.co.jp/R$(pan=0,upto10,up5)1996.7.6.13.15P$(pan+25)T0Z3.gif"
Or
"http://www.foo.co.jp/R$(pan=35,downto25,down5)1996.7.6.13.15P$(pan)T0Z3.gif"
Or
"http://www.foo.co.jp/R$(pan=25,30,35)1996.7.6.13.15P$(pan)T0Z3.gif"
Here, the character string enclosed by ““ ”and“ “” may be displayed over two or more lines, but the actual description is described in one line that does not include line breaks.
[0090]
This configuration example is different from the second example in that the above description can be interpreted in the command interpretation unit 2012, but the others are the same.
[0091]
For example, the inside of step S106 is shown in FIG.
[0092]
If the character next to “R” is $, this is the definition of a control variable, so that it becomes the reserved command of the fifth example. In step S501, one control variable definition starting with “$ (” and ending with “)” is acquired, and it is checked in step S502 whether all definitions have been extracted. After all the control variable definitions are extracted, the initial value is bound to the control variable in step S503.
[0093]
In step S504, the remaining part of the command is scanned to search for control variable references beginning with "$ (" and ending with ")", and all references are replaced with bound values. In step S506, the character string obtained as a result is analyzed as a reservation command for the repeated shooting described above. The conditions are registered in the
[0094]
With the configuration described above, intermittent photographs with different camera angles can be easily taken with a short command.
[0095]
In the explanation, only one control variable definition is used, but a plurality of definitions can be written. In this case, the definitions are interpreted as nested.
[0096]
In this configuration example, the introduction of the repetitive syntax has been described, but in the same manner, syntax such as a condition determination syntax, variable definition, variable assignment, and four arithmetic operations can be introduced.
[0097]
That is, the command interpreter can be realized as a program interpreter, and the contents of the URL can be regarded as a program and held for interpretation. In this way, complicated camera control and the like can be automatically executed.
[0098]
<Sixth example>
In the fifth example, all camera angle designations for shooting must be described in the same URL. In the sixth example, a part of the reservation command can be separately registered as a macro library. An example will be described in which data describing the time designation and shooting conditions is stored in an external device.
[0099]
For the sake of explanation, for example, it is assumed that shooting is performed in order from 13:00 on July 6, 1996 to the following camera angles in order every minute.
[0100]
3x zoom with 25 ° pan angle and 0 ° tilt angle
3x zoom with 30 ° pan angle and 0 ° tilt angle
3x zoom with a pan angle of 35 degrees and a tilt angle of 0 degrees,
4x zoom with a pan angle of 35 degrees and a tilt angle of 1 degree,
4x zoom with a pan angle of 30 degrees and a tilt angle of 2 degrees,
5x zoom with a pan angle of 35 degrees and a tilt angle of 3 degrees
5x zoom with a pan angle of 35 degrees and a tilt angle of 4 degrees
6x zoom with a pan angle of 35 degrees and a tilt angle of 5 degrees
7x zoom with a pan angle of 35 degrees and a tilt angle of 5 degrees,
8x zoom with a pan angle of 35 degrees and a tilt angle of 5 degrees
A command for instructing this is sent to the second external device.
http://www.bar.co.jp/camcon-a.ctl
Store it in.
[0101]
This is, for example, as follows.
[0102]
R1996.7.6.13.0P25T0Z3 + R1996.7.6.13.1P30T0Z3 + R1996.7.6.13.2P35T0Z3 + R1996.7.6.13.3P35T1Z4 + R1996.7.6.13.4P35T2Z4 + R1996.7.6.13.5P35T3Z5 + R1996.7.6.13.6P35T4Z5 + .7.6.13.3P35T5Z6 + R1996.7.6.13.4P35T5Z7 + R1996.7.6.13.3P35T5Z8.gif
A command given to the control device to use this is an external reference command that starts with “% 23 (”, continues with the URL, and ends with “)”. An example is as follows.
[0103]
"http://www.foo.co.jp/%23(httpd%3e//www.bar.co.jp/camcon-a.ctl)"
In this case, www.bar.co.jp corresponds to the second external device. That is, it means that the camera server www.foo.co.jp is requested to control according to the contents described in www.bar.co.jp/camcon-a.ctl. In camcon-a.ctl, the above description of “R1996...” is stored.
[0104]
The sixth example is shown in FIG. Compared to the fifth example, the
[0105]
The operation of the
[0106]
In step S621, the command described as the file name is interpreted. If the head of the request is “% 23”, it is recognized as an external reference command, and the process proceeds to step S622. In step S622, the part between “(” and “)” is regarded as a specified URL of the file in which the command is described and stored, and a request is sent according to the URL. In the above example, a request is issued to the second external device 1004. In step S623, a response is awaited.
[0107]
As a response, for example, a long reservation command as described above is returned.
The external reference command interpreted here is expanded and replaced so that it can be applied to subsequent command interpretation (step S624). Then, the process proceeds to step S101.
[0108]
If it is determined in step S621 that the command is not an external reference command, the process proceeds to step S101.
[0109]
Since the process after step S101 is the same as FIG. 2 used when the description of the first example is performed, the description is omitted. In addition, the extension from the second example to the fifth example can be applied similarly.
[0110]
With the configuration as described above, it is possible to easily take a complicated time reservation and intermittent photographs with complicated camera angle changes with a short command.
[0111]
Here, for the sake of explanation, the control device and the external device have been described as different devices, but the two devices may be the same. In that case, the URL could be described as follows:
[0112]
"http://www.foo.co.jp/%23(httpd%3e//www.foo.co.jp/camcon-a.ctl)"
Or
"http://www.foo.co.jp/%23(camcon-a.ctl)"
Of course, if the command is stored in the external device that makes the request first, the address may be used. At that time, the second external device is unnecessary.
[0113]
<Description of Embodiment>
As described above, in the first to sixth examples, various description methods can be used, and although raw images and reserved and photographed images can be viewed with a WWW browser, more than that can be used. It is impossible to obtain information, that is, more detailed information (additional information) of a desired object in the displayed video. Therefore, this embodiment enables this.
[0114]
In order to simplify the explanation, in the present embodiment, a case will be described in which a device serving as a camera server and a client are provided on a network installed in the company. Of course, there may be a plurality of camera servers and clients.
[0115]
In general, when a network is constructed, various servers can be installed there. In particular, in recent years, attempts have been made to construct an integrated system by connecting apparatuses that have been used as stand-alone until now, such as copiers and facsimile machines, to the network.
[0116]
When a network is constructed and printing is performed by, for example, a remote print server, output of print data is completed in a very short time from the viewpoint of the client. This is because the print server spools the print data. Since the print server can receive print data from any number of clients, the print data is output to the printer in the spooled order.
[0117]
The problem here is when the print server is not in close proximity to the client. When several clients perform printing at the same time, the print data is queued, and it is often the case that another print is still performed as a result of collecting the print results. .
[0118]
In this embodiment, when a remote camera is controlled and a target printer is seen within its field of view, the status of the printer is added to the camera video as additional information and transferred to the client. It also makes it possible.
[0119]
FIG. 11 is a block diagram of the server according to the embodiment, which includes the following units.
[0120]
[0121]
The
[0122]
That is, 1012 command interpretation unit, 1013 reception code generation unit, 1015 time limit unit, 1019 image storage unit, 1014 reservation registration unit, and video processing for processing video obtained from
[0123]
The
[0124]
The
[0125]
("copier_445" client: Kurosawa printing "80%" "1 copy, 23 pages, duplex"
"http: //www.foo.co,jp/netdevices/copier_445/snmp.html")
Here, “client: Kurosawa” is a client name (or ID) on the network that is the transmission source of the job currently being printed. However, kurosawa, “1 copy”, “double-sided”, and the like of the print request source depend on the print job, and “80%”, “page 23”, and the like change with time. The item of information to be returned is not limited to this, and any information may be used. For example, when there is no recording paper and recording is not possible, a message to that effect is returned.
[0126]
The
[0127]
In this configuration example, the
[0128]
<Explanation of procedure>
The
[0129]
$ (pan = 0, upto180, up10) P $ (pan) T0Z2
Here, the address of the
[0130]
http://www.camera122.foo.co.jp/R$(pan=0,upto180,up10)1996.11.11.13.0t1996.11.11.13.18e1$(pan)T0Z2.mpg
On the other hand, the
[0131]
As for the given control information, as in the first to sixth examples described above, the camera is operated in accordance with it and the video information is photographed. However, when it is determined that a device such as a copying machine is within the field of view (a management table of angle information in which the copying machine exists is stored in a predetermined storage device in advance) The device is inquired about the current situation, and the description of the information is used as an anchor to compose the image captured by the camera.
[0132]
For the management for determining whether to enter the field of view, for example, a management table as shown in FIG. 17 is stored in a predetermined storage device (for example, a hard disk device or the like) and used. In this table, the first column indicates a management target (address or ID on the network) such as a copying machine or a printer. The second column shows the position where the device is located. In this example, the floor is designated indoors where the device is placed and designated by three-dimensional coordinates (unit centimeter) within the floor. The third column shows the size of the device (unit centimeter). For example, the first line shows that the device with the identifier “printer_231” is 300 centimeters in the north-south direction, 450 centimeters in the east-west direction, and 100 It is placed at a centimeter, and its size means 30 centimeters long, 80 centimeters wide, and 75 centimeters deep.
[0133]
Specifically, the command interpretation unit is expanded as described below, and video addition means 7020, anchor generation means 7031, and anchor interpretation means 7032 are added and added accordingly. This will be described with reference to the flowchart of FIG.
[0134]
First, in step S701, the control content is interpreted as follows to predict the field of view.
[0135]
First, a control item to be executed is extracted according to the control syntax of the control information. Next, the obtained control items are interpreted, the field of view when the control content is given to the
[0136]
As a result of the determination, if it falls within the field of view, it communicates with the target device and obtains
[0137]
("copier_445" client: Kurosawa printing "80%" "1 copy, 23 pages, duplex")
In step S101, the command described as the file name is interpreted. That is, if the head of the request is “P”, it is recognized as a shooting command, and the process proceeds to step S102. Here, the camera is operated with the specified pan, tilt, and zoom values via the camera control unit 1017 (S102), and the captured image is converted into the image format of the specified method.
[0138]
Thereafter, in step S702, video composition is performed. That is, the position in the video of the target device is calculated from the control information at the time of shooting the video, and an image based on the
[0139]
Then, it progresses to step Sstep S802 and an anchor is produced | generated. Here, a combination similar to the image map of the clickable map method generally used on the www can be used. That is, after setting the anchor interpretation means 7032 as the interpretation means when the target video is clicked,
<a href="http://www.xxx.co.jp/cgi-bin/imagemap/camera122.map">
<embed SRC = camera122.wvp.width = 290 height = 179> </ embed>
</a>
The above-mentioned video composite area is added to the management information file of the clickable map, and a “copier management page” obtained by communication with the target device is set as the link destination.
[0140]
Specifically, using the
http://www.foo.co.jp/netdevices/copier_445/snmp.html
And the area where the state information is combined (relative position in the image) is a rectangle whose upper left and lower right vertices are <15, 8> and <135, 39>, respectively, clickable map management information You can enter the following information.
[0141]
rect http://www.foo.co.jp/netdevices/copier_445/snmp.html 15,8 135,39
Thereafter, the composite result is returned to the requesting
[0142]
At this time, since the
[0143]
By doing so, the captured image is displayed as if it were image data stored in the file of the WWW server in the HTML document displayed on the client side, and When the user clicks on the combined portion with a mouse or the like, the display is switched to this “copier management page”.
[0144]
For example, if the file www.foo.co.jp/netdevices/copier_445/snmp.html is a hypertext file as shown in FIG. 19 (shown in a format that can be seen by a browser in the figure), When the client user clicks in the vicinity of the copier, the contents shown in FIG.
[0145]
In the condition determination in step S101, if the head of the request is “R”, it is recognized as a reservation command, and the process proceeds to step S105 via the condition determination in step S104. The reservation command is as described above. It starts with the letter “R”, and represents the year, month, day, hour, and minute as integers, followed by a period, and then the shooting conditions. A certain pan / tilt / zoom instruction follows, and finally a name representing the image format is given. For example, if you want to make a reservation for shooting a 3x zoom video with a pan angle of 25 degrees and a tilt angle of 0 degrees at 13:15 on July 6, 1996, the following description is used.
[0146]
<img src = "http://www.foo.co.jp/R1996.7.6.13.15P25T0Z3.gif">
When the reservation command as described above is designated, a unique identification number is received as a reception code from the reception
This may be realized, for example, as a counter that is incremented by 1 for each generation request, or may be realized by a numerical value that represents the time of the requested date.
Then, the reception code, reservation time, shooting conditions, and image format information are registered in the reservation registration unit 1014 (step S106), and the reception code is returned to the requesting
[0147]
Also at this time, content type information and status information indicating that the response content is a reception code are added to the head. Then, this process ends.
[0148]
If you simply create an HTML document that includes such a shooting reservation and try to display it with a general WWW browser, the reception code will return instead of the image data. Although it is not displayed, the reservation reservation is made to the
[0149]
Note that, as described above, the retrieval command also begins with the letter “G”, is followed by a reception code, and finally has a name representing the image format. This reception code is returned when a reservation is made to the
[0150]
For example, when “12543” is returned as an acceptance code, the following description is used when an image reserved for shooting is taken out after shooting.
[0151]
<img src = "http://www.foo.co.jp/G12543.gif">
The
[0152]
For example, in the case of the above reservation example, when the reception code is “12543”, it is recorded as shown in the first column of FIG.
[0153]
When the reservation registration is completed, a time-limit unit, which will be described later, performs photographing as instructed at the reserved time, and image data is held in the
[0154]
The
[0155]
In the condition determination in step S101, if the head of the request is “G”, it is recognized as an image extraction command, and the process proceeds to step S109 via the condition determination in steps S104 and S108, and is stored in the
[0156]
Then, it is determined whether or not it is stored with the same value as the reception code described as the image retrieval command (step S110). If registered, the image data is retrieved, and the request source is retrieved via the
[0157]
In step S112, the image data that has just been extracted is stored.
The column of the
[0158]
If it is determined in step S110 that image data corresponding to the designated reception code is not stored, error information indicating that the target image has not been captured is returned to the requesting
[0159]
If the head of the request from the
[0160]
As described above, information is exchanged between the
[0161]
Next, the
[0162]
In the
[0163]
The operation of the timed program will be described with reference to the flowchart of FIG.
[0164]
First, the current time is read from the timer of the control device 1001 (step S201), and the process proceeds to step S202. In step S202, the reservation items registered one column at a time are extracted from the
[0165]
Thereafter, in step S703, video composition is performed. That is, the position of the target device in the video is calculated from the control information at the time of shooting the video, and the
[0166]
Then, the synthesized image is converted into the image format of the method designated by the reservation item, and this image data is stored in the
[0167]
As a result, photographing is performed as scheduled, the result is stored, and when an image retrieval command is requested from the
[0168]
As a result of the above, the client can observe the video shot by controlling the camera of the remote camera server as well as the object registered in advance (integrated copying machine in the above example) from time to time. You can check the state that changes. On the client side, when a specific position in the displayed video is clicked, if the anchor is provided there, the content information can be viewed.
[0169]
In this embodiment, an example of synthesizing the state of the copying machine has been described. However, this is not limited to the copying machine, but may be an OA device such as a facsimile or a printer, or another AV device. May be.
[0170]
In the present embodiment, an example in which only one anchor is combined in a video has been described. However, if a plurality of pieces of information are entered in the management information of the clickable map, a plurality of anchors may be expressed in one video. You can understand what you can do. For example, the following clickable map management information is prepared.
rect http://www.foo.co.jp/netdevices/copier_445/snmp.html 15,8 135,39
rect http://www.foo.co.jp/netdevices/facsimile_28/snmp.html 20,18 55,39
rect http://www.foo.co.jp/netdevices/colorprinterr_4/snmp.html 55,21 135,39
rect http://www.foo.co.jp/netdevices/printer_266/snmp.html 15,8 135,39
Further, in the embodiment, an example in which management information is accessed in a hypertext style when a device such as a copying machine is connected to the network online, a management table as shown in FIG. 18 is prepared. In this way, the information officer can be linked more directly. That is, this is a method in which the information shown in the fourth column “link destination URL” item of the management table of FIG. 18 is directly used as the link destination of the anchor.
[0171]
It can be easily understood that another program for changing the link destination item in the fourth column in FIG. 18 at any time is prepared.
[0172]
In the embodiment, the example in which the WWW URL is overlaid with the anchor has been described, but the same applies to the case in which the other hypertext anchor is overlaid.
[0173]
<Second Embodiment>
In the second embodiment, as in the first embodiment, the camera server placed in the office gives control information such as zoom and pan / tilt from the input device, and the camera information is combined with the control information. The point of adjusting the camera and adding added value to the projected image is the same, but the image processing unit for the image is different.
[0174]
In particular, the present embodiment is different in that, when an office image to be output includes an employee's seat and the employee is absent at a meeting or the like, the meeting room image or the like is superimposed.
[0175]
In this example, as shown in FIG. 15, instead of the image processing means 7020, the anchor generation means 7031, and the anchor interpretation means 7032 of the first embodiment, an extended image processing means 7120, an extension anchor generation means 7131, an extension anchor, respectively. By using the interpreting means 7132, it is characterized in that the anchor information is directly added to the video information and sent to the client.
[0176]
The extended
[0177]
In addition to simple interpretation of video data, the client adds a function of interpreting an anchor script received using the extended anchor interpretation unit 7132 and searching for an appropriate link destination when a click is detected. As a method for providing the extended anchor interpretation means 7132 to the client, a technique such as a plug-in or a helper application may be used.
[0178]
Further, the extended
[0179]
Hereinafter, these operations will be described.
[0180]
In order to realize the above, steps S702 and S802 in the description of the “camera control device” of the first embodiment are changed to the following steps S702 ′ and 802 ′.
Step S702 '
First, the video is synthesized according to step S702, and then the anchor script generated by the extended anchor generation means 7131 is added to the video information.
Step S802 '
First, in the same manner as in step S701, the imaging field of view is predicted from the interpretation of the control content. Next, an anchor script as shown below is generated from the predicted field of view, the position information of each device shown in the management table of FIG. 18, and the link destination information. Here, link
“Http://www.foo.co.jp/netdevices/copier_445/snmp.html”
An anchor named a1 is generated, and it is connected to rectangular areas whose top left and bottom right vertices are <15,8> and <135,39>, respectively.
<anchors>
<a href="http://www.foo.co.jp/netdevices/copier_445/snmp.html"> a1 </a>
<embed a = a1 range = 15,8 + 135,39> </ embed>
</ anchors>.
[0181]
As described above, here, by interpreting the control information given to the video input means and predicting the video taken by the video input means in advance, the video is not limited to a simple video information service, but has a higher added value. It is characterized by creating information.
[0182]
In the second embodiment, as in the first embodiment, the example of synthesizing only one anchor in the video has been described. However, the anchor list is expanded to express a plurality of anchors in one video. It will be easy to understand. For example, the following anchor script can be generated.
<anchors>
<a href="http://www.foo.co.jp/netdevices/copier_445/snmp.html"> a1 </a>
<a href="http://www.foo.co.jp/netdevices/facsimile_28/snmp.html"> a2 </a>
<a href="http://www.foo.co.jp/netdevices/colorprinter_4/snmp.html"> a3 </a>
<a href="http://www.foo.co.jp/netdevices/printer_266/snmp.html"> a4 </a>
<embed a = a1 range = 5,8 + 15,19> </ embed>
<embed a = a2 range = 20,18 + 35,39> </ embed>
<embed a = a3 range = 55,21 + 135,39> </ embed>
<embed a = a4 range = 30,30 + 135,45> </ embed>
</ anchors>.
[0183]
In the anchor script described in the present embodiment, the arrangement of the anchor in the video is specified using a two-dimensional coordinate such as “range = 15,8 + 135,39”. It is also easy to specify using. For example, as shown in FIG. 16A, the first quadrant (upper right portion) in the video display area (window) divided into four is designated as “range = 1/4”. Similarly, when the video display area is divided into nine as shown in FIG. 16B, numbers are assigned in order from the upper left area, for example, the sixth area is set to “range = 6/9”. Just decide.
[0184]
Furthermore, in the present embodiment, the method of attaching anchor information to each screen in the video has been described, but it is also possible to improve efficiency by attaching anchor information for a series of scenes. For example:
<anchors>
<a href="http://www.foo.co.jp/netdevices/copier_445/snmp.html"> a1 </a>
<a href="http://www.foo.co.jp/netdevices/facsimile_28/snmp.html"> a2 </a>
<a href="http://www.foo.co.jp/netdevices/colorprinter_4/snmp.html"> a3 </a>
<a href="http://www.foo.co.jp/netdevices/printer_266/snmp.html"> a4 </a>
<embed a = a1 scene = 132714 + 50 range = 5,8 + 15,19> </ embed>
<embed a = a2 scene = 132730 + 20 range = 20,18 + 35,39> </ embed>
<embed a = a3 scene = 132720 + 40 range = 55,21 + 135,39> </ embed>
<embed a = a4 scene = 132714 + 50 range = 30,30 + 135,45> </ embed>
</ anchors>.
[0185]
In the first and second embodiments described above, the case has been described in which an object whose state changes from moment to moment (in the embodiment, a copying machine) is displayed by remote control, but the state is fixed. For a typical object, it is not necessary to be connected to a special network and the object need not be electrically operated.
[0186]
For example, when an image in the office is displayed and a desired desk is clicked, information on the owner of the desk can be displayed.
[0187]
In the first and second embodiments, for example, when an object (copier) is placed within the field of view of the camera, the state information of the object is combined with the video and displayed, and the object is clicked. Further details of the copying machine are displayed in the above, but it may be displayed when the status information and the detailed information are clicked.
[0188]
Note that the present invention can be applied to a system (for example, a copier, a facsimile machine, etc.) composed of a single device even if it is applied to a system composed of a plurality of devices (for example, a host computer, interface device, reader, printer, etc.). May be.
[0189]
Another object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the storage medium. Needless to say, this can also be achieved by reading and executing the program code stored in.
[0190]
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
[0191]
As a storage medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
[0192]
In addition, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs the actual processing. Needless to say, a case where the function of the embodiment is realized by performing part or all of the processing, is also included.
[0193]
Further, after the program code read from the storage medium is written to the memory provided in the extension function board inserted in the computer or the function extension unit connected to the computer, the function extension is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
[0194]
【The invention's effect】
As described above, according to the present invention, it is possible not only to provide an object as a video, but also to provide a video service with higher added value such as providing a video that has been appropriately processed using the video as a material. become.
[0195]
[Brief description of the drawings]
FIG. 1 is a block configuration diagram of a system for explaining a premise part of an embodiment;
FIG. 2 is a flowchart showing operation processing contents of a command interpretation unit in FIG. 1;
FIG. 3 is a diagram illustrating an example of registration information generated by a reservation registration unit in FIG. 1;
4 is a diagram illustrating an example of information stored in an image storage unit in FIG. 1. FIG.
FIG. 5 is a flowchart showing processing contents of a time limit unit in FIG. 1;
FIG. 6 is a diagram illustrating an example of registration information generated by a reservation registration unit in the third example of the premise unit of the embodiment.
FIG. 7 is a block configuration diagram of a system in a fourth example of the premise part of the embodiment.
FIG. 8 is a flowchart illustrating processing contents of a reservation content registration unit of a fifth example of the premise unit of the embodiment.
FIG. 9 is a block diagram of a system in a sixth example of the premise part of the embodiment.
FIG. 10 is a flowchart showing an operation content of a
FIG. 11 is a block configuration diagram of a system in the first embodiment.
12 is a flowchart showing processing contents of a command interpretation unit in FIG. 11; FIG.
FIG. 13 is a flowchart showing processing contents of an eleventh time limit unit.
FIG. 14 is a diagram showing an example of time transition of video transferred from the server in the first embodiment.
FIG. 15 is a block configuration diagram of a system according to a second embodiment.
FIG. 16 is a diagram for explaining a region designating method according to the second embodiment.
FIG. 17 is a diagram showing the contents of a management table in the embodiment.
FIG. 18 is a diagram showing a modification of the contents of the management table in the embodiment.
FIG. 19 is a diagram illustrating an example of information displayed when an anchor is clicked in the embodiment.
[Explanation of symbols]
1001 Camera control device
1002 External device
1003 Camera
1007 Copier system
1011 Communication interface
1013 Reception code generator
1014 Reservation Registration Department
1015 time period
1017 Camera control unit
1018 Image input unit
1019 Image storage unit
7012 Command interpreter
7020 Video processing department
7021 Status information
7031 Anchor generating means
7032 Anchor analysis means
Claims (9)
前記ネットワークに接続された複数のネットワーク機器それぞれの位置を示す位置情報を記憶する記憶手段と、
前記クライアントからの前記カメラのアングルの制御要求を受けた場合、要求されたアングルに従って前記カメラを制御するカメラ制御手段と、
前記カメラ制御手段で前記カメラのアングルを制御する場合、前記記憶手段に記憶された各ネットワーク機器の位置情報に基づき、いずれのネットワーク機器が前記カメラの視野内に含まれるかを判断する判断手段と、
前記判断手段により前記カメラの視野内にネットワーク機器が含まれると判断された場合、該当するネットワーク機器に関する第1の情報を取得する取得手段と、
前記クライアントからのアングルの制御要求に基づき、前記カメラの視野内における前記ネットワーク機器の位置を算定し、前記カメラ制御手段の制御によって得られた撮像した画像内の前記算定した位置の近傍に、前記取得した第1の情報を示す画像を重畳し、重畳した画像に前記クライアント側で所定の指示があった場合に指示要求情報が返送されてくるように、所定の情報を組み込んで前記画像を転送する第1の転送制御手段と、
前記クライアントから前記指示要求情報の返送があった場合、前記所定の情報に応答する指示要求情報に従い、前記第1の転送制御手段によって重畳対象となった前記ネットワーク機器に関する第2の情報を前記クライアントに向けて転送する第2の転送制御手段と
を備えることを特徴とする映像制御装置。A video control device for transferring an image from a camera input in accordance with a camera control request received from a remote client via a network toward the requesting client via the network ,
Storage means for storing location information indicating the location of each of a plurality of network devices connected to the network ;
Camera control means for controlling the camera according to the requested angle when receiving a control request for the camera angle from the client;
A determination unit for determining which network device is included in the field of view of the camera based on the position information of each network device stored in the storage unit when the camera control unit controls the angle of the camera; ,
When the determination unit determines that a network device is included in the field of view of the camera, an acquisition unit that acquires first information about the corresponding network device;
Based on the angle control request from the client, calculate the position of the network device in the field of view of the camera, in the vicinity of the calculated position in the captured image obtained by the control of the camera control means, The acquired image indicating the first information is superimposed, and the image is transferred by incorporating predetermined information so that the instruction request information is returned when the client side has a predetermined instruction on the superimposed image. First transfer control means for
If there is return of the instruction request information from the client, according to an instruction request information, the second information about the network device was a superimposition target by said first transfer control means clients responsive to said predetermined information And a second transfer control means for transferring the image to the image control device.
前記カメラのアングルする場合、予め記憶手段に記憶された前記ネットワークに接続された複数のネットワーク機器それぞれの位置を示す位置情報に基づき、いずれのネットワーク機器が前記カメラの視野内に含まれるかを判断する判断工程と、
前記判断工程により前記カメラの視野内にネットワーク機器が含まれると判断された場合、該当するネットワーク機器に関する第1の情報を取得する取得工程と、
前記クライアントからのアングルの制御要求に基づき、前記カメラの視野内における前記ネットワーク機器の位置を算定し、前記カメラの制御によって得られた撮像した画像内の前記算定した位置の近傍に、前記取得した第1の情報を示す画像を重畳し、重畳した画像に前記クライアント側で所定の指示があった場合に指示要求情報が返送されてくるように、所定の情報を組み込んで前記画像を転送する第1の転送制御工程と、
前記クライアントから前記指示要求情報の返送があった場合、前記所定の情報に応答す る指示要求情報に従い、前記第1の転送制御工程によって重畳対象となった前記ネットワーク機器に関する第2の情報を前記クライアントに向けて転送する第2の転送制御工程と
を備えることを特徴とする映像制御装置の制御方法。A video control device that controls the camera in accordance with a camera angle control request received from a remote client via a network and transfers an input image from the camera to the requesting client via the network . A control method,
When the camera is angled, it is determined which network device is included in the field of view of the camera based on position information indicating the position of each of a plurality of network devices connected to the network stored in the storage unit in advance. A decision process to
If it is determined by the determination step that a network device is included in the field of view of the camera, an acquisition step of acquiring first information related to the network device;
Based on the angle control request from the client, the position of the network device in the field of view of the camera is calculated, and the acquired in the vicinity of the calculated position in the captured image obtained by the control of the camera. First, an image indicating the first information is superimposed, and when the client side has a predetermined instruction on the superimposed image , the instruction request information is returned and the image is transferred by incorporating the predetermined information. 1 transfer control process;
If from the client was a return of the instruction request information, according to an instruction request information that responds to the predetermined information, the second information about the network device was a superimposition target by the first transfer control step And a second transfer control step for transferring the data to a client.
前記クライアントからの前記カメラのアングルの制御要求を受けた場合、要求されたアングルに従って前記カメラを制御するカメラ制御手段と、
前記カメラ制御手段で前記カメラのアングルを制御する場合、予め記憶手段に記憶された前記ネットワークに接続された複数のネットワーク機器それぞれの位置を示す位置情報に基づき、いずれのネットワーク機器が前記カメラの視野内に含まれるかを判断する判断手段と、
前記判断手段により前記カメラの視野内にネットワーク機器が含まれると判断された場合、該当するネットワーク機器に関する第1の情報を取得する取得手段と、
前記クライアントからのアングルの制御要求に基づき、前記カメラの視野内における前記ネットワーク機器の位置を算定し、前記カメラ制御手段の制御によって得られた撮像した画像内の前記算定した位置の近傍に、前記取得した第1の情報を示す画像を重畳し、重畳した画像に前記クライアント側で所定の指示があった場合に指示要求情報が返送されてくるように、所定の情報を組み込んで前記画像を転送する第1の転送制御手段と、
前記クライアントから前記指示要求情報の返送があった場合、前記所定の情報に応答する指示要求情報に従い、前記第1の転送制御手段によって重畳対象となった前記ネットワーク機器に関する第2の情報を前記クライアントに向けて転送する第2の転送制御手段
として機能させるプログラムを格納したことを特徴とするコンピュータ可読記憶媒体。A computer-readable storage medium storing a program that causes a computer to function as a video control device that transfers an image input from a camera according to a camera control request from a remote client to the client when the computer reads and executes the computer There,
Camera control means for controlling the camera according to the requested angle when receiving a control request for the camera angle from the client;
When the camera control means controls the angle of the camera, based on the position information indicating the position of each of a plurality of network devices connected to the network stored in advance in the storage means, any network device is the field of view of the camera. A determination means for determining whether it is included in,
When the determination unit determines that a network device is included in the field of view of the camera, an acquisition unit that acquires first information about the corresponding network device;
Based on the angle control request from the client, calculate the position of the network device in the field of view of the camera, in the vicinity of the calculated position in the captured image obtained by the control of the camera control means, The acquired image indicating the first information is superimposed, and the image is transferred by incorporating predetermined information so that the instruction request information is returned when the client side has a predetermined instruction on the superimposed image. First transfer control means for
If there is return of the instruction request information from the client, according to an instruction request information, the second information about the network device was a superimposition target by said first transfer control means clients responsive to said predetermined information Second transfer control means for transferring to
A computer-readable storage medium storing a program that functions as a storage medium.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26727497A JP4035211B2 (en) | 1997-09-30 | 1997-09-30 | Video control apparatus, control method, and storage medium |
US08/995,394 US6654060B1 (en) | 1997-01-07 | 1997-12-22 | Video-image control apparatus and method and storage medium |
US10/679,322 US7355633B2 (en) | 1997-01-07 | 2003-10-07 | Video-image control apparatus and method with image generating mechanism, and storage medium containing the video-image control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26727497A JP4035211B2 (en) | 1997-09-30 | 1997-09-30 | Video control apparatus, control method, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11112857A JPH11112857A (en) | 1999-04-23 |
JP4035211B2 true JP4035211B2 (en) | 2008-01-16 |
Family
ID=17442567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP26727497A Expired - Fee Related JP4035211B2 (en) | 1997-01-07 | 1997-09-30 | Video control apparatus, control method, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4035211B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4878409B2 (en) * | 1999-03-23 | 2012-02-15 | キヤノン株式会社 | Information control apparatus, information control method, and storage medium |
JP4251591B2 (en) * | 1999-09-27 | 2009-04-08 | キヤノン株式会社 | Information processing apparatus, control method therefor, and storage medium |
US7249317B1 (en) | 1999-09-27 | 2007-07-24 | Canon Kabushiki Kaisha | Information processing apparatus, its control method, and storage medium |
JP2001128153A (en) * | 1999-10-29 | 2001-05-11 | Ricoh Co Ltd | Digital camera and digital camera system |
JP4776756B2 (en) * | 2000-06-22 | 2011-09-21 | 三菱電機株式会社 | Elevator video monitoring device |
JP4747410B2 (en) * | 2000-11-10 | 2011-08-17 | ソニー株式会社 | Video switching display device and video switching display method |
EP1480460A4 (en) * | 2002-02-28 | 2007-02-14 | Sony Corp | Camera server and image distribution method |
JP4969053B2 (en) * | 2005-04-14 | 2012-07-04 | ソニーモバイルコミュニケーションズ, エービー | Portable terminal device and display method |
JP2010118739A (en) * | 2008-11-11 | 2010-05-27 | Sony Corp | Switcher control device, switcher control method and image synthesizing apparatus |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02277103A (en) * | 1988-07-18 | 1990-11-13 | Toshiba Corp | Monitor controller |
JPH04148309A (en) * | 1990-10-11 | 1992-05-21 | Toshiba Corp | Diagnosing device for electrical instrumentation system deterioration |
JPH04196987A (en) * | 1990-11-28 | 1992-07-16 | Matsushita Electric Ind Co Ltd | Moving picture access device and moving picture link editing device |
JP3035391B2 (en) * | 1991-09-27 | 2000-04-24 | 京セラ株式会社 | Electronic still camera |
JPH05314378A (en) * | 1992-05-12 | 1993-11-26 | Toshiba Corp | Plant monitor device |
JPH0750798A (en) * | 1993-08-06 | 1995-02-21 | Ricoh Co Ltd | Electronic still camera |
JP3277658B2 (en) * | 1993-12-28 | 2002-04-22 | 株式会社日立製作所 | Information display device |
JP3513233B2 (en) * | 1994-11-28 | 2004-03-31 | キヤノン株式会社 | Camera operation device |
JP3441200B2 (en) * | 1994-11-30 | 2003-08-25 | 株式会社東芝 | Plant monitoring equipment |
JPH08202435A (en) * | 1995-01-25 | 1996-08-09 | Hitachi Ltd | Plant information display system, field patrol support system in the same, and portable field terminal device for the same |
JPH08317374A (en) * | 1995-05-18 | 1996-11-29 | Canon Inc | Network system |
JPH099231A (en) * | 1995-06-16 | 1997-01-10 | Canon Inc | Video conference system and camera control system |
JPH0937237A (en) * | 1995-07-14 | 1997-02-07 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for providing video information |
JPH0937230A (en) * | 1995-07-21 | 1997-02-07 | Mitsubishi Denki Eng Kk | Image monitor |
JPH0971240A (en) * | 1995-09-07 | 1997-03-18 | Toshiba Corp | Door safety confirming system for train |
JP3622801B2 (en) * | 1995-11-21 | 2005-02-23 | 株式会社タツノ・メカトロニクス | Lubrication monitoring device |
JP3703229B2 (en) * | 1995-12-19 | 2005-10-05 | キヤノン株式会社 | Camera control system and method, and storage medium |
-
1997
- 1997-09-30 JP JP26727497A patent/JP4035211B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11112857A (en) | 1999-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7355633B2 (en) | Video-image control apparatus and method with image generating mechanism, and storage medium containing the video-image control program | |
US5946458A (en) | Network printing system for responding to remote print-related requests | |
US5987226A (en) | Printing system and method | |
US9613063B2 (en) | Content transmission device, content transmission method, and content transmission program | |
US20020054303A1 (en) | Image storing apparatus, image control apparatus, output control apparatus, information processing apparatus, system of these apparatuses, print control method therefor, and storage medium storing computer readable program realizing print control | |
JPWO2003085510A1 (en) | Apparatus for enabling printer to print desired design page and method of operating same | |
JP4035211B2 (en) | Video control apparatus, control method, and storage medium | |
US8284443B2 (en) | Apparatus and system for managing form data obtained from outside system | |
JP3796310B2 (en) | Video control apparatus, control method, and storage medium | |
JP2970521B2 (en) | Document storage device | |
JPH1042279A (en) | Device and method for controlling camera | |
JP3817313B2 (en) | Camera control apparatus and method | |
JP2007156736A (en) | Information processor and coordinated processing method | |
JP4533455B2 (en) | Scanner and control method thereof | |
JP4191063B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2001339556A (en) | Image read system, server unit, client unit, image read method and storage medium | |
JP4377981B2 (en) | Multi-function system, input device and control method thereof | |
JP2008269566A (en) | Printer driver program, and printer system having the same | |
JP2004213251A (en) | Image forming apparatus capable of reusing objective data for image formation and their processing condition | |
JP2000172464A (en) | Print system, printer, and print server | |
JP4172114B2 (en) | Moving image printing method | |
JP4194173B2 (en) | Management server, data processing device, output device, data processing method, and storage medium storing computer-readable program | |
TW513662B (en) | Display control unit | |
JP4018700B2 (en) | Imaging control method, communication apparatus, and control apparatus | |
JP3832988B2 (en) | Multifunction system and data transfer method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040603 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040603 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20040603 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20040603 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070528 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070719 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071019 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071029 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101102 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101102 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111102 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121102 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131102 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |